JP2001022488A - User interface control method and user interface controller - Google Patents

User interface control method and user interface controller

Info

Publication number
JP2001022488A
JP2001022488A JP19706999A JP19706999A JP2001022488A JP 2001022488 A JP2001022488 A JP 2001022488A JP 19706999 A JP19706999 A JP 19706999A JP 19706999 A JP19706999 A JP 19706999A JP 2001022488 A JP2001022488 A JP 2001022488A
Authority
JP
Japan
Prior art keywords
user
computer
characteristic
user interface
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19706999A
Other languages
Japanese (ja)
Inventor
Shigeru Matsumoto
茂 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electronics Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electronics Corp, Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electronics Corp
Priority to JP19706999A priority Critical patent/JP2001022488A/en
Publication of JP2001022488A publication Critical patent/JP2001022488A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the optimal user interface of a computer in accordance with the character of a user or the user's feeling. SOLUTION: Character information which is temporarily changed according to a user's feeling is identified 700 on the basis of information (mouse, keyboard, audio and video operation characteristics) fetched from an input device of a computer and user interface characteristics (the mouse/key board/audio operation characteristics and guide display characteristics) are changed 450 based on the characteristics information which is temporarily changed according to the user's feeling.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、利用者の特質また
は感情によって一時的に変化した特質情報(以下、単に
感情と表す)などに応じてコンピュータが備えるユーザ
インターフェースの特性を変更するユーザインターフェ
ース制御装置、およびユーザインターフェース制御方法
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user interface control for changing the characteristics of a user interface provided in a computer in accordance with characteristic information (hereinafter, simply referred to as emotion) temporarily changed by the characteristic or emotion of a user. The present invention relates to an apparatus and a user interface control method.

【0002】本発明は、複数人で少数のコンピュータを
利用する(即ち各人が専用コンピュータを保有していな
い)コンピュータ利用環境にて使用されるコンピュータ
に有効であり、中でもオフィス等で多くの人が利用する
パーソナルコンピュータに適応すれば格別の効果をもた
らす。さらに、様々な状況や状態に応じて変化するコン
ピュータ利用者の感情や感性に応じたコンピュータのユ
ーザインターフェースを提供する場合にも大変有効であ
る。
The present invention is effective for computers used in a computer environment where a plurality of people use a small number of computers (that is, each person does not have a dedicated computer). If it is adapted to the personal computer used, it will bring a special effect. Further, the present invention is also very effective in providing a computer user interface that is adapted to the emotions and sensibilities of a computer user that changes according to various situations and states.

【0003】[0003]

【従来の技術】従来のユーザインターフェース制御装置
を図15、図16に基づいて説明する。図15は従来の
ユーザインターフェース制御装置のブロック図、図16
はパーソナルコンピュータのマウス特性を変更するため
のマウスプロパティウインドウの一例である。
2. Description of the Related Art A conventional user interface control device will be described with reference to FIGS. FIG. 15 is a block diagram of a conventional user interface control device, and FIG.
Is an example of a mouse property window for changing the mouse characteristics of the personal computer.

【0004】従来のユーザインターフェース制御装置
は、図15に示すように、マウス特性設定手段(101
0)、キーボード特性設定手段(1020)及びオーデ
ィオ特性設定手段(1030)によって構成され、コン
ピュータ利用者が、自身の特質や癖、その時点の感情に
応じて、コントロールパネルからマウス、キーボードや
オーディオ特性などを変更する。
As shown in FIG. 15, a conventional user interface control device includes a mouse characteristic setting means (101).
0), a keyboard characteristic setting means (1020) and an audio characteristic setting means (1030). A computer user can control a mouse, a keyboard and an audio characteristic from a control panel according to his / her own characteristics, habits, and emotions at that time. Change etc.

【0005】以下、従来のユーザインターフェース制御
装置を、Windows95がインストールされたパー
ソナルコンピュータのユーザインターフェースを制御す
る場合を例にとって詳しく説明する。
Hereinafter, a conventional user interface control device will be described in detail with reference to an example in which a user interface of a personal computer in which Windows 95 is installed is controlled.

【0006】図15において、マウス特性設定手段(1
010)は、図16に示すように、パーソナルコンピュ
ータ上のコントロールパネルのマウスプロパティ(10
11)から、マウスのダブルクリックの速度、ポインタ
ーの移動速度、ポインターの形状、またはマウスの右利
き/左利きの設定を行う。この設定は、利用者自身の特
質や癖、その時点の感情に応じて、必要に応じて利用者
が設定する。
In FIG. 15, mouse characteristic setting means (1)
010) is the mouse property (10) of the control panel on the personal computer as shown in FIG.
From step 11), the user sets the double-click speed of the mouse, the moving speed of the pointer, the shape of the pointer, or the right-handed / left-handed mouse. This setting is set by the user as necessary in accordance with the characteristics and habits of the user himself and the emotions at that time.

【0007】キーボード特性設定手段(1020)は、
マウス特性設定手段(1010)同様、利用者がコント
ロールパネルのキーボードプロパティから、カーソルの
点滅速度、キー入力から文字表示までの待ち時間、また
は文字の表示間隔の設定を行う。この設定は、利用者自
身の癖や、その時点の感情に応じて、必要に応じて利用
者が設定する。
The keyboard characteristic setting means (1020)
As with the mouse property setting means (1010), the user sets the blinking speed of the cursor, the waiting time from key input to character display, or the character display interval from the keyboard properties of the control panel. This setting is set by the user as necessary according to the user's own habit and emotion at that time.

【0008】オーディオ特性設定手段(1030)は、
マウス特性設定手段(1010)同様、利用者がコント
ロールパネルのマルチメディアプロパティから、オーデ
ィオの再生音量、録音音量、または再生音質の設定を行
う。この設定は、利用者自身の特質や癖、その時点の感
情に応じて、必要に応じて利用者が設定する。
The audio characteristic setting means (1030)
As with the mouse property setting means (1010), the user sets the audio playback volume, recording volume, or playback sound quality from the multimedia properties of the control panel. This setting is set by the user as necessary in accordance with the characteristics and habits of the user himself and the emotions at that time.

【0009】以上のように構成された従来のユーザイン
ターフェース制御装置においては、コンピュータを利用
する人が、自身の特質や癖、またはその時点の自身の感
情や感性に応じて、マウス、キーボード、またはオーデ
ィオ等のコンピュータのユーザインターフェース特性
を、その都度変更する必要があった。
In the conventional user interface control device configured as described above, the user of the computer can use a mouse, a keyboard, or a keyboard according to his / her own characteristics and habits, or his / her emotions and sensibilities at that time. The user interface characteristics of the computer, such as audio, must be changed each time.

【0010】同様に、コンピュータ上で稼動するアプリ
ケーションプログラムの特性(例えば、ガイド表示時
間)も、コンピュータを利用する人が、自身の特質や
癖、またはその時点の自身の感情や感性に応じて、その
都度変更する必要があった。
Similarly, the characteristics of the application program running on the computer (for example, the guide display time) are determined by the user of the computer according to his / her own characteristics and habits or his / her emotions and sensibilities at that time. It had to be changed each time.

【0011】[0011]

【発明が解決しようとする課題】しかしながら前記のよ
うに構成された従来のユーザインターフェース制御装置
では、次のような問題を有していた。
However, the conventional user interface control device configured as described above has the following problems.

【0012】1)コンピュータを利用する毎に、ユーザ
インターフェース特性の設定を、利用者が行わなければ
ならない。ユーザインターフェース特性の設定はコンピ
ュータに関する専門知識が必要であるため利用者にとっ
てかなりの負担となり、殆どの利用者はユーザインター
フェース特性を変更しないまま使用しているため、利用
者が効率的にコンピュータを利用できない要因の一つで
あった。
1) Each time a computer is used, the user must set the user interface characteristics. The setting of the user interface characteristics requires a considerable amount of technical knowledge about computers, which imposes a considerable burden on the user. Most users use the computer without changing the user interface characteristics, so the user can use the computer efficiently. One of the factors that could not be done.

【0013】2)コンピュータ利用者の、その時々の感
情や感性(例えば、通常よりも焦っている、急いでい
る、落ち着いて考えたい等)によって、ユーザインター
フェース特性を、利用者が変更しなければならない。例
えば、焦っている時や、急いでいる時は、利用者のマウ
スのクリック速度が通常よりも速くなり、利用者はシン
グルクリックを2度行っているにも関わらず、ダブルク
リックであるとコンピュータが認識し、利用者が意図し
ない動作をコンピュータが起こすなどして、利用者が効
率的にコンピュータを利用できない要因の一つであっ
た。
[0013] 2) If the user does not change the user interface characteristics depending on the emotions and sensibilities of the computer user at that time (for example, they are more impatient than usual, hurry, want to calm down, etc.) No. For example, when you are in a hurry or in a hurry, the user's mouse click speed will be faster than usual, and if the user performs a single click twice but double clicks, Is one of the factors that prevent the user from using the computer efficiently because the computer causes an operation that the user does not intend.

【0014】本発明はこのような現状に鑑みてなされた
ものであり、次に示す課題を解決することができるユー
ザインターフェース制御装置及びその方法を提供するこ
とが本発明の目的である。
The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a user interface control device and a method thereof that can solve the following problems.

【0015】1)コンピュータ利用者の特質(例えば、
右利き/左利き、平均的な利用者よりも温和な、荒っぽ
い、細かい、おおざっぱなど)や癖(例えば、平均的な
利用者よりもキーを強く叩く、マウスを素早く動かす、
大声で話すなど)に応じて、マウス、キーボード、オー
ディオ、または操作ガイド等のコンピュータのユーザイ
ンターフェース特性の設定を自動的に変更する。即ち、
利用者毎の最適な、使い易いコンピュータ環境を自動的
に構築する。
1) Characteristics of computer users (for example,
Right-handed / left-handed, gentler than average user, rough, fine, rough, etc. and habits (eg hitting keys harder than average user, moving mouse quickly,
(Such as speaking loudly) automatically changes settings of computer user interface characteristics such as a mouse, keyboard, audio, or operation guide. That is,
Automatically build an optimal and easy-to-use computer environment for each user.

【0016】2)コンピュータ利用者の、その時の感情
や感性(例えば、通常よりも焦っている、落ち着いてい
るなど)に応じて、マウス、キーボード、オーディオ、
または操作ガイド等のコンピュータのユーザインターフ
ェース特性を自動的に変更する。即ち、利用者のその時
々の状態や状況にあわせて最適な、使い易いコンピュー
タ環境を自動的に構築する。
2) A mouse, a keyboard, an audio, a computer user, etc., depending on the emotions and sensibilities of the computer user at that time (for example, being more impatient or calm than usual).
Alternatively, the user interface characteristics of the computer such as an operation guide are automatically changed. That is, an optimal and easy-to-use computer environment is automatically constructed according to the user's current state and situation.

【0017】[0017]

【課題を解決するための手段】前記の目的を達成するた
め、本発明に係る第1のユーザインターフェース制御方
法は、コンピュータの入力デバイスから取り込んだ情報
に基づいて利用者を識別する工程、利用者の識別情報を
基にコンピュータに蓄積されている利用者の特質情報を
抽出する工程、特質情報に基づいてコンピュータのユー
ザインターフェースの特性を変更する工程を備えてい
る。
To achieve the above object, a first user interface control method according to the present invention comprises the steps of: identifying a user based on information taken from an input device of a computer; Extracting the characteristic information of the user stored in the computer based on the identification information, and changing the characteristics of the user interface of the computer based on the characteristic information.

【0018】本発明に係る第2のユーザインターフェー
ス制御方法は、コンピュータの入力デバイスから取り込
んだ情報に基づいて、一定時間毎または規定のタイミン
グで利用者の特質を示す情報を更新する工程、更新され
た特質情報に基づいてコンピュータのユーザインターフ
ェースの特性を変更する工程を備えている。
In a second user interface control method according to the present invention, the step of updating information indicating a characteristic of a user at regular time intervals or at a predetermined timing based on information taken from an input device of a computer is updated. Changing the characteristics of the user interface of the computer based on the characteristic information.

【0019】本発明に係る第3のユーザインターフェー
ス制御方法は、コンピュータの入力デバイスから取り込
んだ情報に基づいて利用者の感情を識別する工程、利用
者の感情に基づいてコンピュータのユーザインターフェ
ースの特性を変更する工程を備えている。
A third user interface control method according to the present invention includes a step of identifying a user's emotion based on information taken from an input device of the computer, and a step of identifying characteristics of the user interface of the computer based on the user's emotion. It has a step of changing.

【0020】[0020]

【発明の実施の形態】(第1の実施形態)本発明の一実
施形態に係るユーザインターフェース制御装置、および
ユーザインターフェース制御方法について図面を参照し
ながら説明する。
(First Embodiment) A user interface control device and a user interface control method according to an embodiment of the present invention will be described with reference to the drawings.

【0021】図1は本発明の一実施形態に係るユーザイ
ンターフェース制御装置のブロック図、図4は一実施形
態に係るユーザインターフェース制御装置のシステム概
要を説明するための図、図5は一実施形態に係るユーザ
インターフェース制御装置の利用者特性蓄積テーブルの
一例、図6は一実施形態に係るユーザインターフェース
制御装置の利用者のポインティングデバイス特性を記録
した度数分布グラフの一例、図7は一実施形態に係るユ
ーザインターフェース制御方法の利用者識別工程の処理
の流れを示す図、図8は一実施形態に係るユーザインタ
ーフェース制御方法の特質情報抽出工程の処理の流れを
示す図、図9は一実施形態に係るユーザインターフェー
ス制御方法の入出力デバイス特性変更工程の処理の流れ
を示す図、図10は一実施形態に係るユーザインターフ
ェース制御方法のアプリケーション特性変更工程の処理
の流れを示す図である。
FIG. 1 is a block diagram of a user interface control device according to one embodiment of the present invention, FIG. 4 is a diagram for explaining a system outline of a user interface control device according to one embodiment, and FIG. 5 is one embodiment. FIG. 6 is an example of a user characteristic accumulation table of the user interface control device according to the embodiment, FIG. 6 is an example of a frequency distribution graph recording the pointing device characteristics of the user of the user interface control device according to the embodiment, and FIG. FIG. 8 is a diagram showing a process flow of a user identification process of the user interface control method, FIG. 8 is a diagram showing a process flow of a characteristic information extraction process of the user interface control method according to the embodiment, and FIG. FIG. 10 is a diagram showing a processing flow of an input / output device characteristic changing step of the user interface control method. Is a diagram showing the flow of processing of the application characteristics changing step of the user interface control method according to an embodiment.

【0022】ユーザインターフェース制御装置は図1に
示すように、利用者識別手段(100)、特質情報抽出
手段(200)、入出力デバイス特性変更手段(30
0)、アプリケーション特性変更手段(400)によっ
て構成され、コンピュータを利用する人の特質、癖等に
応じてコンピュータが備える入出力デバイスの特性、コ
ンピュータ上で動作するアプリケーションプログラムの
特性を自動的に変更する。以下、Windows95が
インストールされたパーソナルコンピュータのマウス特
性、キーボード特性、オーディオ特性、ビデオ特性、お
よびアプリケーションの操作ガイド特性を変更する場合
を例に取って、各手段を詳しく説明する。利用者識別手
段(100)は、コンピュータの入力デバイスから取り
込んだ情報に基づいて利用者を識別する。利用者の識別
方法は種々あり、特に限定しないが、本例では、入力さ
れた利用者識別子を用いた方法、カメラで撮影した画像
を用いて判定する方法、およびマイクで採取した音声を
用いて判定する方法について説明する。
As shown in FIG. 1, the user interface control device includes a user identification means (100), a characteristic information extracting means (200), and an input / output device characteristic changing means (30).
0), which is constituted by an application characteristic changing means (400), which automatically changes the characteristics of the input / output devices provided in the computer and the characteristics of the application programs running on the computer according to the characteristics, habits, etc. of the person using the computer. I do. Hereinafter, each means will be described in detail by taking as an example a case where the mouse characteristics, keyboard characteristics, audio characteristics, video characteristics, and application operation guide characteristics of a personal computer on which Windows 95 is installed are changed. The user identification means (100) identifies a user based on information taken from an input device of a computer. There are various methods for identifying a user, and there is no particular limitation. In this example, a method using an input user identifier, a method using an image captured by a camera, and a method using a voice collected by a microphone are used. The determination method will be described.

【0023】まず、利用者識別子を用いてコンピュータ
利用者を識別する方法について説明する。図1、図4お
よび図7に示すように、利用者のコンピュータ使用開始
時、またはコンピュータ使用中に入力した利用者識別子
(氏名、社員番号、利用者IDなど)を基に利用者を識
別する。例えば、キーボード(12)、マウス(13)
またはタッチパネル(17)から入力された利用者ID
によって利用者を識別する。
First, a method for identifying a computer user using a user identifier will be described. As shown in FIG. 1, FIG. 4 and FIG. 7, the user is identified based on the user identifier (name, employee number, user ID, etc.) input when the user starts using the computer or while using the computer. . For example, keyboard (12), mouse (13)
Or the user ID input from the touch panel (17)
Identifies the user.

【0024】次に、撮影した画像を用いてコンピュータ
利用者を識別する方法について説明する。図1、図4、
および図7に示すように、カメラ(16)で撮影した利
用者の画像から利用者を識別する。画像から利用者を識
別する方法は特に問わないが、例えば、松下技研(株)
が開発した顔画像照合技術を応用して、コンピュータ上
の記憶装置に蓄積された全利用者の顔画像情報と撮影し
た利用者の顔画像を比較しながら、顔の特質が一致する
か否かに基づいて利用者を特定すればよい。仮に一致す
る顔の特質が存在しない場合は、採取した音声による利
用者の識別を試みたり、または利用者識別子による利用
者の識別を試みればよい。
Next, a method for identifying a computer user by using a photographed image will be described. 1, 4,
As shown in FIG. 7, the user is identified from the image of the user taken by the camera (16). The method of identifying the user from the image is not particularly limited. For example, Matsushita Giken Co., Ltd.
Applying the face image collation technology developed by the company, comparing the face image information of all users stored in the storage device on the computer with the face image of the photographed user, whether the face characteristics match The user may be specified based on the user. If there is no matching face characteristic, identification of the user by the collected voice or identification of the user by the user identifier may be attempted.

【0025】最後に、採取した音声を用いてコンピュー
タ利用者を識別する方法について説明する。図1、図4
および図7に示すように、マイク(15)で採取した利
用者の音声から利用者を識別する。音声から利用者を識
別する方法は特に問わないが、例えば、声紋鑑定等で用
いられている技術を応用して、コンピュータ上の記憶装
置に蓄積された全利用者の音声情報と録音した利用者の
音声を比較しながら、音声の特質が一致するか否かに基
づいて利用者を特定すればよい。仮に一致する音声の特
質が存在しない場合は、撮影した画像による利用者の識
別を試みたり、または利用者識別子による利用者の識別
を試みればよい。
Finally, a method for identifying a computer user using the collected voice will be described. 1 and 4
And as shown in FIG. 7, the user is identified from the voice of the user collected by the microphone (15). There is no particular limitation on the method of identifying the user from the voice. For example, by applying the technology used in voiceprint identification and the like, the user has recorded the voice information of all the users stored in the storage device on the computer and recorded The user may be specified based on whether or not the characteristics of the voices match while comparing the voices. If there is no matching voice characteristic, it is sufficient to try to identify the user by the captured image or to try to identify the user by the user identifier.

【0026】特質情報抽出手段(200)は、利用者識
別手段(100)で識別した利用者の特質情報を利用者
特性蓄積テーブル(20)から抽出する。
The characteristic information extracting means (200) extracts characteristic information of the user identified by the user identifying means (100) from the user characteristic accumulation table (20).

【0027】図1、図4および図8に示すように、利用
者識別手段(100)で特定した利用者の識別IDを基
に、その利用者の特質情報(マウス・キーボード・オー
ディオ・ビデオ特性・ガイド特性など)を検索する。例
えば、識別IDを検索キーとして、識別ID、マウス特
性、キーボード特性、オーディオ特性、、ビデオ特性お
よびガイド特性を項目として持つ、コンピュータ記憶装
置上の利用者特性蓄積テーブル(20)から、マウス特
性、キーボード特性、オーディオ特性、ビデオ特性およ
びガイド特性を抽出する。抽出方法は特に問わないが、
利用者特性蓄積テーブル(20)を管理するDBMS、
OS等に備わったSQL等を用いればよい。
As shown in FIGS. 1, 4 and 8, based on the identification ID of the user specified by the user identification means (100), the characteristic information of the user (mouse, keyboard, audio, video characteristics)・ Guide characteristics). For example, from the user characteristic accumulation table (20) on the computer storage device having the identification ID, the mouse characteristic, the keyboard characteristic, the audio characteristic, the video characteristic, and the guide characteristic as items using the identification ID as a search key, Extract keyboard characteristics, audio characteristics, video characteristics and guide characteristics. The extraction method is not particularly limited,
DBMS for managing the user characteristic accumulation table (20),
SQL or the like provided in the OS or the like may be used.

【0028】なお、利用者特性蓄積テーブル(20)の
マウス特性、キーボード特性、オーディオ特性、ビデオ
特性、およびガイド特性項目の各値は、本例で示すよう
な文字情報として格納するのではなく、各項目の各値毎
に数値化して格納してもよい。また、利用者特性蓄積テ
ーブル(20)の各項目値は、利用者の増減や利用者の
特質の変化、入出力デバイスの変更やアプリケーション
プログラムの追加などがあった時に更新すればよい。さ
らに、利用者特性蓄積テーブル(20)は、コンピュー
タ(11)からアクセス可能なネットワーク上に存在し
てもよい。さらに、利用者特性蓄積テーブル(20)は
リスト構造を用いて実現してもよい。
The values of the mouse characteristic, the keyboard characteristic, the audio characteristic, the video characteristic, and the guide characteristic item of the user characteristic accumulation table (20) are not stored as character information as shown in this example, but are stored. Numerical values may be stored for each value of each item and stored. Further, each item value of the user characteristic accumulation table (20) may be updated when there is an increase or decrease in users, a change in characteristics of the user, a change in an input / output device, an addition of an application program, or the like. Further, the user characteristic accumulation table (20) may exist on a network accessible from the computer (11). Further, the user characteristic accumulation table (20) may be realized using a list structure.

【0029】入出力デバイス特性変更手段(300)
は、抽出した利用者の特質に応じてコンピュータの入力
デバイス特性(マウス・キーボード・オーディオ・ビデ
オ特性など)を変更する。
Input / output device characteristic changing means (300)
Changes input device characteristics (mouse, keyboard, audio, video characteristics, etc.) of the computer according to the extracted characteristics of the user.

【0030】図1、図4および図9に示すように、特質
情報抽出手段(200)で抽出した利用者の特質情報
(マウス・キーボード・オーディオ・ビデオ特性など)
に基づいて、コンピュータの入出力デバイス特性を変更
する。
As shown in FIG. 1, FIG. 4 and FIG. 9, user characteristic information (mouse, keyboard, audio, video characteristics, etc.) extracted by the characteristic information extracting means (200).
Change the input / output device characteristics of the computer based on the

【0031】マウス特性としては、例えば、「右きき用
/左きき用」、「ダブルクリック速度」、「ポインター
形状」、「ポインター移動速度」、「ポインター軌跡の
有無」などを変更する。なお、変更方法は特に問わない
が、OSに備わったレジストリ操作関数や、レジストリ
等に格納されているマウス特性を変更するプログラムを
用いて変更すればよい。
As the mouse characteristics, for example, “for right-handed / left-handed”, “double-click speed”, “pointer shape”, “pointer moving speed”, “presence / absence of pointer locus” and the like are changed. The changing method is not particularly limited, but may be changed using a registry operation function provided in the OS or a program for changing mouse characteristics stored in the registry or the like.

【0032】キーボード特性としては、例えば、「表示
までの待ち時間」、「表示間隔」、「カーソル点滅速
度」などを変更する。なお、変更方法は特に問わない
が、OSに備わったレジストリ操作関数や、レジストリ
等に格納されているキーボード特性を変更するプログラ
ムを用いて変更すればよい。
As the keyboard characteristics, for example, “waiting time until display”, “display interval”, “cursor blinking speed” and the like are changed. The change method is not particularly limited, but may be changed using a registry operation function provided in the OS or a program for changing keyboard characteristics stored in the registry or the like.

【0033】オーディオ特性としては、例えば、「サウ
ンド種別」、「録音音量」、「出力音量」などを変更す
る。なお、変更方法は特に問わないが、OSに備わった
レジストリ操作関数や、レジストリ等に格納されている
オーディオ特性を変更するプログラムを用いて変更すれ
ばよい。
As the audio characteristics, for example, “sound type”, “recording volume”, “output volume” and the like are changed. The change method is not particularly limited, but may be changed using a registry operation function provided in the OS or a program for changing audio characteristics stored in a registry or the like.

【0034】ビデオ特性としては、例えば、「コントラ
スト」、「ブライトネス」などを変更する。変更方法は
特に問わないが、コンピュータに備わった変更ツールな
どを用いて変更すればよい。
As the video characteristics, for example, "contrast", "brightness" and the like are changed. The change method is not particularly limited, but may be changed using a change tool or the like provided in the computer.

【0035】アプリケーション特性変更手段(400)
は、抽出した利用者の特質に応じてコンピュータ上で動
作するアプリケーションプログラムの特性(ガイド特性
など)を変更する。
Application characteristic changing means (400)
Changes the characteristics (such as guide characteristics) of the application program that runs on the computer according to the extracted characteristics of the user.

【0036】図1、図4および図10に示すように、特
質情報抽出手段(200)で抽出した利用者の特質情報
(ガイド特性など)に基づいて、コンピュータ上で稼動
するアプリケーションプログラムの特性を変更する。
As shown in FIG. 1, FIG. 4, and FIG. 10, the characteristics of the application program running on the computer are determined based on the characteristic information of the user (such as guide characteristics) extracted by the characteristic information extracting means (200). change.

【0037】変更の対象となるアプリケーションは特に
限定しないが、Windows上で稼動するタスクバー
をはじめ、ワードプロセッサーなど、何でもよい。ま
た、変更するアプリケーションの特性も、「操作ガイド
表示時間」、「ウインドウ切り替え時間」、「メニュー
表示時間」、「アプリケーションナビゲータ表示時間」
など、何でもよい。さらに、アプリケーション特性の変
更方法も、コンピュータに備わったツールなどを用いて
行えばよく、特に限定しない。
The application to be changed is not particularly limited, but may be anything such as a task bar running on Windows or a word processor. Also, the characteristics of the application to be changed include “operation guide display time”, “window switching time”, “menu display time”, “application navigator display time”.
Anything is fine. Furthermore, the method of changing the application characteristics may be performed using a tool or the like provided in the computer, and is not particularly limited.

【0038】以上、利用者識別手段(100)は、利用
者のコンピュータ(11)利用開始時、定時、または一
定間隔毎に実施し、続いて特質情報抽出手段(200)
を実施し、以後、入出力デバイス特性変更手段(30
0)またはアプリケーション特性変更手段(400)を
実施する。
As described above, the user identification means (100) is implemented at the start of use of the user's computer (11), at a regular time, or at regular intervals, and subsequently, the characteristic information extraction means (200)
After that, the input / output device characteristic changing means (30)
0) or the application characteristic changing means (400) is implemented.

【0039】以上のように本実施形態によれば、コンピ
ュータ利用者の特質や癖に応じて、コンピュータの入出
力デバイス特性(マウス・キーボード・オーディオ・ビ
デオ特性など)およびコンピュータ上で動作するアプリ
ケーションプログラム特性(ガイド特性など)を自動的
に設定することができ、利用者が意識して設定しなくと
も最適なコンピュータ操作環境を構築することができ
る。
As described above, according to the present embodiment, the input / output device characteristics (mouse, keyboard, audio, video characteristics, etc.) of the computer and the application programs operating on the computer are determined according to the characteristics and habits of the computer user. Characteristics (eg, guide characteristics) can be automatically set, and an optimal computer operation environment can be constructed without the user's conscious setting.

【0040】(第2の実施形態)本発明の他の実施形態
に係るユーザインターフェース制御装置、およびユーザ
インターフェース制御方法について図面を参照しながら
説明する。
(Second Embodiment) A user interface control device and a user interface control method according to another embodiment of the present invention will be described with reference to the drawings.

【0041】図2は本発明の一実施形態に係るユーザイ
ンターフェース制御装置のブロック図、図4は一実施形
態に係るユーザインターフェース制御装置のシステム概
要を説明するための図、図5は一実施形態に係るユーザ
インターフェース制御装置の利用者特性蓄積テーブルの
一例、図11は一実施形態に係るユーザインターフェー
ス制御方法の特質情報更新工程の処理の流れを示す図で
ある。
FIG. 2 is a block diagram of a user interface control device according to one embodiment of the present invention, FIG. 4 is a diagram for explaining a system outline of the user interface control device according to one embodiment, and FIG. 5 is one embodiment. FIG. 11 is a diagram showing a process flow of a characteristic information updating step of a user interface control method according to an embodiment.

【0042】ユーザインターフェース制御装置は図2に
示すように、特質情報更新手段(500)、ユーザイン
ターフェース特性変更手段(600)によって構成さ
れ、コンピュータを利用する人の特質を定期的または特
定のタイミングで検知し、利用者の特質情報を更新した
後に、コンピュータが備える入出力デバイスの特性を自
動的に変更する。以下、Windows95がインスト
ールされたパーソナルコンピュータを操作中の利用者の
特質を検知し、検知した結果に基づいて、パーソナルコ
ンピュータのマウス特性、およびオーディオ特性を変更
する場合を例に取って、各手段を詳しく説明する。
As shown in FIG. 2, the user interface control device is constituted by a characteristic information updating means (500) and a user interface characteristic changing means (600). The characteristic of a person who uses the computer is periodically or at a specific timing. After detecting and updating the characteristic information of the user, the characteristics of the input / output device included in the computer are automatically changed. Hereinafter, each means will be described by taking as an example a case in which the characteristics of a user who is operating a personal computer on which Windows 95 is installed are detected and the mouse characteristics and audio characteristics of the personal computer are changed based on the detected result. explain in detail.

【0043】特質情報更新手段(500)は、コンピュ
ータの入力デバイスから取り込んだ利用者の特質に基づ
いて、利用者特性蓄積テーブル(20)に蓄積された利
用者の特質情報を更新する。更新する利用者の特質は種
々あり、特に限定しないが、本例では、利用者のマウス
操作の特質、およびオーディオ操作の特質を変更する場
合を例に取って説明する。
The characteristic information updating means (500) updates the characteristic information of the user stored in the user characteristic storage table (20) based on the characteristic of the user taken from the input device of the computer. There are various characteristics of the user to be updated, and there is no particular limitation. In this example, a case where the characteristics of the user's mouse operation and the characteristics of the audio operation are changed will be described as an example.

【0044】まず、マウス操作の特質を更新する方法に
ついて説明する。図2、図4、図5および図11に示す
ように、利用者のマウス操作の特質情報(例えば、ダブ
ルクリック速度、ポインター移動速度)を収集し、既定
のマウス操作特性と収集した特性を比較し、利用者のマ
ウス操作の特質を判定し、利用者特性蓄積テーブル(2
0)に蓄積された利用者の特質情報を更新する。例え
ば、マウス(13)のダブルクリック速度を計測し、規
定の4つの値と比較して、利用者のダブルクリック速度
を5段階(「速い」、「少し速い」、「普通」、「少し
遅い」、「遅い」)に判定する。さらに、利用者識別子
を検索キーとして、利用者特性蓄積テーブル(20)の
該当するレコードを抽出し、マウス特性項目のクリック
速度を判定した値に変更する。なお、ダブルクリック速
度の計測方法は特に問わないが、OSに備わった計測ツ
ールなどを用いて行えばよい。また、利用者特性蓄積テ
ーブル(20)の変更方法は特に問わないが、DBMS
に備わったSQLなどを用いて行えばよい。また、ダブ
ルクリック速度の判定方法も5段階に限らず、何段階に
判定してもよい。また、ポインター移動速度もダブルク
リック速度と同様に判定し、利用者特性蓄積テーブル
(20)を更新すればよい。
First, a method for updating the characteristics of the mouse operation will be described. As shown in FIG. 2, FIG. 4, FIG. 5, and FIG. 11, characteristic information of the user's mouse operation (eg, double-click speed, pointer moving speed) is collected, and the default mouse operation characteristics are compared with the collected characteristics. Then, the characteristics of the user's mouse operation are determined, and the user characteristic accumulation table (2
The attribute information of the user stored in 0) is updated. For example, the double-click speed of the mouse (13) is measured, and compared with four specified values, the user's double-click speed is set in five steps ("fast", "slightly fast", "normal", "slightly slow". ”,“ Slow ”). Further, using the user identifier as a search key, a corresponding record in the user characteristic accumulation table (20) is extracted, and the click speed of the mouse characteristic item is changed to a determined value. The method of measuring the double-click speed is not particularly limited, but may be measured by using a measurement tool provided in the OS. Further, the method of changing the user characteristic accumulation table (20) is not particularly limited.
What is necessary is just to perform using SQL etc. which are provided in. Also, the method of determining the double-click speed is not limited to five steps, and may be determined in any number of steps. The pointer moving speed may be determined in the same manner as the double click speed, and the user characteristic accumulation table (20) may be updated.

【0045】次に、オーディオ操作の特質を更新する方
法について説明する。図2、図4、図5および図11に
示すように、利用者のオーディオ操作の特質情報(例え
ば、録音音量)を収集し、既定のオーディオ操作特性と
収集した特性を比較し、利用者のオーディオ操作の特質
を判定し、利用者特性蓄積テーブル(20)に蓄積され
た利用者の特質情報を更新する。例えば、マイク(1
5)から音量を採取し、規定の4つの値と比較して、利
用者の録音音量を5段階(「大きい」、「少し大き
い」、「普通」、「少し小さい」、「小さい」)に判定
する。さらに、利用者識別子を検索キーとして、利用者
特性蓄積テーブル(20)の該当するレコードを抽出
し、オーディオ特性項目の録音音量を判定した値に変更
する。なお、利用者特性蓄積テーブル(20)の変更方
法は特に問わないが、DBMSに備わったSQLなどを
用いて行えばよい。また、音量の判定方法も5段階に限
らず、何段階に判定してもよい。
Next, a method for updating the characteristic of the audio operation will be described. As shown in FIG. 2, FIG. 4, FIG. 5, and FIG. 11, characteristic information (for example, recording volume) of the audio operation of the user is collected, a predetermined audio operation characteristic is compared with the collected characteristic, and The characteristic of the audio operation is determined, and the characteristic information of the user stored in the user characteristic storage table (20) is updated. For example, microphone (1
5) The volume is sampled and compared with the specified four values, and the user's recording volume is set in 5 levels (“loud”, “slightly loud”, “normal”, “slightly loud”, “slow”). judge. Further, using the user identifier as a search key, a corresponding record in the user characteristic accumulation table (20) is extracted, and the recording volume of the audio characteristic item is changed to the determined value. The method of changing the user characteristic accumulation table (20) is not particularly limited, but may be performed using SQL provided in the DBMS. The method of determining the sound volume is not limited to five steps, and may be determined in any number of steps.

【0046】ユーザインターフェース特性変更手段(6
00)は、特質情報更新手段(500)でコンピュータ
の入出力デバイス特性が更新された後に、入出力デバイ
ス特性を利用者の特質に合うように変更する。
User interface characteristic changing means (6)
(00), after the characteristic information updating means (500) updates the input / output device characteristics of the computer, the input / output device characteristics are changed to match the characteristics of the user.

【0047】図2、図4、図5、および図11に示すよ
うに、コンピュータの入出力デバイス特性(マウス操作
特性、オーディオ操作特性)を、利用者特性蓄積テーブ
ル(20)の各情報に基づいて変更する。変更方法は、
本発明にかかわる第1の実施形態の利用者識別手段(1
00)、特質情報抽出手段(200)、および入出力デ
バイス特性変更手段(300)と同様である。
As shown in FIG. 2, FIG. 4, FIG. 5, and FIG. 11, the input / output device characteristics (mouse operation characteristics, audio operation characteristics) of the computer are based on each information of the user characteristic accumulation table (20). Change. How to change
The user identification means (1) of the first embodiment according to the present invention
00), characteristic information extracting means (200), and input / output device characteristic changing means (300).

【0048】以上、特質情報更新手段(500)は、利
用者のコンピュータ(11)利用開始から一定時間経過
後、定時、または一定間隔毎に実施し、続いてユーザイ
ンターフェース特性変更手段(600)を実施する。
As described above, the characteristic information updating means (500) is implemented at regular intervals or at regular intervals after a lapse of a predetermined time from the start of use of the computer (11) by the user, and subsequently, the user interface characteristic changing means (600). carry out.

【0049】以上のように本実施形態によれば、コンピ
ュータ利用者の特質の変化に応じて、コンピュータの入
出力デバイス特性(マウス・オーディオ特性など)を自
動的に設定することができ、利用者が意識して設定しな
くとも最適なコンピュータ操作環境を構築することがで
きる。
As described above, according to this embodiment, the input / output device characteristics (mouse / audio characteristics, etc.) of the computer can be automatically set in accordance with the change in the characteristics of the computer user. It is possible to construct an optimal computer operation environment without having to consciously set.

【0050】(第3の実施形態)本発明の他の実施形態
に係るユーザインターフェース制御装置、およびユーザ
インターフェース制御方法について図面を参照しながら
説明する。
(Third Embodiment) A user interface control device and a user interface control method according to another embodiment of the present invention will be described with reference to the drawings.

【0051】図3は本発明の一実施形態に係るユーザイ
ンターフェース制御装置のブロック図、図4は一実施形
態に係るユーザインターフェース制御装置のシステム概
要を説明するための図、図6は一実施形態に係るユーザ
インターフェース制御装置の利用者のポインティングデ
バイス特性を記録した度数分布グラフの一例、図12は
一実施形態に係るユーザインターフェース制御方法の感
情識別工程の処理の流れを示す図、図13は一実施形態
に係るユーザインターフェース制御方法の入出力デバイ
ス特性変更工程の処理の流れを示す図、図14は一実施
形態に係るユーザインターフェース制御方法のアプリケ
ーション特性変更工程の処理の流れを示す図である。
FIG. 3 is a block diagram of a user interface control device according to one embodiment of the present invention, FIG. 4 is a diagram for explaining a system outline of the user interface control device according to one embodiment, and FIG. 6 is one embodiment. FIG. 12 is a diagram illustrating an example of a frequency distribution graph in which a pointing device characteristic of a user of the user interface control device according to the first embodiment is recorded. FIG. FIG. 14 is a diagram illustrating a process flow of an input / output device characteristic changing step of the user interface control method according to the embodiment, and FIG. 14 is a diagram illustrating a process flow of an application characteristic changing step of the user interface control method according to the embodiment.

【0052】ユーザインターフェース制御装置は図3に
示すように、感情識別手段(700)、入出力デバイス
特性変更手段(350)、アプリケーション特性変更手
段(450)によって構成され、コンピュータを利用す
る人の感情等に応じてコンピュータが備える入出力デバ
イスの特性、コンピュータ上で動作するアプリケーショ
ンプログラムの特性を自動的に変更する。以下、Win
dows95がインストールされたパーソナルコンピュ
ータの利用者のその時々の感情に応じて、マウス特性、
キーボード特性、オーディオ特性、ビデオ特性、および
アプリケーションの操作ガイド特性を変更する場合を例
に取って、各手段を詳しく説明する。
As shown in FIG. 3, the user interface control device comprises emotion identification means (700), input / output device characteristic changing means (350), and application characteristic changing means (450). The characteristics of the input / output devices of the computer and the characteristics of the application programs running on the computer are automatically changed according to the conditions. Below, Win
Mouse characteristics according to the current emotion of the user of the personal computer in which dows95 is installed,
Each means will be described in detail by taking as an example a case where the keyboard characteristics, audio characteristics, video characteristics, and operation guide characteristics of an application are changed.

【0053】感情識別手段(700)はコンピュータを
利用する人の感情を判定する。感情の判定方法は種々あ
り、特に限定しないが、本例では、利用者のマウス操作
特性、キーボード操作特性、音声の音量・音質特性およ
び画像データの特性を用いた判定方法について説明す
る。
The emotion identification means (700) determines the emotion of the person who uses the computer. There are various methods for determining emotions, and there is no particular limitation. In this example, a determination method using the user's mouse operation characteristics, keyboard operation characteristics, sound volume / sound quality characteristics, and image data characteristics will be described.

【0054】まず、マウス操作特性を用いた判定方法に
ついて説明する。図3、図4、図6及び図12に示すよ
うに、利用者がコンピュータ使用開始時に入力した利用
者識別子を基に、その利用者の過去のマウス操作特性
(マウスクリックの速度または強弱、マウスポインター
の移動速度など)を蓄積した情報を検索し、検索した過
去のマウス操作特性と現在のマウス操作特性を比較しな
がら、その時の利用者の感情を判定する。
First, a determination method using the mouse operation characteristics will be described. As shown in FIG. 3, FIG. 4, FIG. 6, and FIG. 12, the past mouse operation characteristics (mouse click speed or strength, mouse The system searches for information that has accumulated pointer movement speed, and compares the retrieved past mouse operation characteristics with the current mouse operation characteristics to determine the user's emotion at that time.

【0055】例えば、キーボード(12)から入力され
た利用者氏名を検索キーとして、氏名に該当するマウス
操作特性(ここではマウスクリック速度を例にとる)を
過去の蓄積情報から検索し、検索した情報から度数分布
グラフ(30)を作成し、今回、利用者がマウス(1
3)をクリックした速度が、度数分布グラフ(30)の
平均値よりも速ければ、利用者は「焦っている」と判定
し、平均値よりも遅ければ「落ち着いている」と判定す
る。この判定は平均値との比較のみならず、メジアン
(大きさ順に並べた時の中央に当たる値)やモード(出
現する度数が最も多い値)などと比較してもよい。さら
に、度数分布グラフ(30)のデータばらつきを考えて
標準偏差などを考慮して比較してもよい(例えば、「今
回のクリック速度」>「平均値−標準偏差」であれば焦
っている、「今回のクリック速度」<「平均値−標準偏
差」であれば落ち着いている)。なお、本例では、利用
者は「焦っている」か、「落ち着いている」かの2段階
で判定しているが、2段階の判定に限らず、マウスクリ
ックの速度を多段階に評価することによって、多段階
(「大変焦っている」、「焦っている」、「平常心であ
る」、「落ち着いている」、「大変落ち着いている」な
ど)に利用者の感情を判定してもよい。なお、本度数分
布グラフ(30)の横軸は利用者のマウスクリック速度
を示し、縦軸はその頻度を示している。
For example, using the user name input from the keyboard (12) as a search key, a mouse operation characteristic (here, mouse click speed is taken as an example) corresponding to the name is searched from the past accumulated information and searched. A frequency distribution graph (30) was created from the information, and the user
3) If the speed at which the user clicks is faster than the average value of the frequency distribution graph (30), the user is determined to be "hurried", and if slower than the average value, it is determined to be "calm". This determination may be made not only by comparison with the average value, but also by comparison with the median (the value at the center when arranged in order of size), the mode (the value with the highest frequency of appearance), and the like. Furthermore, the data distribution of the frequency distribution graph (30) may be considered and standard deviations may be considered for comparison (for example, if “this click speed”> “average value−standard deviation”, If “this click speed” <“mean value−standard deviation”, it is calm). Note that in this example, the user makes a determination in two stages of “immediate” or “calm”, but is not limited to the two-stage determination and evaluates the mouse click speed in multiple stages. Therefore, even if the user's emotions are determined in multiple stages (“very impatient,” “impressed,” “normal,” “calm,” “very calm,” etc.) Good. The horizontal axis of the frequency distribution graph (30) indicates the mouse click speed of the user, and the vertical axis indicates the frequency.

【0056】なお、キーボード(12)から入力された
利用者氏名によって利用者を識別する代わりに、本発明
にかかわる第1の実施形態に記載の利用者識別手段(1
00)を用いて利用者を識別してもよい。
The user identification means (1) according to the first embodiment of the present invention is used instead of identifying the user by the user name input from the keyboard (12).
00) may be used to identify the user.

【0057】また、マウス特性の蓄積方法は特に問わな
いが、コンピュータ記憶装置上のテーブルまたはファイ
ルに、利用者がマウス操作を行った時に、利用者毎にマ
ウス操作特性を記録すればよい。
The method of storing the mouse characteristics is not particularly limited, but the mouse operation characteristics may be recorded for each user when the user operates the mouse in a table or a file on the computer storage device.

【0058】また、マウスクリックの強弱やマウスポイ
ンターの移動速度を用いた判定も、マウスクリック速度
を用いた利用者感情の判定方法と同様に、利用者毎に蓄
積した過去のマウスクリック強弱特性(強弱の差や、一
定時間内の一定値より強いまたは弱いマウスクリックの
回数)と今回のマウスクリック強弱を比較しながら、ま
た、利用者毎に蓄積した過去のマウスポインター移動速
度特性(平均移動速度)と今回のマウスポインター移動
速度を比較しながら、行えばよい。
The determination using the strength of the mouse click and the moving speed of the mouse pointer are also performed in the same manner as the method of determining the user's emotion using the mouse click speed. While comparing the strength of this mouse click with the difference in strength and the number of mouse clicks that are stronger or weaker than a certain value within a certain time, and the past mouse pointer movement speed characteristics (average movement speed) accumulated for each user ) And the current mouse pointer movement speed.

【0059】なお、マウス操作特性の検知方法は特に問
わないが、クリック速度、ポインター移動速度は、コン
ピュータ(11)で発生するクリックイベントやポイン
ター移動イベントを検知するプログラムによってマウス
操作特性を検知すればよい。また、クリック強弱は、圧
力センサーを内蔵したマウスなどを準備して検知すれば
よい。
The method of detecting the mouse operation characteristics is not particularly limited. The click speed and the pointer movement speed may be determined if the mouse operation characteristics are detected by a program for detecting a click event or a pointer movement event generated by the computer (11). Good. Further, the strength of the click may be detected by preparing a mouse or the like having a built-in pressure sensor.

【0060】次に、キーボード操作特性を用いた判定方
法について説明する。図3、図4、図6及び図12に示
すように、利用者がコンピュータ使用開始時に入力した
利用者識別子を基に、その利用者の過去のキーボード操
作特性(キーボードタイプの速度または強弱など)を蓄
積した情報を検索し、検索した過去のキーボード操作特
性と現在のキーボード操作特性を比較しながら、その時
の利用者の感情を判定する。
Next, a determination method using the keyboard operation characteristics will be described. As shown in FIG. 3, FIG. 4, FIG. 6, and FIG. 12, based on the user identifier input by the user at the start of using the computer, the past keyboard operation characteristics of the user (such as the speed or strength of the keyboard type). Is retrieved, and the emotion of the user at that time is determined while comparing the retrieved past keyboard operation characteristics with the current keyboard operation characteristics.

【0061】例えば、キーボード(12)から入力され
た利用者氏名を検索キーとして、氏名に該当するキーボ
ード操作特性(ここではキーボードタイプ速度を例にと
る)を過去の蓄積情報から検索し、検索した情報から度
数分布グラフを作成し、今回、利用者がキーボード(1
2)をタイプした速度が、度数分布グラフの平均値より
も速ければ、利用者は「焦っている」と判定し、平均値
よりも遅ければ「落ち着いている」と判定する。この判
定は平均値との比較のみならず、メジアンやモードなど
と比較してもよい。さらに、度数分布グラフのデータば
らつきを考えて標準偏差などを考慮して比較してもよい
(例えば、「今回のタイプ速度」>「平均値−標準偏
差」であれば焦っている、「今回のタイプ速度」<「平
均値−標準偏差」であれば落ち着いている)。なお、本
例では、利用者は「焦っている」か、「落ち着いてい
る」かの2段階で判定しているが、2段階の判定に限ら
ず、キーボードタイプの速度を多段階に評価することに
よって、多段階(「大変焦っている」、「焦ってい
る」、「平常心である」、「落ち着いている」、「大変
落ち着いている」など)に利用者の感情を判定してもよ
い。なお、本度数分布グラフの横軸は利用者のキーボー
ドタイプ速度を示し、縦軸はその頻度を示している。
For example, using the user name input from the keyboard (12) as a search key, a keyboard operation characteristic corresponding to the name (here, keyboard type speed is taken as an example) is searched from the past accumulated information and searched. A frequency distribution graph was created from the information, and this time, the user
If the speed at which the user typed 2) is faster than the average value of the frequency distribution graph, the user determines that the user is "rushed", and if the speed is slower than the average value, it determines that the user is "calm". This determination may be made not only with the comparison with the average value but also with the median, the mode, or the like. Furthermore, the comparison may be made in consideration of the standard deviation or the like in consideration of the data variation of the frequency distribution graph (for example, if “this type speed”> “average value−standard deviation”, If “type speed” <“mean value−standard deviation”, calm down.) Note that in this example, the user makes a determination in two stages of “immediate” or “calm”, but is not limited to the two-stage determination and evaluates the keyboard type speed in multiple stages. Therefore, even if the user's emotions are determined in multiple stages (“very impatient,” “impressed,” “normal,” “calm,” “very calm,” etc.) Good. The horizontal axis of the frequency distribution graph indicates the keyboard type speed of the user, and the vertical axis indicates the frequency.

【0062】なお、キーボード(12)から入力された
利用者氏名によって利用者を識別する代わりに、本発明
にかかわる第1の実施形態に記載の利用者識別手段(1
00)を用いて利用者を識別してもよい。
It should be noted that instead of identifying the user by the user name input from the keyboard (12), the user identification means (1) described in the first embodiment according to the present invention.
00) may be used to identify the user.

【0063】また、キーボード特性の蓄積方法は特に問
わないが、コンピュータ記憶装置上のテーブルまたはフ
ァイルに、利用者がキーボード操作を行った時に、利用
者毎にキーボード操作特性を記録すればよい。
The method of accumulating the keyboard characteristics is not particularly limited, but the keyboard operation characteristics may be recorded for each user when the user operates the keyboard in a table or a file on the computer storage device.

【0064】また、キーボードタイプの強弱を用いた判
定も、キーボードタイプ速度を用いた利用者感情の判定
方法と同様に、利用者毎に蓄積した過去のキーボードタ
イプ強弱特性(強弱の差や、一定時間内の一定値より強
いまたは弱いキーボードタイプの回数)と今回のキーボ
ードタイプ強弱を比較しながら判定すればよい。
In addition, the judgment using the strength of the keyboard type is similar to the judgment method of the user's emotion using the keyboard type speed. The number of times the keyboard type is stronger or weaker than a certain value within the time) may be compared with the current keyboard type strength.

【0065】なお、キーボード特性の検知方法は特に問
わないが、タイプ速度は、コンピュータ(11)で発生
するキーボードタイプイベントを検知するプログラムに
よってキーボード特性を検知すればよい。また、タイプ
強弱は、圧力センサーを内蔵したキーボードなどを準備
して検知すればよい。
The method of detecting the keyboard characteristics is not particularly limited, but the typing speed may be determined by detecting the keyboard characteristics by a program for detecting a keyboard type event generated by the computer (11). Further, the type strength may be detected by preparing a keyboard or the like having a built-in pressure sensor.

【0066】次に、オーディオ入力特性を用いた判定方
法について説明する。図3、図4、図6及び図12に示
すように、利用者がコンピュータ使用開始時に入力した
利用者識別子を基に、その利用者の過去のオーディオ入
力特性(音声の大きさまたは強弱など)を蓄積した情報
を検索し、検索した過去のオーディオ入力特性と現在の
オーディオ入力特性を比較しながら、その時の利用者の
感情を判定する。
Next, a determination method using audio input characteristics will be described. As shown in FIG. 3, FIG. 4, FIG. 6, and FIG. 12, based on a user identifier entered by the user at the start of using the computer, the past audio input characteristics (such as the loudness or strength of the voice) of the user. Is searched, and the emotion of the user at that time is determined while comparing the searched past audio input characteristics with the current audio input characteristics.

【0067】例えば、キーボード(12)から入力され
た利用者氏名を検索キーとして、氏名に該当するオーデ
ィオ入力特性(ここでは音声の大きさを例にとる)を過
去の蓄積情報から検索し、検索した情報から度数分布グ
ラフを作成し、今回、利用者がマイク(15)から入力
した音声の大きさが、度数分布グラフの平均値よりも大
きければ、利用者は「焦っている」と判定し、平均値よ
りも小さければ「落ち着いている」と判定する。この判
定は平均値との比較のみならず、メジアンやモードなど
と比較してもよい。さらに、度数分布グラフのデータば
らつきを考えて標準偏差などを考慮して比較してもよい
(例えば、「今回の音声の大きさ」>「平均値−標準偏
差」であれば焦っている、「今回の音声の大きさ」<
「平均値−標準偏差」であれば落ち着いている)。な
お、本例では、利用者は「焦っている」か、「落ち着い
ている」かの2段階で判定しているが、2段階の判定に
限らず、音声の大きさを多段階に評価することによっ
て、多段階(「大変焦っている」、「焦っている」、
「平常心である」、「落ち着いている」、「大変落ち着
いている」など)に利用者の感情を判定してもよい。な
お、本度数分布グラフの横軸は利用者の音声の大きさを
示し、縦軸はその頻度を示している。
For example, using the user name input from the keyboard (12) as a search key, an audio input characteristic corresponding to the name (here, taking a loudness as an example) is searched from the past accumulated information, and the search is performed. A frequency distribution graph is created from the obtained information, and if the volume of the voice input by the user from the microphone (15) this time is larger than the average value of the frequency distribution graph, the user is determined to be “impressed”. If it is smaller than the average value, it is determined that the user is calm. This determination may be made not only with the comparison with the average value but also with the median, the mode, or the like. Furthermore, the comparison may be made in consideration of the standard deviation and the like in consideration of the data variation of the frequency distribution graph (for example, if “the volume of the current voice”> “average−standard deviation”, The volume of the voice this time "<
"Average value-standard deviation" is calm). Note that in this example, the user makes a determination in two stages of “immediate” or “calm”, but is not limited to the two-stage determination, and evaluates the voice volume in multiple stages. Depending on the situation, there are multiple stages ("I'm very impatient"
The user's emotion may be determined to be “normal”, “calm”, “very calm”. The horizontal axis of the frequency distribution graph indicates the loudness of the user's voice, and the vertical axis indicates the frequency.

【0068】なお、キーボード(12)から入力された
利用者氏名によって利用者を識別する代わりに、本発明
にかかわる第1の実施形態に記載の利用者識別手段(1
00)を用いて利用者を識別してもよい。
It should be noted that instead of identifying the user by the user name input from the keyboard (12), the user identification means (1) described in the first embodiment according to the present invention.
00) may be used to identify the user.

【0069】また、オーディオ入力特性の蓄積方法は特
に問わないが、コンピュータ記憶装置上のテーブルまた
はファイルに、利用者がマイク(15)から音声を入力
した際に、利用者毎にオーディオ入力特性を記録すれば
よい。
The method of storing the audio input characteristics is not particularly limited. When a user inputs voice from a microphone (15) to a table or a file on a computer storage device, the audio input characteristics are stored for each user. Just record it.

【0070】また、音声の強弱を用いた判定も、音声の
大きさを用いた利用者感情の判定方法と同様に、利用者
毎に蓄積した過去の音声強弱特性(強弱の差や、一定時
間内の一定値より強いまたは弱い音声の回数)と今回の
音声強弱特性を比較しながら判定すればよい。
In addition, the judgment using the strength of the voice is similar to the method of determining the user's emotion using the loudness of the voice. The number of times the voice is stronger or weaker than a certain value in the above) and the current voice strength characteristic may be compared to make the determination.

【0071】さらに、マイク(15)から入力された声
の音質を用いて、例えば、一定時間内の一定値より高い
または低い音質の回数によって、利用者の感情を判定し
てもよい。
Further, using the sound quality of the voice input from the microphone (15), for example, the emotion of the user may be determined based on the number of times the sound quality is higher or lower than a certain value within a certain time.

【0072】なお、オーディオ特性の検知方法は特に問
わないが、マイク(15)から入力された音声の大きさ
や強弱を解析するプログラムによってオーディオ特性を
検知すればよい。
The method of detecting the audio characteristics is not particularly limited, but the audio characteristics may be detected by a program for analyzing the loudness and strength of the voice input from the microphone (15).

【0073】最後に、画像を用いた判定方法について説
明する。図3、図4及び図12に示すように、利用者の
コンピュータ使用中の顔の表情などを基に、その時の利
用者の感情を判定する。
Finally, a determination method using an image will be described. As shown in FIG. 3, FIG. 4, and FIG. 12, the emotion of the user at that time is determined based on the facial expression and the like while the user is using the computer.

【0074】例えば、コンピュータ(11)に接続され
たカメラ(16)によって、利用者を撮影し、撮影した
画像の解析を行って、その時の利用者の感情を判定す
る。画像解析による感情の判定方法は特に限定しない
が、例えば、松下技研(株)が開発した顔画像照合技術
を応用して、その時の利用者の感情を判定すればよい。
なお、判定はマウス操作特性を用いた判定時と同様に、
「焦っている」と「落ち着いている」の2段階、または
多段階にすればよい。
For example, the user is photographed by the camera (16) connected to the computer (11), the photographed image is analyzed, and the emotion of the user at that time is determined. The method of determining emotions by image analysis is not particularly limited. For example, the emotion of the user at that time may be determined by applying a face image collation technology developed by Matsushita Giken Co., Ltd.
The judgment is the same as the judgment using the mouse operation characteristics,
What is necessary is just to have two stages of "I am impatient" and "I am calm" or a multi-stage.

【0075】入出力デバイス特性変更手段(350)
は、判定した利用者の感情に基づいて、その時々の利用
者の感情に応じたコンピュータの入力デバイス特性(マ
ウス・キーボード・オーディオ特性など)に変更する。
Input / output device characteristic changing means (350)
Changes the input device characteristics (mouse, keyboard, audio characteristics, etc.) of the computer according to the user's emotion at that time based on the determined user's emotion.

【0076】図3、図4および図13に示すように、感
情識別手段(700)で判定した利用者の感情に基づい
て、その時々の利用者の感情に応じた最適なコンピュー
タの入出力デバイス特性に変更する。変更する入出力デ
バイス特性は特に問わないが、本例では、マウス、キー
ボード、およびオーディオ特性を変更する場合を説明す
る。
As shown in FIGS. 3, 4 and 13, based on the emotion of the user determined by the emotion identifying means (700), the most suitable input / output device of the computer according to the emotion of the user at that time. Change to characteristics. The input / output device characteristics to be changed are not particularly limited. In this example, a case where the mouse, keyboard, and audio characteristics are changed will be described.

【0077】まず、マウス特性を変更する場合を説明す
る。一般的に、焦っている利用者はマウスにも素早く反
応して欲しいものであり、感情識別手段(700)で
「焦っている」と判定された利用者の場合には、マウス
のダブルクリック速度、ポインターの移動速度を従来よ
り速くする。どの程度速くするかは特に問わないが、1
0%程度速くすればよい。また、「落ち着いている」と
判定された利用者は、マウスのダブルクリック速度、ポ
インターの移動速度を、逆に10%程度遅くすればよ
い。なお、マウスのダブルクリック速度、ポインターの
移動速度の変更は、OSに備わったレジストリ操作関数
を用いて、また、レジストリ等のマウス特性を変更する
プログラムを作成して、変更すればよい。
First, the case of changing the mouse characteristics will be described. Generally, a user who is impatient wants to react quickly to the mouse, and in the case of a user who is determined to be "impressed" by the emotion identification means (700), the double-click speed of the mouse , Make the pointer move faster than before. It does not matter how fast it is,
What is necessary is just to make it about 0% faster. On the other hand, a user determined to be “calm” may reduce the double-click speed of the mouse and the moving speed of the pointer by about 10%. Note that the mouse double-click speed and the pointer moving speed can be changed by using a registry operation function provided in the OS, or by creating a program for changing mouse characteristics such as a registry.

【0078】次に、キーボード特性を変更する場合を説
明する。一般的に、焦っている利用者はキーボードにも
素早く反応して欲しいものであり、感情識別手段(70
0)で「焦っている」と判定された利用者の場合には、
カーソルの点滅速度を従来より速くし、キー入力から文
字表示までの待ち時間、または文字の表示間隔を従来よ
り短くする。どの程度速く、または短くするかは特に問
わないが、10%程度速く、または短くすればよい。ま
た、「落ち着いている」と判定された利用者は、カーソ
ルの点滅速度、キー入力から文字表示までの待ち時間、
または文字の表示間隔を、逆に10%程度遅く、または
長くすればよい。なお、カーソルの点滅速度、キー入力
から文字表示までの待ち時間、または文字の表示間隔の
変更は、OSに備わったレジストリ操作関数を用いて、
また、レジストリ等のキーボード特性を変更するプログ
ラムを作成して、変更すればよい。
Next, a case where the keyboard characteristics are changed will be described. In general, the impatient user wants the keyboard to react quickly, and the emotion identification means (70
In the case of the user determined to be "hurried" in 0),
The blinking speed of the cursor is made faster than before, and the waiting time from key input to character display or the character display interval is made shorter than before. It does not matter in particular how fast or short it is, but it may be about 10% faster or shorter. In addition, the user who is determined to be “calm” has the blinking speed of the cursor, the waiting time from key input to character display,
Alternatively, the display interval of the characters may be delayed or increased by about 10%. The blinking speed of the cursor, the waiting time from key input to the character display, or the change of the character display interval can be changed by using a registry operation function provided in the OS.
Also, a program for changing the keyboard characteristics such as a registry may be created and changed.

【0079】次に、オーディオ特性を変更する場合を説
明する。一般的に、焦っている利用者は、通常よりも大
きな声で話したり、大きな出力音量を好むものであり、
感情識別手段(700)で「焦っている」と判定された
利用者の場合には、オーディオの録音音量を従来より下
げ、オーディオの出力音量を従来より上げる。どの程度
下げるか、上げるかは特に問わないが、10%程度録音
音量を下げ、出力音量を上げればよい。また、「落ち着
いている」と判定された利用者は、オーディオの録音音
量を逆に10%程度上げ、出力音量を逆に10%程度下
げればよい。さらに、「焦っている」と判定されれば、
オーディオの再生音質を男性等の硬質な音質に変更し、
「落ち着いている」と判定すれば、女性等の軟派な音質
に変更すればよい。なお、これとは逆に焦っている利用
者を落ち着かせるために、「焦っている」と判定された
場合にも、女性等の軟質な音質に変更してもよい。な
お、オーディオの録音音量、またはオーディオの出力音
量の変更は、OSに備わったレジストリ操作関数を用い
て、また、レジストリ等のオーディオ特性を変更するプ
ログラムを作成して、変更すればよい。
Next, a case where the audio characteristics are changed will be described. In general, impatient users prefer to speak louder than normal or prefer a higher output volume,
In the case of the user who is determined to be "hurried" by the emotion identification means (700), the audio recording volume is reduced and the audio output volume is increased. It does not matter how much the volume is lowered or raised, but the recording volume may be lowered by about 10% and the output volume may be raised. The user who is determined to be “calm” may increase the audio recording volume by about 10% and decrease the output volume by about 10%. Furthermore, if it is determined that "I am in a hurry,"
Change the audio playback sound quality to hard sound quality such as men,
If it is determined that the user is “calm,” the sound quality may be changed to a soft sound such as that of a woman. Conversely, in order to calm a user who is impatient, the sound quality may be changed to a soft sound such as that of a woman even when it is determined that the user is impatient. The audio recording volume or the audio output volume can be changed by using a registry operation function provided in the OS or by creating a program for changing audio characteristics such as a registry.

【0080】アプリケーション特性変更手段(450)
は、判定した利用者の感情に基づいて、その時々の利用
者の感情に応じたコンピュータのアプリケーション特性
(ガイド特性など)に変更する。
Application characteristic changing means (450)
Changes the application characteristics (such as guide characteristics) of the computer according to the user's emotion at that time based on the determined user's emotion.

【0081】図3、図4および図14に示すように、感
情識別手段(700)で判定した利用者の感情に基づい
て、その時々の利用者の感情に応じた最適なコンピュー
タのアプリケーション特性に変更する。変更する特性は
特に問わないが、本例では、操作ガイド特性を変更する
場合を説明する。
As shown in FIG. 3, FIG. 4 and FIG. 14, based on the emotion of the user determined by the emotion identifying means (700), the optimum computer application characteristics corresponding to the emotion of the user at that time are obtained. change. The characteristics to be changed are not particularly limited. In this example, a case where the operation guide characteristics are changed will be described.

【0082】一般的に、焦っている利用者は操作ガイド
にも素早く反応して欲しいものであり、感情識別手段
(700)で「焦っている」と判定された利用者の場合
には、操作ガイドの表示時間を従来より速くする。どの
程度速くするかは特に問わないが、10%程度速くすれ
ばよい。また、「落ち着いている」と判定された利用者
は、操作ガイドの表示時間を、逆に10%程度遅くすれ
ばよい。なお、変更の対象となるアプリケーションは特
に限定しないが、Windows上で稼動するタスクバ
ーをはじめ、ワードプロセッサーなど、何でもよい。ま
た、変更するアプリケーションの特性も、「操作ガイド
表示時間」、「ウインドウ切り替え時間」、「メニュー
表示時間」、「アプリケーションナビゲータ表示時間」
など、何でもよい。さらに、アプリケーション特性の変
更方法も、コンピュータに備わったツールなどを用いて
行えばよく、特に限定しない。
In general, a user who is impatient wants to react quickly to the operation guide, and if the user is determined to be impatient by the emotion discriminating means (700), the user is required to respond to the operation guide. Make the guide display time faster than before. It does not matter how much the speed is increased, but the speed may be increased by about 10%. On the other hand, a user determined to be “calm” may delay the display time of the operation guide by about 10%. The application to be changed is not particularly limited, but may be anything such as a task bar running on Windows or a word processor. Also, the characteristics of the application to be changed include “operation guide display time”, “window switching time”, “menu display time”, “application navigator display time”.
Anything is fine. Furthermore, the method of changing the application characteristics may be performed using a tool or the like provided in the computer, and is not particularly limited.

【0083】以上、感情識別手段(700)は、利用者
のコンピュータ(11)利用開始時、定時、入力デバイ
スからの情報が一定時間途絶えた後に入力デバイスから
情報を取り込んだ時、または一定間隔毎に実施し、続い
て入出力デバイス特性変更手段(350)、またはアプ
リケーション特性変更手段(450)を実施する。
As described above, the emotion identification means (700) is used when the user starts using the computer (11), at regular intervals, when the information from the input device is interrupted for a certain period of time, and when the information is fetched from the input device, or at regular intervals. Then, the input / output device characteristic changing means (350) or the application characteristic changing means (450) is executed.

【0084】以上のように本実施形態によれば、コンピ
ュータ利用者の「焦っている」「落ち着いている」など
の感情の変化に応じて、コンピュータの入出力デバイス
特性(マウス・キーボード・オーディオ特性など)、ア
プリケーション特性(操作ガイド特性など)を自動的に
変更することができ、利用者が意識して変更しなくと
も、その時々の利用者の感情に応じた最適なコンピュー
タ操作環境を構築することができる。
As described above, according to the present embodiment, the input / output device characteristics (mouse, keyboard, audio characteristics) of the computer are changed in accordance with the change of the emotion of the computer user, such as “I am impatient” or “calm”. Etc.), application characteristics (operation guide characteristics, etc.) can be automatically changed, and even if the user does not consciously change it, an optimal computer operation environment according to the user's emotion at that time is constructed. be able to.

【0085】[0085]

【発明の効果】以上説明したように、本発明のユーザイ
ンターフェース制御装置及びその方法によると、利用者
や利用者の感情を判定することによって、利用者の特質
や癖、その時々の利用者の感情(例えば、焦っている、
落ち着いている等)に応じて、コンピュータのユーザイ
ンターフェース特性(例えば、マウス・キーボード・オ
ーディオ・ビデオ特性、および操作ガイド表示特性な
ど)を自動的に変更することができ、コンピュータ利用
者にとって常に最適なコンピュータ環境を提供すること
ができ、コンピュータ利用効率を向上させることがで
き、その実用的効果は大きい。
As described above, according to the user interface control apparatus and method of the present invention, by judging the user and the emotion of the user, the characteristics and habits of the user and the user at each time are determined. Emotions (for example,
It is possible to automatically change the user interface characteristics of the computer (for example, mouse, keyboard, audio / video characteristics, and operation guide display characteristics, etc.) according to the user's calmness, etc. A computer environment can be provided, and computer utilization efficiency can be improved, and the practical effect is great.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態におけるユーザインタ
ーフェース制御装置のブロック図
FIG. 1 is a block diagram of a user interface control device according to a first embodiment of the present invention.

【図2】本発明の第2の実施形態におけるユーザインタ
ーフェース制御装置のブロック図
FIG. 2 is a block diagram of a user interface control device according to a second embodiment of the present invention.

【図3】本発明の第3の実施形態におけるユーザインタ
ーフェース制御装置のブロック図
FIG. 3 is a block diagram of a user interface control device according to a third embodiment of the present invention.

【図4】本発明の第1、第2、および第3の実施形態に
おけるユーザインターフェース制御装置のシステム概要
を説明するための図
FIG. 4 is a diagram for explaining a system outline of a user interface control device according to the first, second, and third embodiments of the present invention;

【図5】本発明の第1、および第2の実施形態における
ユーザインターフェース制御装置の利用者特性蓄積テー
ブルの一例を示す図
FIG. 5 is a diagram showing an example of a user characteristic accumulation table of the user interface control device according to the first and second embodiments of the present invention.

【図6】本発明の第1、および第3の実施形態における
ユーザインターフェース制御装置の利用者のポインティ
ングデバイス特性を記録した度数分布グラフの一例を示
す図
FIG. 6 is a diagram illustrating an example of a frequency distribution graph in which a pointing device characteristic of a user of the user interface control device according to the first and third embodiments of the present invention is recorded.

【図7】本発明の第1の実施形態におけるユーザインタ
ーフェース制御方法の利用者識別工程の処理の流れを示
す図
FIG. 7 is a diagram showing a processing flow of a user identification step of the user interface control method according to the first embodiment of the present invention.

【図8】本発明の第1の実施形態におけるユーザインタ
ーフェース制御方法の特質情報抽出工程の処理の流れを
示す図
FIG. 8 is a diagram showing a process flow of a characteristic information extracting step of the user interface control method according to the first embodiment of the present invention.

【図9】本発明の第1の実施形態におけるユーザインタ
ーフェース制御方法の入出力デバイス特性変更工程の処
理の流れを示す図
FIG. 9 is a diagram showing a processing flow of an input / output device characteristic changing step of the user interface control method according to the first embodiment of the present invention.

【図10】本発明の第1の実施形態におけるユーザイン
ターフェース制御方法のアプリケーション特性変更工程
の処理の流れを示す図
FIG. 10 is a diagram showing a process flow of an application characteristic changing step of the user interface control method according to the first embodiment of the present invention.

【図11】本発明の第2の実施形態におけるユーザイン
ターフェース制御方法の特質情報更新工程の処理の流れ
を示す図
FIG. 11 is a diagram showing a process flow of a characteristic information updating step of the user interface control method according to the second embodiment of the present invention.

【図12】本発明の第3の実施形態におけるユーザイン
ターフェース制御方法の感情識別工程の処理の流れを示
す図
FIG. 12 is a diagram showing a process flow of an emotion recognition step of the user interface control method according to the third embodiment of the present invention.

【図13】本発明の第3の実施形態におけるユーザイン
ターフェース制御方法の入出力デバイス特性変更工程の
処理の流れを示す図
FIG. 13 is a diagram showing a processing flow of an input / output device characteristic changing step of the user interface control method according to the third embodiment of the present invention.

【図14】本発明の第3の実施形態におけるユーザイン
ターフェース制御方法のアプリケーション特性変更工程
の処理の流れを示す図
FIG. 14 is a diagram showing a process flow of an application characteristic changing step of the user interface control method according to the third embodiment of the present invention.

【図15】従来のユーザインターフェース制御装置のブ
ロック図
FIG. 15 is a block diagram of a conventional user interface control device.

【図16】従来のユーザインターフェース制御装置のパ
ーソナルコンピュータのマウスプロパティウインドウの
一例を示す図
FIG. 16 is a diagram showing an example of a mouse property window of a personal computer of a conventional user interface control device.

【符号の説明】[Explanation of symbols]

10 CRT 11 コンピュータ本体 12 キーボード 13 マウス 14 スピーカー 15 マイク 16 カメラ 17 タッチパネル 20 利用者特性蓄積テーブル 30 度数分布グラフ 100 利用者識別手段 100A 利用者識別工程 200 特質情報抽出手段 200A 特質情報抽出工程 300、350 入出力デバイス特性変更手段 300A、350A 入出力デバイス特性変更工程 400、450 アプリケーション特性変更手段 400A、450A アプリケーション特性変更工程 500 特質情報更新手段 500A 特質情報更新工程 600 ユーザインターフェース特性変更手段 600A ユーザインターフェース特性変更工程 700 感情識別手段 700A 感情識別工程 1010 マウス特性設定手段 1020 キーボード特性設定手段 1030 オーディオ特性設定手段 1011 マウスプロパティ設定ウインドウ DESCRIPTION OF SYMBOLS 10 CRT 11 Computer main body 12 Keyboard 13 Mouse 14 Speaker 15 Microphone 16 Camera 17 Touch panel 20 User characteristic accumulation table 30 Frequency distribution graph 100 User identification means 100A User identification process 200 Characteristic information extraction means 200A Characteristic information extraction step 300, 350 Input / output device characteristic changing means 300A, 350A Input / output device characteristic changing step 400, 450 Application characteristic changing means 400A, 450A Application characteristic changing step 500 Characteristic information updating means 500A Characteristic information updating step 600 User interface characteristic changing means 600A User interface characteristic changing Step 700 Emotion identification means 700A Emotion identification step 1010 Mouse characteristic setting means 1020 Keyboard characteristic setting means 1 030 Audio property setting means 1011 Mouse property setting window

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 利用者の特質に応じてコンピュータが備
えるユーザインターフェースの特性を変更するユーザイ
ンターフェースの制御方法であって、コンピュータの入
力デバイスから取り込んだ情報に基づいて利用者を識別
し、利用者の識別情報を基にコンピュータに蓄積されて
いる利用者の特質情報を抽出し、特質情報に基づいてコ
ンピュータのユーザインターフェースの特性を変更する
ことを特徴とするユーザインターフェース制御方法。
1. A user interface control method for changing the characteristics of a user interface provided in a computer according to the characteristics of the user, comprising the steps of: identifying a user based on information taken from an input device of the computer; A user interface control method, wherein characteristic information of a user stored in a computer is extracted based on the identification information, and characteristics of a user interface of the computer are changed based on the characteristic information.
【請求項2】 コンピュータの入力デバイスから取り込
んだ情報に基づいて、一定時間毎または規定のタイミン
グで利用者の特質を示す情報を更新し、更新された特質
情報に基づいてコンピュータのユーザインターフェース
の特性を変更する請求項1に記載のユーザインターフェ
ース制御方法。
2. A method for updating information indicating a characteristic of a user at regular time intervals or at a predetermined timing based on information taken from an input device of a computer, and a characteristic of a user interface of the computer based on the updated characteristic information. The user interface control method according to claim 1, wherein:
【請求項3】 利用者のその時々の感情によって一時的
に変化した特質情報に応じてコンピュータが備えるユー
ザインターフェースの特性を変更するユーザインターフ
ェースの制御方法であって、コンピュータの入力デバイ
スから取り込んだ情報に基づいて利用者の感情によって
一時的に変化した特質情報を識別し、利用者の感情によ
って一時的に変化した特質情報に基づいてコンピュータ
のユーザインターフェースの特性を変更することを特徴
とするユーザインターフェース制御方法。
3. A user interface control method for changing a characteristic of a user interface provided in a computer according to characteristic information temporarily changed according to a user's current emotion, the information being taken from an input device of the computer. A user interface for identifying characteristic information temporarily changed by a user's emotion based on the characteristic information, and changing characteristics of a computer user interface based on the characteristic information temporarily changed by the user's emotion. Control method.
【請求項4】 入力デバイスから取り込んだ情報に基づ
いて利用者の感情によって一時的に変化した特質情報を
識別するタイミングは、コンピュータ起動時、入力デバ
イスからの情報が一定時間途絶えた後に入力デバイスか
ら情報を取り込んだ時、定められた一定時間経過後のう
ち、いずれかのタイミングで行う請求項3に記載のユー
ザインターフェース制御方法。
4. A timing for identifying characteristic information temporarily changed by a user's emotion based on information taken from an input device is determined at the time of starting the computer after the information from the input device has been interrupted for a certain period of time. 4. The user interface control method according to claim 3, wherein the method is performed at any timing after the lapse of a predetermined time when information is fetched.
【請求項5】 利用者の特質に応じてコンピュータが備
えるユーザインターフェースの特性を変更するユーザイ
ンターフェースの制御装置であって、コンピュータの入
力デバイスから取り込んだ情報に基づいて利用者を識別
する利用者識別手段と、利用者識別手段によって識別さ
れた利用者の識別情報に基づいてコンピュータの記憶装
置上に蓄積されている利用者の特質情報を抽出する特質
情報抽出手段とを備え、特質情報抽出手段によって抽出
された特質情報に基づいてコンピュータの入出力デバイ
ス特性を変更する入出力デバイス特性変更手段、特質情
報抽出手段によって抽出された特質情報に基づいてコン
ピュータ上で動作するアプリケーションプログラムの特
性を変更するアプリケーション特性変更手段のうち、少
なくとも一つを備えることを特徴とするユーザインター
フェース制御装置。
5. A user interface control device for changing characteristics of a user interface provided in a computer according to characteristics of the user, the user identification identifying a user based on information taken from an input device of the computer. Means, and characteristic information extracting means for extracting characteristic information of the user stored in the storage device of the computer based on the identification information of the user identified by the user identifying means, wherein the characteristic information extracting means Input / output device characteristic changing means for changing the input / output device characteristics of the computer based on the extracted characteristic information, and an application for changing the characteristics of an application program running on the computer based on the characteristic information extracted by the characteristic information extracting means Equipped with at least one of the characteristic changing means A user interface control device.
【請求項6】 利用者の特質に応じてコンピュータが備
えるユーザインターフェースの特性を変更するユーザイ
ンターフェースの制御装置であって、コンピュータの入
力デバイスから取り込んだ情報に基づいて、一定時間毎
または規定のタイミングで利用者の特質を示すコンピュ
ータ記憶装置上の特質情報を更新する特質情報更新手段
と、更新された特質情報に基づいてコンピュータの入出
力デバイス特性、またはコンピュータ上で動作するアプ
リケーションプログラムの特性を変更するユーザインタ
ーフェース特性変更手段とを備えたことを特徴とする請
求項5に記載のユーザインターフェース制御装置。
6. A control device for a user interface for changing characteristics of a user interface provided in a computer according to a characteristic of a user, wherein the control device is provided at a predetermined time interval or at a predetermined timing based on information taken from an input device of the computer. A characteristic information updating means for updating characteristic information on a computer storage device indicating a characteristic of a user, and changing a characteristic of an input / output device of a computer or a characteristic of an application program operating on the computer based on the updated characteristic information. The user interface control device according to claim 5, further comprising: a user interface characteristic changing unit that performs the operation.
【請求項7】 利用者のその時々の感情によって一時的
に変化した特質情報に応じてコンピュータが備えるユー
ザインターフェースの特性を変更するユーザインターフ
ェースの制御装置であって、コンピュータの入力デバイ
スから取り込んだ情報に基づいて利用者のその時点の感
情によって一時的に変化した特質情報を識別する感情識
別手段を備え、前記感情識別手段によって識別された利
用者の一時的に変化した特質情報に基づいてコンピュー
タの入出力デバイス特性を変更する入出力デバイス特性
変更手段、前記感情識別手段によって識別された利用者
の一時的に変化した特質情報に基づいてコンピュータ上
で動作するアプリケーションプログラムの特性を変更す
るアプリケーション特性変更手段のうち、少なくとも一
つを備えることを特徴とするユーザインターフェース制
御装置。
7. A user interface control device for changing a characteristic of a user interface provided in a computer according to characteristic information temporarily changed according to a user's current emotion, the information taken from an input device of the computer. Based on the characteristic information temporarily changed by the user's emotion at that time, and a computer based on the temporarily changed characteristic information of the user identified by the emotion identification means. Input / output device characteristic changing means for changing input / output device characteristics, application characteristic change for changing characteristics of an application program operating on a computer based on temporarily changed characteristic information of a user identified by the emotion identification means Means that at least one of the User interface control device.
JP19706999A 1999-07-12 1999-07-12 User interface control method and user interface controller Pending JP2001022488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19706999A JP2001022488A (en) 1999-07-12 1999-07-12 User interface control method and user interface controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19706999A JP2001022488A (en) 1999-07-12 1999-07-12 User interface control method and user interface controller

Publications (1)

Publication Number Publication Date
JP2001022488A true JP2001022488A (en) 2001-01-26

Family

ID=16368207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19706999A Pending JP2001022488A (en) 1999-07-12 1999-07-12 User interface control method and user interface controller

Country Status (1)

Country Link
JP (1) JP2001022488A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007522838A (en) * 2004-02-05 2007-08-16 モトリカ インク Rehabilitation of fine motor control
JP2007287177A (en) * 2002-12-11 2007-11-01 Sony Corp Information processing device and method, program, and recording medium
JP2011118917A (en) * 2011-01-19 2011-06-16 Sharp Corp Electronic device, operation method of the same and program
JP2012146219A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic apparatus and control program therefor
CN103238311A (en) * 2011-01-13 2013-08-07 株式会社尼康 Electronic device and electronic device control program
US8671347B2 (en) 2011-01-07 2014-03-11 Empire Technology Development Llc Quantifying frustration via a user interface
JP2014191647A (en) * 2013-03-27 2014-10-06 Konami Digital Entertainment Co Ltd Information processing device, information processing system, information processing method, and program
JP2016021259A (en) * 2015-09-29 2016-02-04 株式会社ニコン Electronic apparatus and control program for electronic apparatus
JP2020053021A (en) * 2018-09-26 2020-04-02 株式会社Cygames Program, electronic device, and method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287177A (en) * 2002-12-11 2007-11-01 Sony Corp Information processing device and method, program, and recording medium
JP4525712B2 (en) * 2002-12-11 2010-08-18 ソニー株式会社 Information processing apparatus and method, program, and recording medium
JP2007522838A (en) * 2004-02-05 2007-08-16 モトリカ インク Rehabilitation of fine motor control
US8671347B2 (en) 2011-01-07 2014-03-11 Empire Technology Development Llc Quantifying frustration via a user interface
JP2014509466A (en) * 2011-01-07 2014-04-17 エンパイア テクノロジー ディベロップメント エルエルシー Quantifying dissatisfaction through the user interface
US9547408B2 (en) 2011-01-07 2017-01-17 Empire Technology Development Llc Quantifying frustration via a user interface
JP2012146219A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic apparatus and control program therefor
CN103238311A (en) * 2011-01-13 2013-08-07 株式会社尼康 Electronic device and electronic device control program
JP2011118917A (en) * 2011-01-19 2011-06-16 Sharp Corp Electronic device, operation method of the same and program
JP2014191647A (en) * 2013-03-27 2014-10-06 Konami Digital Entertainment Co Ltd Information processing device, information processing system, information processing method, and program
JP2016021259A (en) * 2015-09-29 2016-02-04 株式会社ニコン Electronic apparatus and control program for electronic apparatus
JP2020053021A (en) * 2018-09-26 2020-04-02 株式会社Cygames Program, electronic device, and method

Similar Documents

Publication Publication Date Title
US10692504B2 (en) User profiling for voice input processing
US20230386462A1 (en) Reducing the need for manual start/end-pointing and trigger phrases
CN107832286B (en) Intelligent interaction method, equipment and storage medium
JP7418526B2 (en) Dynamic and/or context-specific hotwords to trigger automated assistants
CN106601259A (en) Voiceprint search-based information recommendation method and device
CN106708905B (en) Video content searching method and device
EP3593346B1 (en) Graphical data selection and presentation of digital content
EP3729422B1 (en) Detecting continuing conversations with computing devices
WO2019015505A1 (en) Information processing method and system, electronic device and computer storage medium
CN107155121B (en) Voice control text display method and device
US20090044105A1 (en) Information selecting system, method and program
JP2001022488A (en) User interface control method and user interface controller
US6360201B1 (en) Method and apparatus for activating and deactivating auxiliary topic libraries in a speech dictation system
US20220269724A1 (en) Audio playing method, electronic device, and storage medium
CN107424612A (en) Processing method, device and machine readable media
US10282417B2 (en) Conversational list management
CN111345016A (en) Start control method and start control system of intelligent terminal
WO2023246036A1 (en) Control method and apparatus for speech recognition device, and electronic device and storage medium
JP6347939B2 (en) Utterance key word extraction device, key word extraction system using the device, method and program thereof
CN113539234B (en) Speech synthesis method, device, system and storage medium
CN113380242A (en) Method and system for controlling multimedia playing content through voice
CN113539235A (en) Text analysis and speech synthesis method, device, system and storage medium
JP2003173349A (en) Information retrieval system and information retrieval method
JPH1055194A (en) Device and method of voice control
JP2002268667A (en) Presentation system and control method therefor