JP7240134B2 - Information display device, electronic pen, display control method, and display control program - Google Patents

Information display device, electronic pen, display control method, and display control program Download PDF

Info

Publication number
JP7240134B2
JP7240134B2 JP2018203313A JP2018203313A JP7240134B2 JP 7240134 B2 JP7240134 B2 JP 7240134B2 JP 2018203313 A JP2018203313 A JP 2018203313A JP 2018203313 A JP2018203313 A JP 2018203313A JP 7240134 B2 JP7240134 B2 JP 7240134B2
Authority
JP
Japan
Prior art keywords
voice
electronic pen
display device
input
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018203313A
Other languages
Japanese (ja)
Other versions
JP2020071545A (en
Inventor
英俊 八谷
孝之 矢島
征 新谷
淳 和田
克明 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2018203313A priority Critical patent/JP7240134B2/en
Priority to PCT/JP2019/038499 priority patent/WO2020090317A1/en
Priority to US17/288,297 priority patent/US20210382684A1/en
Publication of JP2020071545A publication Critical patent/JP2020071545A/en
Application granted granted Critical
Publication of JP7240134B2 publication Critical patent/JP7240134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報表示装置、電子ペン、表示制御方法、及び表示制御プログラムに関する。 The present invention relates to an information display device, an electronic pen, a display control method, and a display control program.

従来、手書き入力を受け付けるタッチパネルを備える情報表示装置が普及している。このような情報表示装置は、指示体としてのペン又は指による手書き入力をタッチパネルが受け付けて、文字や図形を表す手書きの軌跡を表示する(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an information display device having a touch panel for accepting handwritten input has been widely used. In such an information display device, a touch panel receives a handwritten input with a pen or a finger as an indicator, and displays a handwritten trajectory representing a character or a figure (see, for example, Patent Document 1).

特開2017-152018号公報JP 2017-152018 A

しかしながら、従来の情報表示装置において手書きの軌跡の表示態様を変更する場合、手書き入力の前又は後において、その手書きの軌跡の表示態様を変更するための入力操作をユーザが指示体により行う必要があり、操作が煩雑であるという問題がある。 However, when changing the display mode of the handwritten trajectory in the conventional information display device, it is necessary for the user to perform an input operation for changing the display mode of the handwritten trajectory with an indicator before or after handwriting input. There is a problem that the operation is complicated.

また、表示態様を変更するための入力操作を受け付けるためのGUI(ウィンドウ、アイコン、ボタン等)を情報表示装置が表示する場合、このようなGUIにより情報表示装置の限られた表示面積の一部が占有され、手書き入力の操作性がさらに悪化しうる。 Further, when the information display device displays a GUI (window, icon, button, etc.) for receiving an input operation for changing the display mode, such a GUI can be used to display a part of the limited display area of the information display device. are occupied, and the operability of handwriting input may be further deteriorated.

そこで、本発明は、手書きの軌跡の表示態様を変更する際の操作性を向上させた情報表示装置、電子ペン、表示制御方法、及び表示制御プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an information display device, an electronic pen, a display control method, and a display control program that improve operability when changing the display mode of a handwritten trajectory.

第1の態様に係る情報表示装置は、指示体による手書き入力を受け付けるタッチパネルと、前記タッチパネルが受け付けた手書きの軌跡を表示する表示部と、音声コマンドを含む音声入力を受け付ける音声入力部と、手書き入力状態において前記音声入力部が入力を受け付けた音声コマンドに応じて、前記表示部における手書きの軌跡の表示態様を制御するコントローラとを備える。 An information display device according to a first aspect includes a touch panel that accepts handwriting input by an indicator, a display unit that displays the locus of handwriting accepted by the touch panel, a voice input unit that accepts voice input including a voice command, and handwriting. and a controller for controlling a display mode of the handwritten trajectory on the display unit according to a voice command received by the voice input unit in an input state.

第2の態様に係る電子ペンは、前記指示体として機能する。 The electronic pen according to the second aspect functions as the indicator.

第3の態様に係る表示制御方法は、指示体による手書き入力を受け付けるタッチパネルを有する情報表示装置に用いる方法である。前記表示制御方法は、手書き入力状態において、音声コマンドを含む音声入力を受け付ける音声入力ステップと、前記タッチパネルが受け付けた手書きの軌跡を表示する表示ステップと、前記音声入力ステップで入力を受け付けた音声コマンドに応じて、前記表示ステップにおける手書きの軌跡の表示態様を制御する制御ステップとを備える。 A display control method according to a third aspect is a method used in an information display device having a touch panel that accepts handwritten input using an indicator. The display control method includes, in a handwriting input state, a voice input step of receiving a voice input including a voice command, a display step of displaying a trace of handwriting received by the touch panel, and a voice command received in the voice input step. and a control step of controlling a display mode of the handwritten trajectory in the display step according to the above.

第4の態様に係るプログラムは、指示体による手書き入力を受け付けるタッチパネルを有する情報表示装置に、手書き入力状態において、音声コマンドを含む音声入力を受け付ける音声入力ステップと、前記タッチパネルが受け付けた手書きの軌跡を表示する表示ステップと、前記音声入力ステップで入力を受け付けた音声コマンドに応じて、前記表示ステップにおける手書きの軌跡の表示態様を制御する制御ステップとを実行させる。 A program according to a fourth aspect provides an information display device having a touch panel that accepts handwriting input by an indicator, in a handwriting input state, a voice input step of accepting voice input including a voice command; and a control step of controlling the display mode of the handwritten trajectory in the display step according to the voice command received in the voice input step.

本発明の一態様によれば、手書きの軌跡の表示態様を変更する際の操作性を向上させた情報表示装置、電子ペン、表示制御方法、及び表示制御プログラムを提供できる。 According to one aspect of the present invention, it is possible to provide an information display device, an electronic pen, a display control method, and a display control program that improve operability when changing the display mode of a handwritten locus.

一実施形態に係る情報表示装置の外観図である。1 is an external view of an information display device according to an embodiment; FIG. 一実施形態に係る情報表示装置の機能構成を示すブロック図である。1 is a block diagram showing the functional configuration of an information display device according to one embodiment; FIG. 一実施形態に係る電子ペンの外観図である。1 is an external view of an electronic pen according to one embodiment; FIG. 一実施形態に係る電子ペンの機能構成を示すブロック図である。1 is a block diagram showing the functional configuration of an electronic pen according to one embodiment; FIG. 一実施形態に係る手書き入力画面の一例を示す図である。It is a figure which shows an example of the handwriting input screen which concerns on one Embodiment. 一実施形態に係る手書きの軌跡の表示態様を段階的に変更する一例を示す図である。FIG. 11 is a diagram showing an example of changing the display mode of a handwritten trajectory in stages according to one embodiment; 一実施形態に係る手書きの軌跡の表示態様を変更する一例を示す図である。FIG. 11 is a diagram showing an example of changing the display mode of a handwritten trajectory according to one embodiment; 一実施形態に係る手書きの軌跡の表示態様を変更する他の例を示す図である。FIG. 11 is a diagram showing another example of changing the display mode of the handwritten trajectory according to one embodiment; 一実施形態に係る手書き入力状態を示す図である。It is a figure which shows the handwriting input state which concerns on one Embodiment. 一実施形態に係る情報表示装置及び電子ペンの動作フローの一例を示す図である。It is a figure which shows an example of the operation|movement flow of the information display apparatus which concerns on one Embodiment, and an electronic pen. 一実施形態に係る情報表示装置及び電子ペンの動作フローの他の例を示す図である。FIG. 7 is a diagram showing another example of the operation flow of the information display device and the electronic pen according to one embodiment;

図面を参照して実施形態について説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 Embodiments will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

(情報表示装置の構成)
一実施形態に係る情報表示装置は、例えばスマートフォン端末又はタブレット端末のような端末とすることができる。しかしながら、情報表示装置はそのような端末に限定されるものではなく、例えば、パーソナルコンピュータ、電子黒板、又は車載情報表示装置等であってもよい。
(Configuration of information display device)
The information display device according to one embodiment can be a terminal such as a smartphone terminal or a tablet terminal, for example. However, the information display device is not limited to such a terminal, and may be, for example, a personal computer, an electronic blackboard, or an in-vehicle information display device.

図1は、一実施形態に係る情報表示装置100の外観図である。 FIG. 1 is an external view of an information display device 100 according to one embodiment.

図1に示すように、情報表示装置100は、タッチスクリーンディスプレイ110と、マイク120と、スピーカ130と、カメラ140とを有する。 As shown in FIG. 1, the information display device 100 has a touch screen display 110, a microphone 120, a speaker 130, and a camera 140. As shown in FIG.

タッチスクリーンディスプレイ110は、その表示面が情報表示装置100の筐体101から露出して設けられる。タッチスクリーンディスプレイ110は、タッチパネル111と、表示部(ディスプレイ)112とを有する。 The touch screen display 110 is provided with its display surface exposed from the housing 101 of the information display device 100 . The touch screen display 110 has a touch panel 111 and a display section (display) 112 .

タッチパネル111は、情報表示装置100への操作入力(タッチ入力)を受け付ける。タッチパネル111は、指示体としてのユーザの指又は電子ペン等のタッチを検出する。タッチを検出する方法としては、例えば抵抗膜方式や静電容量方式があるが、任意の方式でよい。タッチパネル111は、ユーザのタッチ入力を検出して、このタッチ入力で指示される位置の座標(タッチ座標)のデータをコントローラ180に出力する。 Touch panel 111 receives an operation input (touch input) to information display device 100 . The touch panel 111 detects a touch of a user's finger, an electronic pen, or the like as an indicator. Methods for detecting a touch include, for example, a resistive film method and a capacitive method, but any method may be used. The touch panel 111 detects a user's touch input and outputs data of the coordinates (touch coordinates) of the position indicated by this touch input to the controller 180 .

表示部112は、映像出力を行う。表示部112は、文字(記号を含む)、画像、図形等のオブジェクトを画面上に表示する。表示部112には、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイが用いられる。 The display unit 112 performs video output. The display unit 112 displays objects such as characters (including symbols), images, and graphics on the screen. For the display unit 112, for example, a liquid crystal display or an organic EL (Electro Luminescence) display is used.

一実施形態に係るタッチスクリーンディスプレイ110において、表示部112はタッチパネル111と重なるように設けられており、表示部112の表示領域はタッチパネル111と重複している。しかしながら、表示部112及びタッチパネル111が互いに重なるように設けられることに代えて、表示部112及びタッチパネル111を並べて配置されてもよいし、離して配置されてもよい。 In the touch screen display 110 according to one embodiment, the display unit 112 is provided so as to overlap the touch panel 111 , and the display area of the display unit 112 overlaps the touch panel 111 . However, instead of providing the display unit 112 and the touch panel 111 so as to overlap each other, the display unit 112 and the touch panel 111 may be arranged side by side or separated from each other.

マイク120は、情報表示装置100への音声入力を受け付ける。マイク120は、周囲の音声を集音する。 Microphone 120 accepts voice input to information display device 100 . The microphone 120 collects surrounding sounds.

スピーカ130は、音声出力を行う。スピーカ130は、電話の音声や各種プログラムの情報等を音声で出力する。 The speaker 130 outputs audio. The speaker 130 outputs voices of telephone calls, information of various programs, and the like.

カメラ140は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮像する。カメラ140は、タッチスクリーンディスプレイ110に面している物体を撮影するインカメラである。情報表示装置100は、さらに、タッチスクリーンディスプレイ110の反対側の面に面している物体を撮影するアウトカメラを備えていてもよい。 The camera 140 electronically takes an image using an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). Camera 140 is an in-camera that captures an object facing touch screen display 110 . Information display device 100 may further include an out-camera that captures an object facing the opposite side of touch screen display 110 .

図2は、一実施形態に係る情報表示装置100の機能構成を示すブロック図である。 FIG. 2 is a block diagram showing the functional configuration of the information display device 100 according to one embodiment.

図2に示すように、情報表示装置100は、タッチパネル111と、表示部112と、音声入力部121と、音声出力部131と、カメラ140と、センサ150と、記憶部160と、通信インターフェイス170と、コントローラ180とを有する。 As shown in FIG. 2, the information display device 100 includes a touch panel 111, a display unit 112, an audio input unit 121, an audio output unit 131, a camera 140, a sensor 150, a storage unit 160, and a communication interface 170. and a controller 180 .

タッチパネル111は、検出された指示体でのタッチ操作に対応する信号をコントローラ180に入力する。また、タッチパネル111は、後述する手書き入力アプリケーションの実行中において、電子ペンによる手書き入力を受け付ける。 The touch panel 111 inputs to the controller 180 a signal corresponding to the touch operation with the detected pointer. Further, the touch panel 111 accepts handwriting input with an electronic pen while a handwriting input application, which will be described later, is being executed.

表示部112は、コントローラ180から入力された信号に基づいて、文字、画像、図形等のオブジェクトを画面上に表示する。また、表示部112は、手書き入力アプリケーションの実行中において、タッチパネル111が入力を受け付けた手書きの軌跡(例えば、文字や図形)を表示する。 The display unit 112 displays objects such as characters, images, and graphics on the screen based on signals input from the controller 180 . In addition, display unit 112 displays a handwritten trajectory (for example, characters and figures) of which input is received by touch panel 111 during execution of the handwriting input application.

音声入力部121は、入力を受け付けた音声に対応する信号をコントローラ180に入力する。音声入力部121は、上記のマイク120を含む。また、音声入力部121は、外部のマイクを接続可能な入力インターフェイスであってもよい。外部のマイクは無線又は有線で接続される。入力インターフェイスに接続されるマイクは、例えば情報表示装置100に接続可能なイヤホン等に備えられるマイクである。一実施形態において、外部のマイクは、電子ペンに設けられている。 The voice input unit 121 inputs a signal corresponding to the received voice to the controller 180 . Audio input unit 121 includes microphone 120 described above. Also, the voice input unit 121 may be an input interface to which an external microphone can be connected. An external microphone is connected wirelessly or by wire. A microphone connected to the input interface is, for example, a microphone provided in an earphone or the like connectable to the information display device 100 . In one embodiment, an external microphone is provided on the electronic pen.

音声出力部131は、コントローラ180から入力された信号に基づいて、音声を出力する。音声出力部131は、上記のスピーカ130を含む。また、音声出力部131は、外部のスピーカを接続可能な出力インターフェイスであってもよい。外部のスピーカは無線又は有線で接続される。出力インターフェイスに接続されるスピーカは、例えば情報表示装置に接続可能なイヤホン等に備えられるスピーカである。 Audio output unit 131 outputs audio based on a signal input from controller 180 . Audio output unit 131 includes speaker 130 described above. Also, the audio output unit 131 may be an output interface to which an external speaker can be connected. External speakers are connected wirelessly or by wire. A speaker connected to the output interface is, for example, a speaker provided in an earphone or the like connectable to the information display device.

カメラ140は、撮像した画像を電子信号に変換してコントローラ180に入力する。 Camera 140 converts the captured image into an electronic signal and inputs it to controller 180 .

センサ150は、情報表示装置100に加わる加速度又は振動を検出し、検出結果に対応する検出信号をコントローラ180に出力する。センサ150は、加速度センサを含む。加速度センサは、情報表示装置100に加わる加速度の方向及び大きさを検出する。 The sensor 150 detects acceleration or vibration applied to the information display device 100 and outputs a detection signal corresponding to the detection result to the controller 180 . Sensor 150 includes an acceleration sensor. The acceleration sensor detects the direction and magnitude of acceleration applied to the information display device 100 .

記憶部160は、プログラム及びデータを記憶する。記憶部160は、コントローラ180の処理結果を一時的に記憶する作業領域としても利用される。記憶部160は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。 The storage unit 160 stores programs and data. The storage unit 160 is also used as a work area for temporarily storing the processing results of the controller 180 . The storage unit 160 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.

また、記憶部160は、複数の種類の記憶媒体を含んでよい。記憶部160は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部160は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。 Also, the storage unit 160 may include multiple types of storage media. The storage unit 160 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk, and a reading device for the storage medium. The storage unit 160 may include a storage device such as RAM (Random Access Memory) that is used as a temporary storage area.

記憶部160に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。 The programs stored in the storage unit 160 include applications that are executed in the foreground or background, and control programs that support the operation of the applications.

記憶部160に記憶されるプログラムには、手書き入力アプリケーションが含まれる。手書き入力アプリケーションは、電子ペンによる手書き入力をタッチパネル111が受け付けて、手書きの軌跡(例えば、文字や図形)を表示部112に表示させるアプリケーションである。 The programs stored in storage unit 160 include a handwriting input application. The handwriting input application is an application that allows the touch panel 111 to receive handwriting input with an electronic pen and causes the display unit 112 to display the locus of handwriting (for example, characters and graphics).

一実施形態において、手書き入力アプリケーションは、音声入力部121により取得された音声データに対する音声認識処理を行う機能を有する。音声認識処理は、音声データに含まれる音声コマンドを認識する処理である。各音声コマンド及びそれに対応する操作内容は、記憶部160に予め登録されている。 In one embodiment, the handwriting input application has a function of performing voice recognition processing on voice data acquired by the voice input unit 121 . The voice recognition process is a process of recognizing a voice command included in voice data. Each voice command and its corresponding operation content are registered in the storage unit 160 in advance.

通信インターフェイス170は、無線により通信する。通信インターフェイス170によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラー通信規格や、近距離無線の通信規格等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。 Communication interface 170 communicates wirelessly. Wireless communication standards supported by the communication interface 170 include, for example, cellular communication standards such as 2G, 3G, and 4G, short-range wireless communication standards, and the like. Examples of short-range wireless communication standards include IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network). WPAN communication standards include, for example, ZigBee (registered trademark).

コントローラ180は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-Chip)、MCU(Micro Control Unit)、FPGA(Field-Programmable Gate Array)、及びコプロセッサを含むが、これらに限定されない。また、コントローラ180は、GPU(Graphics Processing Unit)、VRAM(Video RAM)等を含み、表示部112に各種の画像を描画する。コントローラ180は、情報表示装置100の動作を統括的に制御して各種の機能を実現する。 Controller 180 is an arithmetic processing unit. Arithmetic processing units include, but are not limited to, for example, CPU (Central Processing Unit), SoC (System-on-Chip), MCU (Micro Control Unit), FPGA (Field-Programmable Gate Array), and coprocessors. . The controller 180 also includes a GPU (Graphics Processing Unit), a VRAM (Video RAM), etc., and draws various images on the display unit 112 . The controller 180 comprehensively controls the operation of the information display device 100 to implement various functions.

コントローラ180は、自機が外部機器と接続されているかを検出する。接続は有線で行われてもよいし、無線で行われてもよい。無線接続の通信規格は、例えばBluetooth(登録商標)である。コントローラ180は、通信インターフェイス170を介して外部機器と通信する。接続される外部機器は、例えば上記のイヤホンや、ヘッドセット、マイク付きの車載スピーカ、電子ペンである。但し、無線接続の通信規格、外部機器はともにこれらに限定されない。以下において、接続される外部機器が電子ペンである一例について説明する。 The controller 180 detects whether its own device is connected to an external device. The connection may be wired or wireless. A communication standard for wireless connection is, for example, Bluetooth (registered trademark). Controller 180 communicates with external devices via communication interface 170 . The external device to be connected is, for example, the above earphone, headset, in-vehicle speaker with a microphone, or electronic pen. However, the communication standard for wireless connection and the external device are not limited to these. An example in which the connected external device is an electronic pen will be described below.

コントローラ180は、タッチパネル111が検出したタッチ操作等に応じて入力される信号に基づいて、各種制御を実行する。例えば、コントローラ180は、入力された信号に応じた出力を音声出力部131や表示部112等によって行う。また、コントローラ180は、情報表示装置100の機能の実行や設定の変更を行う。 The controller 180 executes various controls based on a signal input according to a touch operation or the like detected by the touch panel 111 . For example, the controller 180 uses the audio output unit 131, the display unit 112, and the like to output according to the input signal. Further, the controller 180 executes functions of the information display device 100 and changes settings.

コントローラ180は、手書き入力アプリケーションの実行中において、ユーザがタッチパネル111を利用して手書き入力(タッチ入力)をすると、タッチ位置に対応するタッチ座標データをタッチパネル111から取得する。 When the user performs handwriting input (touch input) using touch panel 111 while the handwriting input application is running, controller 180 acquires touch coordinate data corresponding to the touch position from touch panel 111 .

ユーザは、電子ペンや指でタッチパネル111を操作する。タッチパネル111を用いた入力としては、タップ(短押し)、スライド(ドラッグ)、フリック、ロングタッチ(長押し)等がある。これらを「タッチ入力」又は単に「入力」と呼ばれることがある。 A user operates the touch panel 111 with an electronic pen or a finger. Inputs using the touch panel 111 include tap (short press), slide (drag), flick, long touch (long press), and the like. These are sometimes called "touch inputs" or simply "inputs".

タッチパネル111をタッチしていない状態からタッチする状態に変化することをタッチオン(ペンダウン)といい、タッチパネル111をタッチしている状態からタッチしていない状態に変化することをタッチオフ(ペンアップ)という。継続的なタッチ入力であるスライドやフリックによる入力に対しては、タッチパネル111は、現在のタッチ位置に対応するタッチ座標データを短周期で出力してもよい。 A change from a non-touched state to a touched state on the touch panel 111 is called touch-on (pen-down), and a change from a touched state to a non-touched state is called touch-off (pen-up). For input by sliding or flicking, which are continuous touch inputs, the touch panel 111 may output touch coordinate data corresponding to the current touch position in short cycles.

タッチパネル111は、タッチオン(ペンダウン)からタッチオフ(ペンアップ)までの一連のタッチ位置に対応するタッチ座標データをコントローラ180に出力する。コントローラ180は、一連のタッチ座標データが示す手書きの軌跡を表示部112に表示させる。 The touch panel 111 outputs touch coordinate data corresponding to a series of touch positions from touch-on (pen-down) to touch-off (pen-up) to the controller 180 . The controller 180 causes the display unit 112 to display the handwritten trajectory indicated by the series of touch coordinate data.

(電子ペンの構成)
図3は、一実施形態に係る電子ペン200の外観図である。
(Configuration of electronic pen)
FIG. 3 is an external view of the electronic pen 200 according to one embodiment.

図3に示すように、電子ペン200は、筐体201と、クリップ部202と、芯体203と、操作部210とを有する。 As shown in FIG. 3 , the electronic pen 200 has a housing 201 , a clip portion 202 , a core 203 and an operation portion 210 .

筐体201は、筒状に構成されている。クリップ部202は、電子ペン200(筐体201)の上端側に設けられている。芯体203及び操作部210は、電子ペン200(筐体201)の下端側に設けられている。操作部210は、指により押下されるボタンである。 The housing 201 is configured in a tubular shape. The clip portion 202 is provided on the upper end side of the electronic pen 200 (housing 201). The core body 203 and the operation unit 210 are provided on the lower end side of the electronic pen 200 (housing 201). The operation unit 210 is a button pressed by a finger.

図4は、一実施形態に係る電子ペン200の機能構成を示すブロック図である。 FIG. 4 is a block diagram showing the functional configuration of the electronic pen 200 according to one embodiment.

図4に示すように、電子ペン200は、操作部210と、マイク220と、スピーカ230と、センサ240と、記憶部250と、通信インターフェイス260と、コントローラ270とを有する。 As shown in FIG. 4 , the electronic pen 200 has an operation section 210 , a microphone 220 , a speaker 230 , a sensor 240 , a storage section 250 , a communication interface 260 and a controller 270 .

操作部210は、検出された押下操作に対応する信号をコントローラ270に入力する。 The operation unit 210 inputs a signal corresponding to the detected pressing operation to the controller 270 .

マイク220は、周囲の音声を集音する。マイク220は、電子ペン200への音声入力を受け付け、入力を受け付けた音声に対応する信号をコントローラ270に入力する。 The microphone 220 collects surrounding sounds. The microphone 220 receives voice input to the electronic pen 200 and inputs a signal corresponding to the received voice to the controller 270 .

スピーカ230は、音声出力を行う。スピーカ230は、電話の音声や各種プログラムの情報等を音声で出力する。スピーカ230は、コントローラ270から入力された信号に基づいて、音声を出力する。 The speaker 230 outputs audio. The speaker 230 outputs telephone voices, information of various programs, etc. by voice. Speaker 230 outputs sound based on the signal input from controller 270 .

センサ240は、電子ペン200に加わる加速度、又は筆圧を検出し、検出結果に対応する検出信号をコントローラ270に出力する。センサ240は、加速度センサを含む。加速度センサは、電子ペン200に加わる加速度の方向及び大きさを検出する。センサ240は、さらに、情報表示装置100の角度及び角速度を検出するジャイロセンサを含んでいてもよい。 The sensor 240 detects acceleration or writing pressure applied to the electronic pen 200 and outputs a detection signal corresponding to the detection result to the controller 270 . Sensor 240 includes an acceleration sensor. The acceleration sensor detects the direction and magnitude of acceleration applied to the electronic pen 200 . Sensor 240 may further include a gyro sensor that detects the angle and angular velocity of information display device 100 .

センサ240は、さらに筆圧センサを含む。筆圧センサは、芯体203(すなわち、ペン先)に加わる圧力を検出し、検出結果に対応する信号をコントローラ270に出力する。 Sensor 240 further includes a pen pressure sensor. The pen pressure sensor detects the pressure applied to the core 203 (that is, the pen tip) and outputs a signal corresponding to the detection result to the controller 270 .

記憶部250は、プログラム及びデータを記憶する。記憶部250は、コントローラ270の処理結果を一時的に記憶する作業領域としても利用される。記憶部250は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的な記憶媒体を含んでよい。 The storage unit 250 stores programs and data. The storage unit 250 is also used as a work area for temporarily storing the processing results of the controller 270 . The storage unit 250 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.

また、記憶部250は、複数の種類の記憶媒体を含んでよい。記憶部250は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部250は、RAM等の一時的な記憶領域として利用される記憶デバイスを含んでよい。 Also, the storage unit 250 may include multiple types of storage media. The storage unit 250 may include a combination of a portable storage medium such as a memory card and a storage medium reader. The storage unit 250 may include a storage device such as RAM that is used as a temporary storage area.

通信インターフェイス260は、無線により通信する。通信インターフェイス260によってサポートされる無線通信規格には、例えば、上記のセルラー通信規格や近距離無線の通信規格等がある。 Communication interface 260 communicates wirelessly. Wireless communication standards supported by the communication interface 260 include, for example, the above-mentioned cellular communication standards and short-range wireless communication standards.

コントローラ270は、演算処理装置である。演算処理装置は、例えば、CPU、SoC、MCU、FPGA、及びコプロセッサを含むが、これらに限定されない。コントローラ270は、電子ペン200の動作を統括的に制御して各種の機能を実現する。 Controller 270 is an arithmetic processing unit. Examples of processing units include, but are not limited to, CPUs, SoCs, MCUs, FPGAs, and co-processors. The controller 270 comprehensively controls the operation of the electronic pen 200 to implement various functions.

コントローラ270は、自機が情報表示装置100と接続されているかを検出する。接続は有線で行われてもよいし、無線で行われてもよい。無線接続の通信規格は、例えばBluetooth(登録商標)である。コントローラ270は、通信インターフェイス260を介して情報表示装置100と通信する。 Controller 270 detects whether its own device is connected to information display device 100 . The connection may be wired or wireless. A communication standard for wireless connection is, for example, Bluetooth (registered trademark). Controller 270 communicates with information display device 100 via communication interface 260 .

コントローラ270は、操作部210が検出した押下操作等に応じて入力される信号に基づいて、各種制御を実行する。また、コントローラ270は、自機が情報表示装置100と接続されている場合において、センサ240の検出結果に応じたデータを情報表示装置100に送信する。 The controller 270 executes various controls based on a signal input in response to a pressing operation or the like detected by the operation unit 210 . Further, the controller 270 transmits data according to the detection result of the sensor 240 to the information display device 100 when the controller 270 is connected to the information display device 100 .

一実施形態において、コントローラ270は、音声認識処理を行う機能を有する。音声認識処理は、音声データに含まれる音声コマンドを認識する処理である。各音声コマンド及びそれに対応する操作内容は、記憶部250に予め登録されていてもよい。 In one embodiment, controller 270 is capable of performing voice recognition processing. The voice recognition process is a process of recognizing a voice command included in voice data. Each voice command and its corresponding operation content may be registered in the storage unit 250 in advance.

(手書き入力の動作)
図5は、手書き入力画面の一例を示す図である。情報表示装置100のコントローラ180は、手書き入力アプリケーションの実行中に、図5に示すような手書き入力画面をタッチスクリーンディスプレイ110(表示部112)に表示させる。
(Operation of handwriting input)
FIG. 5 is a diagram showing an example of a handwriting input screen. Controller 180 of information display device 100 causes touch screen display 110 (display unit 112) to display a handwriting input screen as shown in FIG. 5 during execution of the handwriting input application.

図5に示すように、手書き入力画面は、手書き入力領域R1と、ツールパレット領域P1と、カラーパレット領域P2とを有する。 As shown in FIG. 5, the handwriting input screen has a handwriting input area R1, a tool palette area P1, and a color palette area P2.

手書き入力領域R1は、手書きの軌跡を表示する領域である。図5において、ユーザが電子ペン200を用いて手書き入力を行う一例を示している。一般的に、ユーザは、例えばメモをとるために、電子ペン200により文字を手書き入力領域R1に入力する。文字には、数字や記号も含まれる。或いは、ユーザは、例えばイラストを描画するために、電子ペン200により図形を手書き入力領域R1に入力する。図形には、曲線や直線、円、多角形等が含まれる。 The handwriting input area R1 is an area for displaying a locus of handwriting. FIG. 5 shows an example of handwriting input by the user using the electronic pen 200 . Generally, a user inputs characters into the handwriting input area R1 with the electronic pen 200 in order to take notes, for example. Characters include numbers and symbols. Alternatively, the user inputs a figure into the handwriting input area R1 with the electronic pen 200 in order to draw an illustration, for example. Figures include curved lines, straight lines, circles, polygons, and the like.

ツールパレット領域P1は、手書きの軌跡の太さ(線幅)を変更するためのボタンB11乃至B13と、直前の手書き入力をキャンセルする(元に戻す)ためのボタンB14と、削除する箇所を指示体により指定する操作を行うための消しゴムボタンB15とを表示する領域である。一方、カラーパレット領域P2は、黒、赤、青、緑、黄等の各色に対応するカラーボタンB21乃至B25を表示する領域である。 The tool palette area P1 includes buttons B11 to B13 for changing the thickness (line width) of the handwritten trajectory, a button B14 for canceling (undoing) the previous handwritten input, and specifying a portion to be deleted. This is an area for displaying an eraser button B15 for performing a specified operation with the body. On the other hand, the color palette area P2 is an area for displaying color buttons B21 to B25 corresponding to colors such as black, red, blue, green, and yellow.

ユーザは、ツールパレット領域P1及びカラーパレット領域P2内のボタンを用いて、手書きの軌跡(文字や図形等)の線色及び線幅を選択したり、描画した図形又はその一部を構成する面(閉曲線)を所望の色で塗りつぶしたりする。このため、手書きの軌跡の表示態様(属性)を変化させる度に、ツールパレット領域P1及びカラーパレット領域P2等を用いて表示態様を選択及び変更する操作が必要になる。 The user can use the buttons in the tool palette area P1 and the color palette area P2 to select the line color and line width of the handwritten locus (characters, figures, etc.), and to select the surface that constitutes the drawn figure or part thereof. (closed curve) is filled with the desired color. Therefore, every time the display mode (attribute) of the handwritten trajectory is changed, it is necessary to select and change the display mode using the tool palette area P1, the color palette area P2, and the like.

一実施形態において、このような表示態様の変更を音声により可能にする。具体的には、一実施形態に係る情報表示装置100において、音声入力部121は、音声コマンドを含む音声入力を受け付ける。 In one embodiment, such display mode changes are enabled by voice. Specifically, in the information display device 100 according to one embodiment, the voice input unit 121 receives voice input including voice commands.

音声入力部121は、電子ペン200のマイク220に入力される音声に応じた音声コマンドを含む音声データを電子ペン200から取得することにより、音声入力を受け付けてもよい。電子ペン200のマイク220を利用することにより、ユーザにより近い位置で音声を集音できる。また、情報表示装置100が適切なマイクを有していない場合であっても、電子ペン200のマイク220を用いて音声入力が可能になる。 The voice input unit 121 may receive voice input by acquiring voice data including voice commands according to voice input to the microphone 220 of the electronic pen 200 from the electronic pen 200 . By using the microphone 220 of the electronic pen 200, sound can be collected at a position closer to the user. Also, even if the information display device 100 does not have an appropriate microphone, voice input is possible using the microphone 220 of the electronic pen 200 .

電子ペン200のマイク220を利用する場合、音声コマンドを認識する音声認識処理を情報表示装置100のコントローラ180で行ってもよいし、音声認識処理を電子ペン200のコントローラ270で行ってもよい。 When the microphone 220 of the electronic pen 200 is used, the controller 180 of the information display device 100 may perform voice recognition processing for recognizing voice commands, or the controller 270 of the electronic pen 200 may perform voice recognition processing.

或いは、音声入力部121は、情報表示装置100のマイク120に入力される音声に応じた音声コマンドを含む音声データを取得することにより、音声入力を受け付けてもよい。すなわち、電子ペン200のマイク220を用いることなく音声入力を行う。この場合、音声コマンドを認識する音声認識処理を情報表示装置100のコントローラ180で行う。 Alternatively, the voice input unit 121 may receive voice input by acquiring voice data including a voice command corresponding to voice input to the microphone 120 of the information display device 100 . That is, voice input is performed without using the microphone 220 of the electronic pen 200 . In this case, the controller 180 of the information display device 100 performs voice recognition processing for recognizing voice commands.

音声コマンドは、ツールパレット領域P1及びカラーパレット領域P2内の各ボタンに対応するコマンドが定義されていてもよい。 The voice command may define a command corresponding to each button in the tool palette area P1 and the color palette area P2.

例えば、ボタンB11に対応する音声コマンドは「一番細い線に」、ボタンB13に対応する音声コマンドは「一番太い線に」といったように、直接的なコマンドであってもよい。或いは、「もっと線を太く」という相対的な音声コマンドにより、ボタンB11に対応する線幅からボタンB12に対応する線幅に変更したり、ボタンB12に対応する線幅からボタンB13に対応する線幅に変更したり、ボタンB13に対応する線幅からより太い線幅に変更してもよい。すなわち、情報表示装置100のコントローラ180は、相対的な音声コマンドに基づいて、選択済みの表示態様を、選択済みの表示態様と同種の表示態様であって、かつ選択済みの表示態様とは別の表示態様に変更してもよい。 For example, the voice command corresponding to the button B11 may be "the thinnest line", and the voice command corresponding to the button B13 may be "the thickest line". Alternatively, the line width corresponding to button B11 can be changed to the line width corresponding to button B12 by a relative voice command "thicker line", or the line width corresponding to button B12 can be changed to the line width corresponding to button B13. width, or the line width corresponding to the button B13 may be changed to a thicker line width. That is, the controller 180 of the information display device 100 changes the selected display mode to a display mode similar to the selected display mode and different from the selected display mode based on the relative voice command. may be changed to the display mode of

ボタンB14に対応する音声コマンドは、「元に戻す」であってもよい。ボタンB15に対応する音声コマンドは「消しゴム」であってもよい。 A voice command corresponding to the button B14 may be "undo". A voice command corresponding to the button B15 may be "eraser".

ボタンB21乃至B25については、対応する色を指定する音声コマンドとすることができる。例えば、「ペンを青に」、「ペンを赤に」といった音声コマンドであってもよい。或いは、「ペンを徐々に赤に」といった音声コマンドにより選択済みの色から赤色へのグラデーションを指定してもよい。或いは、「ペンを青から徐々に赤に」といった複数色の指定を含む音声コマンドにより青色から赤色へのグラデーションを指定してもよい。すなわち、情報表示装置100のコントローラ180は、一または複数の同種の表示態様の指定、およびその他所定の音声コマンド(上記の例では、「徐々に」が該当する)を含む音声コマンドに基づいて、選択済みの表示態様または指定された表示態様から、同種の別の表示態様へ段階的に表示態様を変更してもよい。 Buttons B21 to B25 can be voice commands for designating corresponding colors. For example, voice commands such as "Turn the pen blue" and "Turn the pen red" may be used. Alternatively, a gradation from the selected color to red may be specified by a voice command such as "pen gradually red." Alternatively, a gradation from blue to red may be designated by a voice command including designation of a plurality of colors, such as "pen gradually from blue to red." That is, the controller 180 of the information display device 100 specifies one or more similar display modes, and other predetermined voice commands (in the above example, "gradually" corresponds) based on the voice command, The display mode may be changed step by step from the selected display mode or the specified display mode to another display mode of the same type.

コントローラ180は、手書き入力状態において音声入力部121が入力を受け付けた音声コマンドに応じて、表示部112における手書きの軌跡の表示態様を制御する。ここで、表示態様は、文字の色、文字の大きさ、文字の太さ、文字のフォント、文字の装飾、図形の色、図形の大きさ、図形の線幅、及び図形の形状のうち、少なくとも1つを含む。 The controller 180 controls the display mode of the handwritten trajectory on the display unit 112 according to the voice command received by the voice input unit 121 in the handwriting input state. Here, the display mode includes character color, character size, character thickness, character font, character decoration, figure color, figure size, figure line width, and figure shape. At least one.

これにより、手書きの軌跡の表示態様を変更する際に、ユーザは音声を発すればよく、当該変更のための入力操作を指示体により行う必要がないため、操作性を向上させることができる。 Accordingly, when changing the display mode of the handwritten trajectory, the user only has to utter a voice and does not need to perform an input operation for the change using the indicator, so that operability can be improved.

また、表示態様の変更を音声により可能にすることで、図5に示すツールパレット領域P1及びカラーパレット領域P2を不要とすることができるため、その分だけ手書き入力領域R1の面積を広げることができる。 In addition, since the display mode can be changed by voice, the tool palette area P1 and the color palette area P2 shown in FIG. can.

さらに、図5に示すツールパレット領域P1及びカラーパレット領域P2に含まれていない高度な操作を音声により行うことも可能である。そのような高度な操作の例を図6乃至図8に示す。 Furthermore, it is also possible to perform advanced operations not included in the tool palette area P1 and the color palette area P2 shown in FIG. 5 by voice. Examples of such advanced manipulations are shown in FIGS.

図6は、手書きの軌跡の表示態様を段階的に変更する一例を示す図である。図6に示すように、手書き入力状態(具体的には、タッチ状態)において、「黄色からグリーンのグラデーションの線」という音声コマンドC1の入力を音声入力部121が受け付けると、コントローラ180は、音声コマンドC1を認識し、手書きの軌跡の線色を黄色からグリーンに段階的に変更する。 FIG. 6 is a diagram showing an example of changing the display mode of the handwritten trajectory step by step. As shown in FIG. 6, in a handwriting input state (specifically, a touch state), when the voice input unit 121 receives an input of a voice command C1 "a line from yellow to green gradation", the controller 180 outputs a voice command C1. The command C1 is recognized, and the line color of the handwritten locus is changed in stages from yellow to green.

図7は、手書きの軌跡の表示態様を変更する一例を示す図である。図7に示すように、手書きの軌跡L1が描画される。手書き入力状態において、「直線」という音声コマンドC2の入力を音声入力部121が受け付けると、コントローラ180は、音声コマンドC2を認識し、手書きの軌跡L1を直線L2に変更する。 FIG. 7 is a diagram showing an example of changing the display mode of the handwritten trajectory. As shown in FIG. 7, a handwritten trajectory L1 is drawn. In the handwritten input state, when the voice input unit 121 receives the input of the voice command C2 "straight line", the controller 180 recognizes the voice command C2 and changes the handwritten locus L1 to the straight line L2.

図8は、手書きの軌跡の表示態様を変更する他の例を示す図である。図8に示すように、手書きの軌跡L3が描画される。手書き入力状態において、「直角」という音声コマンドC3の入力を音声入力部121が受け付けると、コントローラ180は、音声コマンドC3を認識し、手書きの軌跡L3を直角の線L4に変更する。 FIG. 8 is a diagram showing another example of changing the display mode of the handwritten trajectory. As shown in FIG. 8, a handwritten trajectory L3 is drawn. In the handwriting input state, when the voice input unit 121 receives the input of the voice command C3 "right angle", the controller 180 recognizes the voice command C3 and changes the handwritten locus L3 to the right angle line L4.

(手書き入力状態)
図9は、一実施形態に係る手書き入力状態を示す図である。
(handwriting input state)
FIG. 9 is a diagram showing a handwriting input state according to one embodiment.

図9に示すように、手書き入力状態は、タッチスクリーンディスプレイ110(表示部112)の表示面に電子ペン200がタッチしているタッチ状態を含む。 As shown in FIG. 9, the handwriting input state includes a touch state in which electronic pen 200 is touching the display surface of touch screen display 110 (display unit 112).

コントローラ180は、タッチ状態において音声入力部121が入力を受け付けた音声コマンドに応じて、表示部112における手書きの軌跡の表示態様を制御する。これにより、手書き入力の最中に発された音声により手書きの軌跡の表示態様を変更できる。 The controller 180 controls the display mode of the handwritten trace on the display unit 112 according to the voice command received by the voice input unit 121 in the touch state. As a result, it is possible to change the display mode of the trajectory of the handwriting by the voice produced during the handwriting input.

例えば、タッチ状態において「ペンを赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその色を赤に変更する。 For example, when the voice input unit 121 receives an input of a voice command “turn the pen red” in the touch state, the controller 180 recognizes this voice command and changes the color to red from the middle of the handwritten locus.

また、タッチ状態において「一番太い線に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線幅を一番太い線に変更する。 Also, when the voice input unit 121 receives an input of a voice command “to the thickest line” in the touch state, the controller 180 recognizes this voice command and makes the line width the thickest from the middle of the handwritten locus. Change to line.

或いは、タッチ状態において、「もっと太く」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線幅を1段階太い線に変更する。その後、ペンアップ前に再度「もっと太く」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線幅をもう1段階太い線に変更する。このように、音声コマンドの入力を繰り返し受け付けると、コントローラ180は、手書きの軌跡を段階的に変更する。 Alternatively, when the voice input unit 121 receives an input of a voice command “thicker” in the touch state, the controller 180 recognizes this voice command and increases the line width by one step from the middle of the handwritten locus. change. After that, when the voice input unit 121 receives the input of the voice command "Thicker" again before the pen is raised, the controller 180 recognizes this voice command and thickens the line width by one step from the middle of the handwritten locus. Change to line. In this way, when the voice command input is repeatedly received, the controller 180 changes the handwriting trajectory step by step.

その後、ペンアップ前に再度「もっと細く」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線幅を1段階細い線に変更する。 After that, when the voice input unit 121 receives the input of the voice command "thinner" again before the pen is raised, the controller 180 recognizes this voice command, and reduces the line width by one step from the middle of the handwritten trajectory. change to

これにより、手書き入力中に手書きの軌跡の線幅を段階的に変更できる。ここで、段階的な変更の際に、線幅を急激に変更するのではなく、線幅を徐々に変更してもよい。 As a result, the line width of the handwritten trajectory can be changed stepwise during handwriting input. Here, when changing in steps, the line width may be changed gradually instead of being changed abruptly.

或いは、タッチ状態において、線色が青であるときに、「もっと赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線色を1段階赤に近づける(例えば、青が強めの紫色)。 Alternatively, when the line color is blue in the touch state, when the voice input unit 121 receives the input of the voice command "to be more red", the controller 180 recognizes this voice command and , make the line color one step closer to red (eg, purple with stronger blue).

その後、ペンアップ前に再度「もっと赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線色をもう1段階赤に近づける(例えば、普通の紫色)。 After that, when the voice input unit 121 receives the input of the voice command "more red" again before the pen is raised, the controller 180 recognizes this voice command and changes the line color by one step from the middle of the handwritten locus. Closer to red (e.g. plain purple).

その後、ペンアップ前に再度「もっと赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線色を1段階赤に近づける(例えば、赤が強めの紫色)。 After that, when the voice input unit 121 receives the input of the voice command "more red" again before the pen is raised, the controller 180 recognizes this voice command and changes the line color to red by one level from the middle of the handwritten locus. (for example, purple with strong red).

これにより、手書き入力中に手書きの軌跡の線色を段階的に変更できる。ここで、段階的な変更の際に、線色を急激に変更するのではなく、線色を徐々に変更し、青から赤へのグラデーションで描画してもよい。 As a result, the line color of the handwritten trajectory can be changed in stages during handwriting input. Here, when changing the line color in stages, the line color may be gradually changed instead of being changed abruptly, and drawn with a gradation from blue to red.

或いは、文字入力中に、タッチ状態において「ここ大事」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、その前後の一定時間又は一定長の手書きの軌跡の色を赤に変更する又はハイライト(マーカ)を付してもよい。このような音声コマンドは、手書き入力中に前後の所定範囲の表示態様を一律に変更する(具体的には、強調表示する)ための音声コマンドといえる。 Alternatively, when the voice input unit 121 accepts the input of the voice command "this is important" in the touch state during character input, the controller 180 recognizes this voice command and reads the handwritten text for a predetermined time or length before and after it. You may change the color of the trajectory to red or add a highlight (marker). Such a voice command can be said to be a voice command for uniformly changing (specifically, highlighting) the display mode of a predetermined range before and after handwriting input.

或いは、文字入力中に、タッチ状態において「ここまで大事」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、ペンダウンのタイミングt2から音声コマンドを認識したタイミングまでの手書きの軌跡の色を赤に変更する又はハイライトを付してもよい。このような音声コマンドは、手書き入力中に直前の所定範囲の表示態様を一律に変更する(具体的には、強調表示する)ための音声コマンドといえる。 Alternatively, when the voice input unit 121 receives the input of the voice command "This is important" in the touch state during character input, the controller 180 recognizes this voice command, and recognizes the voice command from the pen-down timing t2. The color of the handwritten trajectory to the timing may be changed to red or highlighted. Such a voice command can be said to be a voice command for uniformly changing (more specifically, highlighting) the display mode of the previous predetermined range during handwriting input.

或いは、文字入力中に、タッチ状態において「ここから大事」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、音声コマンドを認識したタイミングからペンアップのタイミングt3までの手書きの軌跡の色を赤に変更する又はハイライトを付してもよい。このような音声コマンドは、手書き入力中に直後の所定範囲の表示態様を一律に変更する(具体的には、強調表示する)ための音声コマンドといえる。 Alternatively, when the voice input unit 121 receives the input of the voice command "Important from here" in the touch state during character input, the controller 180 recognizes this voice command, and starts the pen-up operation from the timing when the voice command is recognized. The color of the handwritten trajectory up to timing t3 may be changed to red or highlighted. Such a voice command can be said to be a voice command for uniformly changing (specifically, highlighting) the display mode of a predetermined range immediately after handwritten input.

但し、「ここから大事」という音声コマンドの入力後、ペンアップ前に「ここまで大事」という音声コマンドが入力された場合、「ここから大事」という音声コマンドを認識したタイミングから「ここまで大事」という音声コマンドを認識したタイミングまでの手書きの軌跡を赤に変更する又はハイライトを付してもよい。 However, after inputting the voice command "Important from here", if the voice command "Important so far" is input before the pen is raised, the voice command "Important from here" is recognized. The handwritten trajectory up to the timing of recognition of the voice command may be changed to red or highlighted.

手書き入力状態は、タッチ状態の直後の非タッチ状態を含んでもよい。具体的には、手書き入力状態は、タッチスクリーンディスプレイ110(表示部112)の表示面から電子ペン200が離れたタイミング(すなわち、ペンアップのタイミング)t3から所定時間が経過するまでの間の非タッチ状態を含んでもよい。これにより、ペンアップの直後に発された音声により手書きの軌跡の表示態様を変更できる。 A handwriting input state may include a non-touch state immediately following a touch state. Specifically, the handwriting input state is defined as a state of non-handwriting during a period from timing t3 when electronic pen 200 moves away from the display surface of touch screen display 110 (display unit 112) (that is, pen-up timing) until a predetermined time elapses. It may also include a touch state. As a result, it is possible to change the display mode of the handwritten trajectory by the voice produced immediately after pen-up.

例えば、ペンアップの直後に、「元に戻す」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力された文字又は図形等の手書きの軌跡を削除してもよい。 For example, when the voice input unit 121 receives a voice command input of “undo” immediately after pen-up, the controller 180 recognizes this voice command, and the character or figure input during the touch state is changed. A handwritten trace may be deleted.

或いは、ペンアップの直後に、「消しゴム」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力された文字又は図形等の手書きの軌跡を削除するモードを設定し、削除箇所を電子ペン200が指定するためのマーク(又は消しゴムアイコン)を表示し、電子ペン200により指定された箇所を削除してもよい。 Alternatively, when the voice input unit 121 receives the input of the voice command “eraser” immediately after the pen is up, the controller 180 recognizes this voice command and writes the handwritten characters or figures input during the touch state. A mode for deleting the trajectory may be set, a mark (or an eraser icon) for the electronic pen 200 to designate the deletion location may be displayed, and the location designated by the electronic pen 200 may be deleted.

或いは、ペンアップの直後に、「ペンを赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力された文字又は図形等の手書きの軌跡の色を赤に変更する。 Alternatively, when the voice input unit 121 receives an input of a voice command “turn the pen red” immediately after the pen is raised, the controller 180 recognizes this voice command and recognizes the characters, figures, etc., input during the touch state. , change the color of the handwritten trace to red.

また、ペンアップの直後に、「一番太い線に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力された文字又は図形等の手書きの軌跡の線幅を一番太い線に変更する。 Further, when the voice input unit 121 receives the input of the voice command "to the thickest line" immediately after the pen-up, the controller 180 recognizes this voice command, and Change the line width of handwritten traces such as to the thickest line.

手書き入力状態は、タッチ状態の直前の非タッチ状態を含んでもよい。具体的には、手書き入力状態は、表示面に電子ペン200がタッチするタイミング(すなわち、ペンダウンのタイミング)t2から所定時間前までの非タッチ状態を含んでもよい。これにより、ペンアップの直前に発された音声により手書きの軌跡の表示態様を変更できる。 A handwriting input state may include a non-touch state immediately preceding a touch state. Specifically, the handwriting input state may include a non-touch state from timing t2 at which electronic pen 200 touches the display surface (that is, pen-down timing) to a predetermined time before. As a result, it is possible to change the display mode of the handwritten trajectory by the voice uttered immediately before the pen-up.

例えば、ペンダウンの直前に、「ペンを赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力される文字又は図形等の手書きの軌跡の色を赤にする。 For example, if the voice input unit 121 accepts the input of a voice command “turn the pen red” just before pen down, the controller 180 recognizes this voice command and recognizes characters, graphics, etc. input during the touch state. Change the color of the handwritten locus to red.

また、ペンアップの直前に、「一番太い線に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力される文字又は図形等の手書きの軌跡の線幅を一番太い線にする。 In addition, when the voice input unit 121 receives the input of the voice command "to the thickest line" just before the pen-up, the controller 180 recognizes this voice command and recognizes the character or figure input during the touch state. Make the line width of the handwritten trajectory such as the thickest line.

(動作フローの一例)
図10は、情報表示装置100及び電子ペン200の動作フローの一例を示す図である。なお、情報表示装置100と電子ペン200との間には無線接続(例えば、近距離無線通信の接続)が設定されている。
(Example of operation flow)
FIG. 10 is a diagram showing an example of the operation flow of the information display device 100 and the electronic pen 200. As shown in FIG. A wireless connection (for example, a short-range wireless communication connection) is set between the information display device 100 and the electronic pen 200 .

図10に示すように、ステップS101において、情報表示装置100のコントローラ180は、音声認識処理を開始する。音声認識処理を開始することにより、手書き入力状態において所定の音声コマンドを認識可能になる。 As shown in FIG. 10, in step S101, the controller 180 of the information display device 100 starts voice recognition processing. By starting voice recognition processing, it becomes possible to recognize a predetermined voice command in the handwriting input state.

情報表示装置100のコントローラ180は、手書き入力アプリケーションが起動されたことに応じて音声認識処理を開始してもよい。これにより、適切なタイミングで音声認識処理を開始できる。 The controller 180 of the information display device 100 may start speech recognition processing in response to activation of the handwriting input application. As a result, speech recognition processing can be started at an appropriate timing.

或いは、情報表示装置100のコントローラ180は、手書き入力アプリケーションが起動されており、且つ電子ペン200の操作部210に対して押下操作(第1の操作)がなされたことに応じて、音声認識処理を開始してもよい。ユーザは、音声コマンドに対応する音声を発する前に電子ペン200の操作部210を押下する。これにより、より適切なタイミングで音声認識処理を開始できる。 Alternatively, the controller 180 of the information display device 100 performs voice recognition processing in response to a handwriting input application being activated and a pressing operation (first operation) being performed on the operation unit 210 of the electronic pen 200. may be started. The user presses the operation unit 210 of the electronic pen 200 before uttering a voice corresponding to the voice command. As a result, speech recognition processing can be started at a more appropriate timing.

情報表示装置100のコントローラ180は、手書き入力アプリケーションが起動されており、且つ電子ペン200のセンサ240(筆圧センサ)が筆圧を検出したことに応じて、音声認識処理を開始してもよい。或いは、情報表示装置100のコントローラ180は、手書き入力アプリケーションが起動されており、且つタッチパネル111がタッチ入力(ペンダウン)を検出したことに応じて、音声認識処理を開始してもよい。これにより、ユーザが電子ペン200の操作部210を押下しなくても、適切なタイミングで音声認識処理を開始できる。 The controller 180 of the information display device 100 may start voice recognition processing when the handwriting input application is activated and the sensor 240 (pen pressure sensor) of the electronic pen 200 detects pen pressure. . Alternatively, the controller 180 of the information display device 100 may start voice recognition processing when the handwriting input application is activated and the touch panel 111 detects a touch input (pen down). Accordingly, even if the user does not press the operation unit 210 of the electronic pen 200, the voice recognition process can be started at an appropriate timing.

ステップS102において、電子ペン200のマイク220に音声が入力される。電子ペン200のマイク220は、この音声を音声データに変換して電子ペン200のコントローラ270に出力する。 In step S<b>102 , voice is input to the microphone 220 of the electronic pen 200 . The microphone 220 of the electronic pen 200 converts this voice into voice data and outputs it to the controller 270 of the electronic pen 200 .

ステップS103において、電子ペン200のコントローラ270は、電子ペン200のマイク220から入力された音声データを、電子ペン200の通信インターフェイス260を介して情報表示装置100に送信する。情報表示装置100の音声入力部121は、電子ペン200から音声データを取得することにより音声入力を受け付け、この音声データを情報表示装置100のコントローラ180に出力する。 In step S<b>103 , the controller 270 of the electronic pen 200 transmits voice data input from the microphone 220 of the electronic pen 200 to the information display device 100 via the communication interface 260 of the electronic pen 200 . The voice input unit 121 of the information display device 100 receives voice input by acquiring voice data from the electronic pen 200 and outputs this voice data to the controller 180 of the information display device 100 .

ステップS104において、情報表示装置100のコントローラ180は、音声入力部121から入力された音声データに対する音声認識処理を行い、この音声データに音声コマンドが含まれているか確認する。 In step S104, the controller 180 of the information display device 100 performs voice recognition processing on the voice data input from the voice input unit 121, and confirms whether or not the voice data includes a voice command.

音声コマンドが含まれている場合、ステップS105において、情報表示装置100のコントローラ180は、当該音声コマンドに応じて、表示部112における手書きの軌跡の表示態様を制御する。 If a voice command is included, in step S105, the controller 180 of the information display device 100 controls the display mode of the handwritten trajectory on the display unit 112 according to the voice command.

なお、情報表示装置100のコントローラ180は、手書き入力アプリケーションが終了されたことに応じて、音声認識処理を終了する。 Note that the controller 180 of the information display device 100 terminates the voice recognition processing when the handwriting input application is terminated.

或いは、情報表示装置100のコントローラ180は、電子ペン200の操作部210が押下されている間において音声認識を有効としてもよい。この場合、コントローラ180は、操作部210に対して押下解除(第2の操作)がなされたことに応じて、音声認識処理を終了してもよい。 Alternatively, the controller 180 of the information display device 100 may enable voice recognition while the operation unit 210 of the electronic pen 200 is being pressed. In this case, the controller 180 may end the voice recognition process in response to the pressing release (second operation) on the operation unit 210 .

或いは、情報表示装置100のコントローラ180は、タッチ状態において音声認識を有効としてもよい。この場合、情報表示装置100のコントローラ180は、電子ペン200の筆圧センサが圧力を検出しなくなったことに応じて、音声認識処理を終了してもよい。或いは、情報表示装置100のコントローラ180は、タッチパネル111がペンアップを検出したことに応じて、音声認識処理を終了してもよい。 Alternatively, the controller 180 of the information display device 100 may enable voice recognition in the touch state. In this case, the controller 180 of the information display device 100 may terminate the voice recognition process in response to the pen pressure sensor of the electronic pen 200 no longer detecting pressure. Alternatively, the controller 180 of the information display device 100 may terminate the voice recognition process when the touch panel 111 detects the pen-up.

図11は、情報表示装置100及び電子ペン200の動作フローの他の例を示す図である。なお、情報表示装置100と電子ペン200との間には無線接続(例えば、近距離無線通信の接続)が設定されている。ここでは、図10に示す動作との相違点について主として説明する。 FIG. 11 is a diagram showing another example of the operation flow of the information display device 100 and the electronic pen 200. As shown in FIG. A wireless connection (for example, a short-range wireless communication connection) is set between the information display device 100 and the electronic pen 200 . Here, differences from the operation shown in FIG. 10 will be mainly described.

図11に示すように、ステップS201において、電子ペン200のコントローラ270は、音声認識処理を開始する。 As shown in FIG. 11, in step S201, the controller 270 of the electronic pen 200 starts speech recognition processing.

電子ペン200のコントローラ270は、手書き入力アプリケーションが起動されたことを情報表示装置100から通知された際に、音声認識処理を開始してもよい。或いは、電子ペン200のコントローラ270は、手書き入力アプリケーションが起動されており、且つ電子ペン200の操作部210に対して押下操作(第1の操作)がなされたことに応じて、音声認識処理を開始してもよい。電子ペン200のコントローラ270は、手書き入力アプリケーションが起動されており、且つ電子ペン200のセンサ240(筆圧センサ)が筆圧を検出したことに応じて、音声認識処理を開始してもよい。 The controller 270 of the electronic pen 200 may start voice recognition processing when notified by the information display device 100 that the handwriting input application has been activated. Alternatively, the controller 270 of the electronic pen 200 executes the voice recognition process in response to the handwriting input application being activated and the operation unit 210 of the electronic pen 200 being pressed (first operation). may start. The controller 270 of the electronic pen 200 may start voice recognition processing when the handwriting input application is activated and the sensor 240 (pen pressure sensor) of the electronic pen 200 detects pen pressure.

ステップS202において、電子ペン200のマイク220に音声が入力される。電子ペン200のマイク220は、この音声を音声データに変換して電子ペン200のコントローラ270に出力する。 In step S<b>202 , voice is input to the microphone 220 of the electronic pen 200 . The microphone 220 of the electronic pen 200 converts this voice into voice data and outputs it to the controller 270 of the electronic pen 200 .

ステップS203において、電子ペン200のコントローラ270は、音声入力部121から入力された音声データに対する音声認識処理を行い、この音声データに音声コマンドが含まれているか確認する。 In step S203, the controller 270 of the electronic pen 200 performs voice recognition processing on the voice data input from the voice input unit 121, and confirms whether the voice data includes a voice command.

音声コマンドが含まれている場合、ステップS204において、電子ペン200のコントローラ270は、当該音声コマンドに対応するデータを、電子ペン200の通信インターフェイス260を介して情報表示装置100に送信する。情報表示装置100の音声入力部121は、電子ペン200から音声コマンドに対応するデータを取得することにより音声入力を受け付け、音声コマンドに対応するデータを情報表示装置100のコントローラ180に出力する。 If a voice command is included, the controller 270 of the electronic pen 200 transmits data corresponding to the voice command to the information display device 100 via the communication interface 260 of the electronic pen 200 in step S204. The voice input unit 121 of the information display device 100 receives voice input by acquiring data corresponding to the voice command from the electronic pen 200 and outputs data corresponding to the voice command to the controller 180 of the information display device 100 .

ステップS205において、情報表示装置100のコントローラ180は、音声入力部121から入力された音声コマンドに対応するデータに応じて、表示部112における手書きの軌跡の表示態様を制御する。 In step S<b>205 , the controller 180 of the information display device 100 controls the display mode of the handwritten trajectory on the display section 112 according to the data corresponding to the voice command input from the voice input section 121 .

なお、電子ペン200のコントローラ270は、手書き入力アプリケーションが終了されたことを情報表示装置100から通知された際に、音声認識処理を終了してもよい。 Note that the controller 270 of the electronic pen 200 may terminate the voice recognition process when notified by the information display device 100 that the handwriting input application has terminated.

或いは、電子ペン200のコントローラ270は、電子ペン200の操作部210が押下されている間において音声認識を有効としてもよい。この場合、電子ペン200のコントローラ270は、電子ペン200の操作部210に対して押下解除(第2の操作)がなされたことに応じて、音声認識処理を終了してもよい。 Alternatively, the controller 270 of the electronic pen 200 may enable voice recognition while the operation unit 210 of the electronic pen 200 is being pressed. In this case, the controller 270 of the electronic pen 200 may end the voice recognition process in response to the pressing release (second operation) of the operation unit 210 of the electronic pen 200 .

或いは、電子ペン200のコントローラ270は、タッチ状態において音声認識を有効としてもよい。この場合、電子ペン200のコントローラ270は、電子ペン200の筆圧センサが圧力を検出しなくなったことに応じて、音声認識処理を終了してもよい。 Alternatively, the controller 270 of the electronic pen 200 may enable voice recognition in the touch state. In this case, the controller 270 of the electronic pen 200 may terminate the voice recognition process in response to the writing pressure sensor of the electronic pen 200 no longer detecting pressure.

(その他の実施形態)
上記の実施形態において、電子ペン200が情報表示装置100に収納可能である場合について特に触れなかったが、情報表示装置100に電子ペン200の収納部が設けられ、電子ペン200が情報表示装置100に収納可能であってもよい。
(Other embodiments)
In the above embodiment, the case where the electronic pen 200 can be stored in the information display device 100 was not particularly mentioned. It may be possible to store in

情報表示装置100が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 A program that causes a computer to execute each process performed by the information display device 100 may be provided. The program may be recorded on a computer readable medium. A computer readable medium allows the installation of the program on the computer. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be, for example, a recording medium such as CD-ROM or DVD-ROM.

以上、図面を参照して一実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 An embodiment has been described in detail above with reference to the drawings, but the specific configuration is not limited to the one described above, and various design changes can be made without departing from the spirit of the invention. .

100 :情報表示装置
101 :筐体
110 :タッチスクリーンディスプレイ
111 :タッチパネル
112 :表示部
120 :マイク
121 :音声入力部
130 :スピーカ
131 :音声出力部
140 :カメラ
150 :センサ
160 :記憶部
170 :通信インターフェイス
180 :コントローラ
200 :電子ペン
201 :筐体
202 :クリップ部
203 :芯体
210 :操作部
220 :マイク
230 :スピーカ
240 :センサ
250 :記憶部
260 :通信インターフェイス
270 :コントローラ
100: Information display device 101: Housing 110: Touch screen display 111: Touch panel 112: Display unit 120: Microphone 121: Audio input unit 130: Speaker 131: Audio output unit 140: Camera 150: Sensor 160: Storage unit 170: Communication Interface 180 : Controller 200 : Electronic pen 201 : Housing 202 : Clip section 203 : Core body 210 : Operation section 220 : Microphone 230 : Speaker 240 : Sensor 250 : Storage section 260 : Communication interface 270 : Controller

Claims (13)

筆圧センサを有する電子ペンによる手書き入力を受け付けるタッチパネルと、
前記電子ペンから前記筆圧センサが検出した圧力を受信する通信インターフェイスと、
前記タッチパネルが受け付けた手書きの軌跡を表示する表示部と、
音声コマンドを含む音声入力を受け付ける音声入力部と、
手書き入力アプリケーションが起動後に前記筆圧センサが圧力を検出したことに応じて音声認識処理を開始し、当該音声認識処理により受け付けた音声コマンドに応じて、前記表示部における手書きの軌跡の表示態様を制御するコントローラと、を備える
情報表示装置。
a touch panel that accepts handwriting input with an electronic pen having a pen pressure sensor;
a communication interface that receives the pressure detected by the pen pressure sensor from the electronic pen;
a display unit that displays a handwritten trajectory received by the touch panel;
a voice input unit that receives voice input including voice commands;
After the handwriting input application is activated, in response to the pen pressure sensor detecting pressure , speech recognition processing is started, and in accordance with the voice command received by the speech recognition processing, the handwritten trajectory is displayed on the display unit. and a controller that controls the information display device.
前記電子ペンは、マイクを有しており、
前記音声入力部は、前記マイクに入力される音声に応じた音声コマンドを含む音声データを前記電子ペンから取得することにより、前記音声入力を受け付ける
請求項1に記載の情報表示装置。
The electronic pen has a microphone,
The information display device according to claim 1, wherein the voice input unit accepts the voice input by acquiring voice data including a voice command corresponding to voice input to the microphone from the electronic pen.
前記コントローラは、前記タッチパネルから前記電子ペンが離れたタイミングから所定時間が経過するまでの間に前記音声入力部が入力を受け付けた音声コマンドに応じて、前記表示態様を制御する
請求項1に記載の情報表示装置。
2. The controller according to claim 1, wherein the display mode is controlled according to a voice command received by the voice input unit during a predetermined period of time from when the electronic pen is separated from the touch panel. information display device.
前記コントローラは、前記タッチパネルから前記電子ペンが離れた直後に前記音声入力部が入力を受け付けた音声コマンドに応じて、前記表示態様を制御する
請求項1に記載の情報表示装置。
The information display device according to claim 1, wherein the controller controls the display mode according to a voice command received by the voice input unit immediately after the electronic pen is separated from the touch panel.
前記表示部は、前記手書きの軌跡として文字を表示し、
前記コントローラは、前記電子ペンが前記タッチパネルを離れた後に前記音声入力部が入力を受け付けた音声コマンドに応じて、前記表示部が表示する文字の態様を変更する
請求項1乃至4のいずれか1項に記載の情報表示装置。
The display unit displays characters as the handwritten trajectory,
5. Any one of claims 1 to 4, wherein the controller changes the mode of characters displayed by the display unit according to a voice command received by the voice input unit after the electronic pen leaves the touch panel. The information display device according to the item.
前記表示部は、前記手書きの軌跡として図形を表示し、
前記コントローラは、前記電子ペンが前記タッチパネルを離れた後に前記音声入力部が入力を受け付けた音声コマンドに応じて、前記表示部が表示する図形の態様を変更する
請求項1乃至4のいずれか1項に記載の情報表示装置。
The display unit displays a figure as the trajectory of the handwriting,
5. Any one of claims 1 to 4, wherein the controller changes the form of the figure displayed by the display unit according to a voice command received by the voice input unit after the electronic pen leaves the touch panel. The information display device according to the item.
前記コントローラは、前記電子ペンが前記タッチパネルを離れた後に前記音声入力部が入力を受け付けた音声コマンドに応じて、前記表示部における手書きの軌跡を削除する
請求項1乃至4のいずれか1項に記載の情報表示装置。
5. The controller according to any one of claims 1 to 4, wherein the controller deletes the trace of handwriting on the display unit in response to a voice command received by the voice input unit after the electronic pen leaves the touch panel. Information display device as described.
前記コントローラは、前記電子ペンが前記タッチパネルを離れた後に、
前記音声入力部が受け付けた前記音声入力に含まれる音声コマンドを認識し、
所定の音声コマンドを認識したことに応じて、前記表示部における前記手書きの軌跡の表示態様を変更する
請求項1乃至7のいずれか1項に記載の情報表示装置。
After the electronic pen leaves the touch panel, the controller
recognizing a voice command included in the voice input received by the voice input unit;
The information display device according to any one of claims 1 to 7, wherein the display mode of the handwritten trajectory on the display unit is changed in response to recognition of a predetermined voice command.
前記コントローラは、前記手書き入力アプリケーションが終了されたことに応じて、前記音声認識処理を終了する
請求項8に記載の情報表示装置。
The information display device according to claim 8, wherein the controller terminates the speech recognition processing in response to termination of the handwriting input application.
前記コントローラは、前記筆圧センサが圧力を検出しなくなったことに応じて、前記音声認識処理を終了する
請求項8に記載の情報表示装置。
9. The information display device according to claim 8, wherein the controller terminates the voice recognition processing when the writing pressure sensor no longer detects pressure.
請求項1乃至10のいずれか1項に記載の指示体として機能する
電子ペン。
An electronic pen functioning as the indicator according to any one of claims 1 to 10.
筆圧センサを有する電子ペンによる手書き入力を受け付けるタッチパネルと、前記電子ペンから前記筆圧センサが検出した圧力を受信する通信インターフェイスと、前記タッチパネルが受け付けた手書きの軌跡を表示する表示部と、を有する情報表示装置に、
手書き入力アプリケーションが起動後に前記筆圧センサが検出した圧力に応じて音声認識処理を開始し、当該音声認識処理により受け付けた音声コマンドに応じて、前記表示部における手書きの軌跡の表示態様を制御する制御ステップと、を実行させる
表示制御プログラム。
A touch panel that receives handwritten input by an electronic pen having a pen pressure sensor, a communication interface that receives pressure detected by the pen pressure sensor from the electronic pen, and a display unit that displays the locus of handwriting received by the touch panel. In the information display device having
After the handwriting input application is activated, voice recognition processing is started according to the pressure detected by the writing pressure sensor, and the display mode of the handwritten trajectory on the display unit is controlled according to the voice command received by the voice recognition processing. A display control program that causes a control step to be executed.
筆圧センサを有しており且つ情報表示装置と通信可能な電子ペンによる手書き入力を受け付けるタッチパネルを有する前記情報表示装置に用いる表示制御方法であって、
手書き入力状態において、音声コマンドを含む音声入力を受け付ける音声入力ステップと、
前記音声入力に含まれる前記音声コマンドを認識するための音声認識処理を行うステップと、
前記タッチパネルが受け付けた手書きの軌跡を表示する表示ステップと、
前記音声認識処理を行うステップで認識した前記音声コマンドに応じて、前記表示ステップで表示する手書きの軌跡の表示態様を制御する制御ステップと、を備え、
前記音声認識処理を行うステップは、手書き入力アプリケーションが起動されており、且つ前記筆圧センサが圧力を検出したことに応じて、前記音声認識処理を開始するステップを含む
表示制御方法。
A display control method for use in an information display device having a touch panel that receives handwriting input with an electronic pen that has a pen pressure sensor and is communicable with the information display device,
a voice input step of accepting voice input including voice commands in the handwriting input state;
performing a voice recognition process to recognize the voice commands contained in the voice input;
a display step of displaying a handwritten trajectory received by the touch panel;
a control step of controlling a display mode of the handwritten trajectory displayed in the display step according to the voice command recognized in the step of performing the voice recognition process ;
The display control method, wherein the step of performing the speech recognition processing includes the step of starting the speech recognition processing in response to a handwriting input application being activated and the writing pressure sensor detecting pressure.
JP2018203313A 2018-10-29 2018-10-29 Information display device, electronic pen, display control method, and display control program Active JP7240134B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018203313A JP7240134B2 (en) 2018-10-29 2018-10-29 Information display device, electronic pen, display control method, and display control program
PCT/JP2019/038499 WO2020090317A1 (en) 2018-10-29 2019-09-30 Information display device, electronic instrument, electronic pen, system, method, and program
US17/288,297 US20210382684A1 (en) 2018-10-29 2019-09-30 Information display apparatus, electronic device, electronic pen, system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203313A JP7240134B2 (en) 2018-10-29 2018-10-29 Information display device, electronic pen, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2020071545A JP2020071545A (en) 2020-05-07
JP7240134B2 true JP7240134B2 (en) 2023-03-15

Family

ID=70547804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203313A Active JP7240134B2 (en) 2018-10-29 2018-10-29 Information display device, electronic pen, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP7240134B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060287864A1 (en) 2005-06-16 2006-12-21 Juha Pusa Electronic device, computer program product and voice control method
JP2007048177A (en) 2005-08-12 2007-02-22 Canon Inc Information processing method and information processing device
JP2010086542A (en) 2008-10-02 2010-04-15 Wacom Co Ltd Input system and input method
JP2014010836A (en) 2012-06-29 2014-01-20 Samsung Electronics Co Ltd Multiple input processing method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214701A (en) * 1993-01-12 1994-08-05 Sony Corp Information processor
JPH0713687A (en) * 1993-06-25 1995-01-17 Casio Comput Co Ltd Handwriting input device
JPH11184633A (en) * 1997-12-18 1999-07-09 Ricoh Co Ltd Pen input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060287864A1 (en) 2005-06-16 2006-12-21 Juha Pusa Electronic device, computer program product and voice control method
JP2007048177A (en) 2005-08-12 2007-02-22 Canon Inc Information processing method and information processing device
JP2010086542A (en) 2008-10-02 2010-04-15 Wacom Co Ltd Input system and input method
JP2014010836A (en) 2012-06-29 2014-01-20 Samsung Electronics Co Ltd Multiple input processing method and device

Also Published As

Publication number Publication date
JP2020071545A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
WO2020090317A1 (en) Information display device, electronic instrument, electronic pen, system, method, and program
US11907446B2 (en) Devices and methods for creating calendar events based on hand-drawn inputs at an electronic device with a touch-sensitive display
KR102003255B1 (en) Method and apparatus for processing multiple inputs
JP5204305B2 (en) User interface apparatus and method using pattern recognition in portable terminal
CN102968206B (en) Input unit and method for the terminal device with touch modules
KR102186393B1 (en) Method for processing input and an electronic device thereof
KR102594951B1 (en) Electronic apparatus and operating method thereof
TWI510994B (en) Electronic apparatus and method for controlling the same
KR102138913B1 (en) Method for processing input and an electronic device thereof
KR102102663B1 (en) Method and apparatus for using a portable terminal
KR20100020389A (en) Input method using size of touching spot and device thereof
JP7257126B2 (en) Information display device, electronic pen, display control method, and display control program
US10755461B2 (en) Display device, display method, and recording medium
KR102118421B1 (en) Camera cursor system
EP2146493A2 (en) Method and apparatus for continuous key operation of mobile terminal
JP7240134B2 (en) Information display device, electronic pen, display control method, and display control program
JP7228365B2 (en) Information display device, electronic pen, display control method, and display control program
JP2019101739A (en) Information processor, information processing system and program
JP7228366B2 (en) Pen input system, information display device, electronic pen, control method, and program
KR20130128143A (en) Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor
CN110914795A (en) Writing board, writing board assembly and writing method of writing board
JP5864050B2 (en) INPUT DEVICE, CONTROL METHOD FOR INPUT DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM
JPWO2017072913A1 (en) Control method, electronic blackboard system, display device, and program
US20070042805A1 (en) Communications device comprising a touch-sensitive display unit and an actuating element for selecting highlighted characters
JP2014044673A (en) Portable terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230303

R150 Certificate of patent or registration of utility model

Ref document number: 7240134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150