JP7508916B2 - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP7508916B2
JP7508916B2 JP2020123983A JP2020123983A JP7508916B2 JP 7508916 B2 JP7508916 B2 JP 7508916B2 JP 2020123983 A JP2020123983 A JP 2020123983A JP 2020123983 A JP2020123983 A JP 2020123983A JP 7508916 B2 JP7508916 B2 JP 7508916B2
Authority
JP
Japan
Prior art keywords
handwritten data
input
display
display device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020123983A
Other languages
Japanese (ja)
Other versions
JP2022020470A (en
Inventor
佳苗 五十嵐
進 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020123983A priority Critical patent/JP7508916B2/en
Publication of JP2022020470A publication Critical patent/JP2022020470A/en
Application granted granted Critical
Publication of JP7508916B2 publication Critical patent/JP7508916B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置、表示方法およびプログラムに関する。 The present invention relates to a display device, a display method, and a program.

ペンなどの入力手段による手書きデータの入力を受け付けて、手書きデータに基づく画像を表示する表示装置が開発されている。例えば、テキストボックスによる文字の入力を受け付けた後に、テキストボックスが押されたことを検知すると、テキストボックス内の文字色の濃度を変える表示装置が開示されている(例えば、特許文献1)。 Display devices have been developed that accept handwritten data input using an input device such as a pen, and display an image based on the handwritten data. For example, a display device has been disclosed that accepts character input into a text box, and then changes the density of the color of the characters in the text box when it detects that the text box has been pressed (for example, Patent Document 1).

表示装置に表示される第1手書きデータに基づく画像と、第1手書きデータの入力後に入力された第2手書きデータに基づく画像と、を見分けることができるように、第2手書きデータに基づく画像の表示態様を変更したいという要望がある。 There is a demand to change the display mode of an image based on the second handwritten data so that an image based on the first handwritten data displayed on a display device can be distinguished from an image based on the second handwritten data input after the first handwritten data is input.

このような要望に対して、従来の技術を適用しても、複数の手書きデータを区別することが困難であるため、例えば、第2手書きデータに基づく画像が第1手書きデータに基づく画像に重なる位置になるように第2手書きデータが入力された場合、表示態様を変更したい第2手書きデータに対して、簡単な操作で第2手書きデータに基づく画像の表示態様を変更することができないという問題がある。 In response to such a demand, even when conventional technology is applied, it is difficult to distinguish between multiple pieces of handwritten data. For example, when second handwritten data is input so that an image based on the second handwritten data is positioned so that it overlaps an image based on the first handwritten data, there is a problem in that it is not possible to change the display mode of the image based on the second handwritten data with a simple operation for the second handwritten data for which it is desired to change the display mode.

開示の技術は、第1手書きデータの入力後に入力された第2手書きデータに基づく画像表示態様の変更操作を簡易化することを目的とする。 The disclosed technology aims to simplify the operation of changing the image display mode based on second handwritten data input after inputting first handwritten data.

開示の技術は、入力手段によって手書きデータの入力を受け付ける受付手段と、前記受付手段が受け付けた第1手書きデータの入力の後に入力を受け付けた第2手書きデータに対する所定の操作を受け付けた場合に、表示部に表示された前記第2手書きデータに基づく画像の表示態様を変更する制御手段と、を備え、前記第2手書きデータを対する前記所定の操作は、前記入力手段が前記第2手書きデータに基づく画像の領域内に接触する時間が、長押しの基準を示す時間以上であるか、または前記長押しの基準を示す時間を超過している操作である、表示装置である。
The disclosed technology is a display device that includes a reception means for receiving input of handwritten data by an input means, and a control means for changing the display mode of an image based on the second handwritten data displayed on a display unit when a specified operation is received on second handwritten data received after the input of first handwritten data received by the reception means, wherein the specified operation on the second handwritten data is an operation in which the input means contacts an area of the image based on the second handwritten data for a time period that is equal to or longer than a time indicating a long press criterion, or exceeds the time indicating the long press criterion .

第1手書きデータの入力後に入力された第2手書きデータに基づく画像の表示態様の変更操作を簡易化することができる。 This simplifies the operation of changing the display mode of an image based on second handwritten data input after inputting first handwritten data.

表示装置の全体構成の一例を示す図である。FIG. 1 is a diagram showing an example of an overall configuration of a display device. 表示装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a display device. ペンの斜視図の一例を示す図である。FIG. 2 is a diagram showing an example of a perspective view of a pen. 第一の実施形態に係る表示装置の機能の一例を示す図である。FIG. 2 is a diagram illustrating an example of functions of the display device according to the first embodiment. 第一の実施形態に係る表示態様変更処理のフローの一例を示す図である。FIG. 11 is a diagram illustrating an example of a flow of a display mode change process according to the first embodiment. 第一の実施形態に係る表示態様変更処理の結果を説明するための図である。13A to 13C are diagrams for explaining a result of a display mode change process according to the first embodiment. 第二の実施形態に係る表示装置の機能の一例を示す図である。FIG. 11 is a diagram illustrating an example of functions of a display device according to a second embodiment. 第二の実施形態に係る表示態様変更処理のフローの一例を示す図である。FIG. 11 is a diagram illustrating an example of a flow of a display mode change process according to the second embodiment. 第二の実施形態に係る表示態様変更処理の結果を説明するための図である。13A to 13C are diagrams for explaining a result of a display mode change process according to the second embodiment. 第二の実施形態の変形例に係る表示態様変更処理の結果を説明するための図である。13A and 13B are diagrams for explaining a result of a display mode change process according to a modified example of the second embodiment. 第三の実施形態に係る表示装置の機能の一例を示す図である。FIG. 11 is a diagram illustrating an example of functions of a display device according to a third embodiment. 第三の実施形態に係る表示態様変更処理のフローの一例を示す図である。FIG. 13 is a diagram illustrating an example of a flow of a display mode change process according to the third embodiment. 第三の実施形態に係る表示態様変更処理の結果を説明するための図である。13A to 13C are diagrams for explaining a result of a display mode change process according to the third embodiment. 第四の実施形態に係る表示システムの全体構成の一例を示す図である。FIG. 13 is a diagram illustrating an example of an overall configuration of a display system according to a fourth embodiment. 第四の実施形態に係る表示装置の機能の一例を示す図である。FIG. 13 is a diagram illustrating an example of functions of a display device according to a fourth embodiment. 第四の実施形態に係る表示態様変更処理のフローの一例を示す図である。FIG. 13 is a diagram illustrating an example of a flow of a display mode change process according to the fourth embodiment. 表示装置の他の構成例を示す第一の図である。FIG. 11 is a first diagram showing another configuration example of the display device. 表示装置の他の構成例を示す第二の図である。FIG. 11 is a second diagram showing another configuration example of the display device. 表示装置の他の構成例を示す第三の図である。FIG. 11 is a third diagram showing another configuration example of the display device. 表示装置の他の構成例を示す第四の図である。FIG. 4 is a fourth diagram showing another configuration example of the display device.

(第一の実施形態)
以下に図面を参照して、本発明の実施の形態について説明する。
(First embodiment)
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

まず、本実施形態に係る用語について説明する。手書きデータとは、ディスプレー上でユーザーが入力手段を連続的に移動させた座標点列を軌跡として表示したデータである。また、ユーザーがディスプレーに入力手段を押しつけてから連続的に移動させた後、ディスプレーから離すという一連の操作をストロークといい、ストロークにより手書きされたデータをストロークデータという。ストロークデータは、座標点列を示す座標群とも言える。 First, the terminology used in this embodiment will be explained. Handwritten data is data that displays as a trajectory a sequence of coordinate points created by a user continuously moving an input tool on a display. A series of operations in which the user presses the input tool against the display, continuously moves it, and then removes it from the display is called a stroke, and data handwritten using strokes is called stroke data. Stroke data can also be thought of as a coordinate group that indicates a sequence of coordinate points.

手書きデータは1つ以上のストロークデータを有する。具体的には、手書きデータは、ストロークが終了してから次のストロークを開始するまでの時間、すなわち、入力手段をディスプレーから離してから接触させるまでの時間が、所定の時間よりも短い複数のストロークデータをまとめたデータである。したがって、手書きデータは、手書きデータが有するストロークデータが示す座標群を含む。 The handwritten data has one or more stroke data. Specifically, the handwritten data is a compilation of multiple stroke data in which the time between the end of a stroke and the start of the next stroke, i.e., the time between removing the input means from the display and touching it back, is shorter than a predetermined time. Therefore, the handwritten data includes a group of coordinates indicated by the stroke data contained in the handwritten data.

入力手段は、ディスプレーの座標を指定して手書きデータを入力するための手段である。例えば、ペン、人の指や手、棒状部材などは、入力手段の一例である。 The input means is a means for inputting handwritten data by specifying coordinates on the display. Examples of input means include a pen, a human finger or hand, and a rod-shaped member.

差し替えとは、1つ以上の文字を別の1つ以上の文字に変更することをいう。入れ替えとは、2つ以上の文字を有する文字列内の文字と文字を入れ替えることをいう。 Replacement means changing one or more characters with one or more other characters. Transposition means exchanging one character for another in a string of two or more characters.

ドラッグとはマウスのボタンを押したまま動かす操作であり、ドロップとは、目的の場所でマウスのボタンを放す操作である。ドラッグにより文字は移動される。ドロップにより文字の位置が決定される。 Dragging is the act of holding down the mouse button and moving it, and dropping is the act of releasing the mouse button at the desired location. Dragging moves the text. Dropping determines the position of the text.

次に、表示装置の構成について説明する。 Next, we will explain the configuration of the display device.

図1は、表示装置の全体構成の一例を示す図である。 Figure 1 shows an example of the overall configuration of a display device.

(a)では、表示装置2の一例として、壁につり下げられた横長の電子黒板として使用される表示装置2を示している。 (a) shows an example of a display device 2 that is used as a horizontally long electronic whiteboard hung on a wall.

(b)は壁につり下げられた縦長の電子黒板として使用される表示装置2を示している。 (b) shows the display device 2 used as a vertically long electronic whiteboard hung on the wall.

(c)は机230に平置きされた表示装置2を示す。表示装置2は厚みが1cm程度なので、一般の机に平置きしても机の高さを調整する必要がない。また、容易に移動できる。 (c) shows the display device 2 placed flat on a desk 230. The display device 2 is about 1 cm thick, so there is no need to adjust the height of the desk even if it is placed flat on a regular desk. It can also be easily moved.

表示装置2には表示部の一例としてのディスプレー220が設置されている。ユーザーUは、ペン2500を用いて、ディスプレー220に文字等を手書きする(入力、描画ともいう)ことができる。 The display device 2 is provided with a display 220 as an example of a display unit. A user U can handwrite (also called input or drawing) characters, etc. on the display 220 using a pen 2500.

図2は、表示装置のハードウェア構成の一例を示す図である。 Figure 2 shows an example of the hardware configuration of a display device.

表示装置2は、情報処理装置又はコンピュータの構成を有している。表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、及び、SSD(Solid State Drive)204を備えている。 The display device 2 has the configuration of an information processing device or a computer. The display device 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, and an SSD (Solid State Drive) 204.

CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、表示装置2用のプログラム等の各種データを記憶する。 The CPU 201 controls the overall operation of the display device 2. The ROM 202 stores the CPU 201 and programs used to drive the CPU 201, such as an IPL (Initial Program Loader). The RAM 203 is used as a work area for the CPU 201. The SSD 204 stores various data, such as programs for the display device 2.

また、表示装置2は、ディスプレーコントローラー213、タッチセンサーコントローラー215、タッチセンサー216、ディスプレー220、電源スイッチ227、チルトセンサー217、シリアルインタフェース218、スピーカー219、マイク221、無線通信装置222、赤外線I/F223、電源制御回路224、ACアダプター225、及びバッテリー226を備えている。 The display device 2 also includes a display controller 213, a touch sensor controller 215, a touch sensor 216, a display 220, a power switch 227, a tilt sensor 217, a serial interface 218, a speaker 219, a microphone 221, a wireless communication device 222, an infrared I/F 223, a power control circuit 224, an AC adapter 225, and a battery 226.

ディスプレーコントローラー213は、出力画像をディスプレー220等へ出力するために画面表示の制御及び管理を行う。タッチセンサー216は、ディスプレー220上にペン2500やユーザーの手等(ペンやユーザーの手は入力手段となる)が接触したことを検知する。また、タッチセンサー216はペンIDを受信する。 The display controller 213 controls and manages the screen display in order to output an output image to the display 220, etc. The touch sensor 216 detects that the pen 2500, the user's hand, etc. (the pen and the user's hand serve as input means) have come into contact with the display 220. The touch sensor 216 also receives the pen ID.

タッチセンサーコントローラー215は、タッチセンサー216の処理を制御する。タッチセンサー216は、座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、例えば、光学式の場合、ディスプレー220の上側両端部に設置された2つ受発光装置が、ディスプレー220に平行して複数の赤外線を放射し、ディスプレー220の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。 The touch sensor controller 215 controls the processing of the touch sensor 216. The touch sensor 216 inputs and detects coordinates. For example, in the case of an optical type, the method of inputting and detecting coordinates is a method in which two light receiving and emitting devices installed at both ends of the upper side of the display 220 emit multiple infrared rays parallel to the display 220, and receive the light that is reflected by a reflecting member installed around the display 220 and returns along the same optical path as the light emitted by the light receiving element.

タッチセンサー216は、物体によって遮断された2つの受発光装置が放射した赤外線の位置情報をタッチセンサーコントローラー215に出力し、タッチセンサーコントローラー215が、物体の接触位置である座標位置を特定する。また、タッチセンサーコントローラー215は通信ユニット215aを有しており、ペン2500と無線で通信することができる。 The touch sensor 216 outputs position information of the infrared rays emitted by the two light receiving and emitting devices that are blocked by the object to the touch sensor controller 215, and the touch sensor controller 215 identifies the coordinate position that is the contact position of the object. The touch sensor controller 215 also has a communication unit 215a, and can communicate wirelessly with the pen 2500.

例えば、Bluetooth(登録商標)などの規格で通信している場合は、市販されているペンを使用することができる。通信ユニット215aに予め1つ以上のペン2500を登録しておくと、ユーザーはペン2500を表示装置2と通信させる接続設定を行わなくても通信できる。 For example, if communication is based on a standard such as Bluetooth (registered trademark), a commercially available pen can be used. If one or more pens 2500 are registered in advance in the communication unit 215a, the user can communicate without having to perform connection settings to allow the pen 2500 to communicate with the display device 2.

電源スイッチ227は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。チルトセンサー217は、表示装置2の傾き角度を検出するセンサーである。主に、表示装置2が図5(a)、図5(b)、又は、図5(c)のいずれかの設置状態で使用されているかを検出するために使用され、設置状態に応じて文字等の太さを自動で変更することができる。 The power switch 227 is a switch for switching the power of the display device 2 ON/OFF. The tilt sensor 217 is a sensor for detecting the tilt angle of the display device 2. It is mainly used to detect whether the display device 2 is being used in the installation state shown in FIG. 5(a), FIG. 5(b), or FIG. 5(c), and can automatically change the thickness of characters, etc. depending on the installation state.

シリアルインタフェース218はUSBなどの外部との通信インタフェースである。外部からの情報の入力などに使用される。スピーカー219は音声の出力に使用され、マイク221は音声の入力に使用される。無線通信装置222は、ユーザーが携帯する端末と通信し、例えばインターネットへの接続を中継する。無線通信装置222はWi-FiやBluetooth(登録商標)などで通信するが、通信規格は問われない。無線通信装置222はアクセスポイントを形成しており、ユーザーが入手したSSID(Service Set Identifier)とパスワードをユーザーが携帯する端末に設定すると、アクセスポイントに接続できる。 The serial interface 218 is an external communications interface such as a USB. It is used for inputting information from the outside. The speaker 219 is used for audio output, and the microphone 221 is used for audio input. The wireless communication device 222 communicates with a terminal carried by the user, and relays a connection to the Internet, for example. The wireless communication device 222 communicates using Wi-Fi or Bluetooth (registered trademark), but any communication standard can be used. The wireless communication device 222 forms an access point, and when the user sets the SSID (Service Set Identifier) and password they have obtained in the terminal they carry, they can connect to the access point.

なお、無線通信装置222には2つのアクセスポイントが用意されているとよい。
a. アクセスポイント→インターネット
b. アクセスポイント→社内ネットワーク→インターネット
aのアクセスポイントは社外のユーザー用で、ユーザーは社内ネットワークにはアクセスできないが、インターネットを利用できる。bのアクセスポイントは社内のユーザー用で、ユーザーは社内ネットワーク及びインターネットを利用できる。
It is preferable that the wireless communication device 222 is provided with two access points.
a. Access point → Internet
b. Access point → Internal network → Internet Access point a is for users outside the company, and users cannot access the internal network but can use the Internet. Access point b is for users inside the company, and users can use the internal network and the Internet.

赤外線I/F223は隣に配置された表示装置2を検出する。赤外線の直進性を利用して、隣に配置された表示装置2のみを検出できる。赤外線I/F223は各辺に1つずつ設けられることが好ましく、表示装置2のどの方向に他の表示装置2が配置されたのかを検出できる。これにより画面が広がり、隣の表示装置2に過去に手書きされた手書き情報(1つのディスプレー220の広さを1ページとして別のページの手書き情報)等を表示できる。 The infrared I/F 223 detects the display device 2 arranged adjacently. By utilizing the linearity of infrared rays, it is possible to detect only the display device 2 arranged adjacently. It is preferable that one infrared I/F 223 is provided on each side, and it is possible to detect in which direction of a display device 2 another display device 2 is arranged. This expands the screen, and it is possible to display handwritten information that was previously handwritten on the adjacent display device 2 (handwritten information on another page, with the area of one display 220 being one page) etc.

電源制御回路224は表示装置2の電源であるACアダプター225とバッテリー226を制御する。ACアダプター225は商用電源が共有する交流を直流に変換する。 The power supply control circuit 224 controls the AC adapter 225 and battery 226, which are the power sources for the display device 2. The AC adapter 225 converts the AC shared by the commercial power source into DC.

ディスプレー220がいわゆる電子ペーパーの場合、画像の表示を維持するためにほとんど又は一切電力を消費しないので、バッテリー226による駆動も可能である。これにより、屋外など電源を接続しにくい場所でもデジタルサイネージなどの用途で表示装置2を使用することが可能になる。 When the display 220 is so-called electronic paper, it consumes little or no power to maintain the image display, so it can also be driven by a battery 226. This makes it possible to use the display device 2 for applications such as digital signage even in places where it is difficult to connect to a power source, such as outdoors.

更に、表示装置2は、バスライン210を備えている。バスライン210は、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The display device 2 further includes a bus line 210. The bus line 210 is an address bus, a data bus, etc., for electrically connecting each component such as the CPU 201 shown in FIG. 2.

なお、タッチセンサー216は、光学式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなど種々の検出手段を用いてもよい。タッチセンサー216は、ペン先のタッチの有無を検知するのに電子ペンが必要ない方式であってよい。この場合はタッチ操作をするのに指先やペン型の棒を使用できる。なお、ペン2500は、細長いペン型である必要はない。 The touch sensor 216 is not limited to an optical type, and may use various detection means such as a capacitive touch panel that identifies the contact position by detecting changes in capacitance, a resistive film touch panel that identifies the contact position by voltage changes in two opposing resistive films, or an electromagnetic induction touch panel that identifies the contact position by detecting electromagnetic induction caused by a contacting object touching the display unit. The touch sensor 216 may be of a type that does not require an electronic pen to detect whether or not the tip of the pen is touching. In this case, a fingertip or a pen-shaped stick can be used to perform the touch operation. The pen 2500 does not need to be a long, thin pen type.

図3は、ペンの斜視図の一例を示す図である。 Figure 3 shows an example of a perspective view of a pen.

電源を内蔵して表示装置2に命令を送信できるペン2500をアクティブペンという(電源を内蔵しないペンをパッシブペンという)。図3のペン2500は、物理的なスイッチがペン先に一つ、ペン尻に一つ、ペン側面に二つあり、ペン先が筆記用、ペン尻が消去用、ペン側面はユーザー機能割り当て用である。本実施形態のペン2500は不揮発性のメモリーを有しており、他のペンと重複しないペンIDを記憶している。 A pen 2500 that has a built-in power source and can send commands to the display device 2 is called an active pen (a pen that does not have a built-in power source is called a passive pen). The pen 2500 in FIG. 3 has one physical switch at the tip, one at the end, and two on the sides of the pen; the tip is for writing, the end is for erasing, and the sides are for assigning user functions. The pen 2500 of this embodiment has non-volatile memory and stores a pen ID that is unique to other pens.

なお、スイッチ付きのペンであれば、ユーザーの表示装置2の操作手順を減らすことも可能である。スイッチ付きのペンとは主にアクティブペンを言うが、電磁誘導方式では電源を内蔵しないパッシブペンでもLC回路だけで電力を発生できるため、アクティブペンだけでなく電磁誘導方式のパッシブペンを含む。電磁誘導方式以外の光学方式、赤外線方式、及び、静電容量方式のスイッチのあるペンはアクティブペンである。 If the pen has a switch, it is possible to reduce the number of steps the user must take to operate the display device 2. Although the term "pen with a switch" primarily refers to an active pen, the electromagnetic induction method includes passive pens that do not have a built-in power source but can generate power using only an LC circuit, and so includes not only active pens but also passive pens that use the electromagnetic induction method. Pens with switches that use optical, infrared, and capacitive methods other than the electromagnetic induction method are all active pens.

なお、ペン2500のハードウェア構成は、通信機能とマイコンを備えた一般的な制御方式と同様である。ペン2500の座標の入力方式には、電磁誘導方式、アクティブ静電結合方式などがある。また、ペン2500は、筆圧検知、傾き検知、ホバー機能(ペンが触れる前にカーソルを表示)、などの機能を有していてよい。 The hardware configuration of the pen 2500 is similar to that of a general control system equipped with a communication function and a microcomputer. The input method of the coordinates of the pen 2500 includes an electromagnetic induction method and an active electrostatic coupling method. The pen 2500 may also have functions such as pressure detection, tilt detection, and a hover function (displaying the cursor before the pen touches the screen).

図4は、第一の実施形態に係る表示装置の機能の一例を示す図である。 Figure 4 is a diagram showing an example of the functions of a display device according to the first embodiment.

表示装置2は、接触位置検出部21と、接触時間計測部22と、描画データ生成部23と、接触領域判定部24と、入力時刻間隔判定部25と、表示制御部26と、データ記録部27と、ネットワーク通信部28と、操作受付部29と、記憶部30と、を備える。 The display device 2 includes a contact position detection unit 21, a contact time measurement unit 22, a drawing data generation unit 23, a contact area determination unit 24, an input time interval determination unit 25, a display control unit 26, a data recording unit 27, a network communication unit 28, an operation reception unit 29, and a memory unit 30.

表示装置2が有する各機能は、図2に示されている各構成要素のいずれかが、SSD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能又は手段である。 Each function of the display device 2 is a function or means realized by any of the components shown in FIG. 2 operating in response to an instruction from the CPU 201 in accordance with a program loaded from the SSD 204 onto the RAM 203.

接触位置検出部21は、ペン2500が接触した位置の座標を検出する。接触位置検出部21は、タッチセンサーコントローラー215とタッチセンサー216により実現される。接触位置検出部21は、入力手段によって手書きデータの入力を受け付ける受付手段の一例である。 The contact position detection unit 21 detects the coordinates of the position where the pen 2500 makes contact. The contact position detection unit 21 is realized by a touch sensor controller 215 and a touch sensor 216. The contact position detection unit 21 is an example of a receiving means that receives input of handwritten data by an input means.

接触時間計測部22は、タッチセンサー216が光を検知している状態から検知できない状態になった時をスタート時点として、タッチセンサー216が再び光を検知する状態になるまでの時間、すなわち光が遮断された時間を計測する。これによって、接触時間計測部22は、ペン2500が接触している時間を計測する。接触時間計測部22は、CPU201、タッチセンサー216等により実現される。 The contact time measurement unit 22 starts measuring the time from when the touch sensor 216 goes from detecting light to not detecting light, and measures the time until the touch sensor 216 detects light again, that is, the time the light is blocked. In this way, the contact time measurement unit 22 measures the time that the pen 2500 is in contact. The contact time measurement unit 22 is realized by the CPU 201, the touch sensor 216, etc.

描画データ生成部23は、ペン2500のペン先が接触した座標を接触位置検出部21から短い時間間隔で複数回に亘って取得して、取得した複数の座標を補間することによって接続された画像を示描画データを生成する。すなわち、描画データ生成部23は、手書きデータに基づく画像を示す描画データを生成する。描画データ生成部23は、CPU201により実現される。 The drawing data generating unit 23 acquires the coordinates of contact with the tip of the pen 2500 from the contact position detecting unit 21 multiple times at short time intervals, and generates drawing data showing a connected image by interpolating the multiple acquired coordinates. In other words, the drawing data generating unit 23 generates drawing data showing an image based on handwritten data. The drawing data generating unit 23 is realized by the CPU 201.

接触領域判定部24は、入力手段の接触位置が、ディスプレー220に表示されている手書きデータに基づく画像の領域内であるか否かを判定する。手書きデータに基づく画像の領域とは、手書きデータに基づく画像が外接する矩形等の形状の内側の領域である。なお、画像が外接する形状は、矩形以外でも良く、例えば、楕円、多角形等の形状であっても良い。接触領域判定部24は、CPU201、タッチセンサー216等により実現される。 The contact area determination unit 24 determines whether or not the contact position of the input means is within the area of the image based on handwritten data displayed on the display 220. The area of the image based on handwritten data is the area inside a shape such as a rectangle circumscribing the image based on handwritten data. Note that the shape circumscribing the image may be other than a rectangle, and may be, for example, an ellipse, a polygon, or other shape. The contact area determination unit 24 is realized by the CPU 201, the touch sensor 216, etc.

入力時刻間隔判定部25は、接触領域判定部24が、手書きデータ(第2手書きデータ)に基づく画像の領域内であると判定された場合であって、接触時間計測部22が計測した時間(接触時間Ta)が、長押しの基準を示す時間(長押し基準時間T1)を超過している場合に、第2手書きデータより前に入力された手書きデータ(第1手書きデータ)が入力されてから、第2手書きデータが入力されるまでの時間(入力時刻間隔Tb)が、あらかじめ規定された時間(判定基準時間T2)を超過したか否かを判定する。入力時刻間隔判定部25は、CPU201により実現される。 When the contact area determination unit 24 determines that the contact is within the area of an image based on handwritten data (second handwritten data) and the time (contact time Ta) measured by the contact time measurement unit 22 exceeds the time indicating the standard for long press (long press standard time T1), the input time interval determination unit 25 determines whether the time (input time interval Tb) from when the handwritten data (first handwritten data) input before the second handwritten data was input to when the second handwritten data is input exceeds a predetermined time (determination standard time T2). The input time interval determination unit 25 is realized by the CPU 201.

表示制御部26は、手書きデータに基づく画像、ユーザーが操作するための操作メニューなどをディスプレー220に表示する。そして、表示制御部26は、入力時刻間隔判定部25によって入力時刻間隔Tbが判定基準時間T2を超過したと判定された第2手書きデータに基づく画像(第2画像)の表示態様を変更する。表示制御部26はCPU201、ディスプレーコントローラー213等により実現される。 The display control unit 26 displays an image based on the handwritten data, an operation menu for the user to operate, and the like on the display 220. The display control unit 26 then changes the display mode of an image (second image) based on the second handwritten data for which the input time interval Tb has been determined by the input time interval determination unit 25 to have exceeded the determination reference time T2. The display control unit 26 is realized by the CPU 201, the display controller 213, and the like.

接触時間計測部22、描画データ生成部23、接触領域判定部24、入力時刻間隔判定部25、表示制御部26等は、協働して、表示部に表示された第2手書きデータに基づく画像(第2画像)の表示態様を変更する制御手段として機能する。 The contact time measurement unit 22, drawing data generation unit 23, contact area determination unit 24, input time interval determination unit 25, display control unit 26, etc. work together to function as a control means for changing the display mode of an image (second image) based on the second handwritten data displayed on the display unit.

データ記録部27は、表示装置2に手書きされた手書きデータ、変換された文字列、校正履歴(後述する画像データ)、及び、PCの画面、ファイル等を記憶部30に記録する。データ記録部27はCPU201により実現される。 The data recording unit 27 records handwritten data handwritten on the display device 2, converted character strings, proofreading history (image data described later), and the PC screen, files, etc. in the memory unit 30. The data recording unit 27 is realized by the CPU 201.

ネットワーク通信部28は、LAN(Local Area Network)等のネットワークに接続して、他の機器とネットワークを介したデータの送受信を行う。ネットワーク通信部28は無線通信装置222により実現される。 The network communication unit 28 connects to a network such as a LAN (Local Area Network) and transmits and receives data to and from other devices via the network. The network communication unit 28 is realized by the wireless communication device 222.

操作受付部29は、ディスプレー220に表示された操作用のボタン等に対するペン2500等の入力手段による操作を受け付ける。 The operation reception unit 29 receives operations using an input means such as a pen 2500 on operation buttons and the like displayed on the display 220.

記憶部30は、SSD204やRAM203などに構築され、データ記録部27が記録する上記の情報を記憶する。具体的には、記憶部30は、判定基準情報90と、表示態様設定情報91と、を記憶する。 The storage unit 30 is constructed in the SSD 204, the RAM 203, or the like, and stores the above information recorded by the data recording unit 27. Specifically, the storage unit 30 stores the judgment criteria information 90 and the display mode setting information 91.

判定基準情報90は、入力時刻間隔判定部25による判定の基準となる情報である。具体的には、判定基準情報90は長押し基準時間T1、判定基準時間T2等を示す情報を含む。 The judgment criteria information 90 is information that serves as the criterion for judgment by the input time interval judgment unit 25. Specifically, the judgment criteria information 90 includes information indicating the long press reference time T1, the judgment reference time T2, etc.

表示態様設定情報91は、第2画像の変更後の表示態様の設定を示す情報である。表示態様とは、色、線の太さ等の表示の態様である。第2手書きデータが文字を示すデータとして認識されている場合には、第2画像の表示態様は、フォント、斜体、太字等の文字の書式であっても良い。表示態様設定情報91は、ユーザーの操作によって、変更可能となっていても良い。また、表示態様設定情報91は、変更前の色が黒、変更後の色が赤などのように、変更前と後の表示態様がともに設定されていても良く、また、変更前の色が黒の場合は変更後の色が赤で、変更前の色がグレーの場合は変更後の色が黒といったように、変更前の表示態様ごとに変更後の表示態様が設定されていても良い。 The display mode setting information 91 is information indicating the setting of the display mode after the change of the second image. The display mode is a display mode such as color, line thickness, etc. When the second handwritten data is recognized as data indicating characters, the display mode of the second image may be a character format such as font, italics, bold, etc. The display mode setting information 91 may be changeable by a user operation. In addition, the display mode setting information 91 may set both the display modes before and after the change, such as the color before the change being black and the color after the change being red, or the display mode after the change may be set for each display mode before the change, such as the color after the change being red when the color before the change is black, and the color after the change being black when the color before the change is gray.

次に、本実施形態に係る表示装置の動作について説明する。 Next, we will explain the operation of the display device according to this embodiment.

図5は、第一の実施形態に係る表示態様変更処理のフローの一例を示す図である。 Figure 5 shows an example of the flow of the display mode change process according to the first embodiment.

表示装置2は、ユーザーからのペン2500等の操作を受けて、手書きデータ(第1手書きデータ)の入力を受け付ける(ステップS101)。具体的には、接触位置検出部21が、ペン2500等の接触位置を検出する。 The display device 2 receives input of handwritten data (first handwritten data) in response to an operation of the pen 2500 or the like by the user (step S101). Specifically, the contact position detection unit 21 detects the contact position of the pen 2500 or the like.

次に、表示装置2は、第1手書きデータに基づく画像(第1画像)を表示する(ステップS102)。具体的には、描画データ生成部23が、ステップS101で検出された接触位置に沿った描画データ(第1手書きデータ)を生成する。そして、表示制御部26は、ディスプレー220に第1画像を表示させる。 Next, the display device 2 displays an image (first image) based on the first handwritten data (step S102). Specifically, the drawing data generating unit 23 generates drawing data (first handwritten data) along the contact position detected in step S101. Then, the display control unit 26 causes the display 220 to display the first image.

続いて、入力時刻間隔判定部25は、判定に使用する入力時刻間隔Tbを取得するために、タイマーをスタートする(ステップS103)。 Then, the input time interval determination unit 25 starts a timer to obtain the input time interval Tb to be used for the determination (step S103).

続いて、表示装置2は、ユーザーからのペン2500等の操作を受けて、手書きデータ(第2手書きデータ)の入力を受け付ける(ステップS104)。具体的には、接触位置検出部21が、ペン2500等の接触位置を検出する。 Next, the display device 2 receives input of handwritten data (second handwritten data) in response to an operation of the pen 2500 or the like by the user (step S104). Specifically, the contact position detection unit 21 detects the contact position of the pen 2500 or the like.

そして、入力時刻間隔判定部25は、タイマーをストップし、入力時刻間隔TbをRAM203に保存する(ステップS105)。入力時刻間隔Tbは、タイマーがスタートしてからストップするまでの経過時間によって算出される。 Then, the input time interval determination unit 25 stops the timer and stores the input time interval Tb in the RAM 203 (step S105). The input time interval Tb is calculated based on the elapsed time from when the timer starts to when it stops.

次に、表示装置2は、第2手書きデータに基づく画像(第2画像)を表示する(ステップS106)。具体的には、描画データ生成部23が、ステップS103で検出された接触位置に沿った描画データ(第2手書きデータ)を生成する。そして、表示制御部26は、ディスプレー220に第2画像を表示させる。 Next, the display device 2 displays an image (second image) based on the second handwritten data (step S106). Specifically, the drawing data generating unit 23 generates drawing data (second handwritten data) along the contact position detected in step S103. Then, the display control unit 26 causes the display 220 to display the second image.

次に、表示装置2は、ペン2500等による第2画像への接触を検知する(ステップS107)。具体的には、接触位置検出部21が、ディスプレー220におけるペン2500等の接触された位置を検出し、接触領域判定部24が、接触された位置が第2画像の領域内であると判定すると、表示装置2は、ペン2500等による第2画像への接触を検知したものとする。 Next, the display device 2 detects contact with the second image by the pen 2500 or the like (step S107). Specifically, when the contact position detection unit 21 detects the position on the display 220 that is contacted by the pen 2500 or the like, and the contact area determination unit 24 determines that the contact position is within the area of the second image, the display device 2 is deemed to have detected contact with the second image by the pen 2500 or the like.

次に、表示装置2の接触時間計測部22は、ペン2500等による第2画像への接触時間Taを測定する(ステップS108)。そして、表示装置2は、接触時間Taが長押し基準時間T1を超過したか否かを判定する(ステップS109)。 Next, the contact time measurement unit 22 of the display device 2 measures the contact time Ta of the pen 2500 or the like on the second image (step S108). Then, the display device 2 determines whether the contact time Ta exceeds the long press reference time T1 (step S109).

表示装置2は、接触時間Taが長押し基準時間T1を超過していないと判定すると(ステップS109:No)、ステップS106の処理に戻り、接触時間Taの測定を続ける。そして、表示装置2が、接触時間Taが長押し基準時間T1を超過したと判定すると(ステップS109:Yes)、入力時刻間隔判定部25は、入力時刻間隔Tbが判定基準時間T2を超過したか否かを判定する(ステップS110)。 When the display device 2 determines that the contact time Ta has not exceeded the long press reference time T1 (step S109: No), the process returns to step S106 and continues to measure the contact time Ta. When the display device 2 determines that the contact time Ta has exceeded the long press reference time T1 (step S109: Yes), the input time interval determination unit 25 determines whether the input time interval Tb has exceeded the determination reference time T2 (step S110).

入力時刻間隔判定部25が、入力時刻間隔Tbが判定基準時間T2を超過したと判定すると(ステップS110:Yes)、表示制御部26は、第2画像の表示態様を変更する(ステップS111)。この場合、第1手書きデータおよび第2手書きデータが時間の間隔を空けて入力されたため、区別することができるためである。なお、変更後の表示態様は、表示態様設定情報91に基づいて決定される。 When the input time interval determination unit 25 determines that the input time interval Tb has exceeded the determination reference time T2 (step S110: Yes), the display control unit 26 changes the display mode of the second image (step S111). In this case, the first handwritten data and the second handwritten data are input with a time interval between them, and therefore can be distinguished from each other. The display mode after the change is determined based on the display mode setting information 91.

また、入力時刻間隔判定部25が、入力時刻間隔Tbが判定基準時間T2を超過しなかったと判定すると(ステップS110:No)、表示制御部26は、第1画像および第2画像の表示態様を変更する(ステップS112)。この場合、第1手書きデータおよび第2手書きデータが時間的に短い間隔で入力されたため、区別することができないためである。 When the input time interval determination unit 25 determines that the input time interval Tb has not exceeded the determination reference time T2 (step S110: No), the display control unit 26 changes the display mode of the first image and the second image (step S112). In this case, the first handwritten data and the second handwritten data are input at a short time interval and therefore cannot be distinguished from each other.

図6は、第一の実施形態に係る表示態様変更処理の結果を説明するための図である。 Figure 6 is a diagram illustrating the results of the display mode change process according to the first embodiment.

表示態様変更処理の開始時点において、一例として、図6(a)に示すように、ディスプレー220に表示された画面300に手書きデータに基づく画像が含まれている。そして、表示態様変更処理のステップS101およびステップS102が実行されると、図6(b)に示すように、第1手書きデータに基づく第1画像301が画面300に表示される。 At the start of the display mode change process, as an example, as shown in FIG. 6(a), screen 300 displayed on display 220 includes an image based on handwritten data. Then, when steps S101 and S102 of the display mode change process are executed, a first image 301 based on the first handwritten data is displayed on screen 300, as shown in FIG. 6(b).

続いて、表示態様変更処理のステップS103からステップS106までが実行されると、図6(c)に示すように、第2手書きデータに基づく第2画像302が画面300に表示される。 Next, when steps S103 to S106 of the display mode change process are executed, a second image 302 based on the second handwritten data is displayed on the screen 300, as shown in FIG. 6(c).

そして、図6(d)に示すように、表示態様変更処理のステップS107において、接触領域判定部24は、ペン2500等の接触位置303が第2画像302の領域内であると判定し、表示態様変更処理のステップS108およびステップS109において、接触時間計測部22が計測した接触時間Taが長押し基準時間T1を超過していると判定される。 Then, as shown in FIG. 6(d), in step S107 of the display mode change process, the contact area determination unit 24 determines that the contact position 303 of the pen 2500 or the like is within the area of the second image 302, and in steps S108 and S109 of the display mode change process, it is determined that the contact time Ta measured by the contact time measurement unit 22 exceeds the long press reference time T1.

そして、表示態様変更処理のステップS110において、入力時刻間隔判定部25が、第1手書きデータおよび第2手書きデータの入力時刻間隔Tbが判定基準時間T2を超過したと判定すると、表示態様変更処理のステップS111において、表示制御部26は、図6(e)に示すように、第2画像302の表示態様を変更する。 Then, in step S110 of the display mode change process, if the input time interval determination unit 25 determines that the input time interval Tb between the first handwritten data and the second handwritten data exceeds the determination reference time T2, in step S111 of the display mode change process, the display control unit 26 changes the display mode of the second image 302 as shown in FIG. 6(e).

本実施形態に係る表示装置2によれば、第1手書きデータおよび第2手書きデータの入力された時刻に基づいて、第1手書きデータと第2手書きデータとを判別して、第2画像302の表示態様を変更することができる。 The display device 2 according to this embodiment can distinguish between the first handwritten data and the second handwritten data based on the time at which the first handwritten data and the second handwritten data are input, and can change the display mode of the second image 302.

これによって、例えば、図6(e)に示すように、表示された位置が重なっている場合や、非常に近接している場合であっても、第2画像302の表示態様のみを変更することができる。 This allows only the display mode of the second image 302 to be changed, even if the displayed positions overlap or are very close to each other, as shown in FIG. 6(e), for example.

第1手書きデータが入力されてから第2手書きデータが入力されるまでの時間が所定の時間以上であること又は所定の時間を超過したという条件は、複数の手書きデータを区別するための所定の条件の一例である。 The condition that the time between input of the first handwritten data and input of the second handwritten data is equal to or exceeds a predetermined time is an example of a predetermined condition for distinguishing between multiple handwritten data.

本実施形態において、第2手書きデータに対する所定の操作として、第2画像302の領域内をペン2500等により長押しする操作が規定されている例を示した。しかし、本発明の範囲はこれに限られず、あらかじめ規定された操作であれば、長押しでなくても良い。例えば、ダブルタップ、トリプルタップ等の操作であっても良い。 In this embodiment, an example has been shown in which a predetermined operation for the second handwritten data is defined as a long press operation with the pen 2500 or the like within the area of the second image 302. However, the scope of the present invention is not limited to this, and any operation that is defined in advance does not have to be a long press. For example, an operation such as a double tap or triple tap may also be used.

本実施形態において、接触時間Taが長押し基準時間T1を超過しているか否かの判定は、接触時間Taが長押し基準時間T1以上であるか否かの判定であっても良い。同様に、入力時刻間隔Tbが判定基準時間T2を超過したか否かの判定は、入力時刻間隔Tbが判定基準時間T2以上であるか否かの判定であっても良い。 In this embodiment, the determination of whether the contact time Ta exceeds the long press reference time T1 may be a determination of whether the contact time Ta is equal to or greater than the long press reference time T1. Similarly, the determination of whether the input time interval Tb exceeds the judgment reference time T2 may be a determination of whether the input time interval Tb is equal to or greater than the judgment reference time T2.

(第二の実施形態)
以下に図面を参照して、第二の実施形態について説明する。第二の実施形態は、第1手書きデータおよび第2手書きデータの入力された位置が所定の位置関係であるか否かを判定する点が、第一の実施形態と相違する。よって、以下の第二の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
Second Embodiment
The second embodiment will be described below with reference to the drawings. The second embodiment differs from the first embodiment in that it is determined whether the positions at which the first handwritten data and the second handwritten data are input are in a predetermined positional relationship. Therefore, in the following description of the second embodiment, only the differences from the first embodiment will be described, and the same reference numerals as those used in the description of the first embodiment will be given to components having the same functional configuration as the first embodiment, and the description thereof will be omitted.

図7は、第二の実施形態に係る表示装置の機能の一例を示す図である。 Figure 7 is a diagram showing an example of the functions of a display device according to the second embodiment.

本実施形態に係る表示装置2は、第一の実施形態に係る入力時刻間隔判定部25の代わりに、位置関係判定部31をさらに備える。 The display device 2 according to this embodiment further includes a positional relationship determination unit 31 instead of the input time interval determination unit 25 according to the first embodiment.

位置関係判定部31は、第1手書きデータが入力された位置と第2手書きデータが入力された位置とが、所定の位置関係であるか否かを判定する。具体的には、位置関係判定部31は、それぞれの手書きデータが入力された位置を、手書きデータに含まれる座標に基づいて特定する。例えば、位置関係判定部31は、手書きデータに含まれるすべてのX座標の平均値と、Y座標の平均値とを算出して、算出されたX座標の平均値とY座標の平均値とによって示される位置を手書きデータが入力された位置とする。なお、以下の説明では、ディスプレー220の上方向をY軸正方向、右方向をX軸正方向とする。 The positional relationship determination unit 31 determines whether or not the position where the first handwritten data is input and the position where the second handwritten data is input have a predetermined positional relationship. Specifically, the positional relationship determination unit 31 identifies the position where each piece of handwritten data is input based on the coordinates included in the handwritten data. For example, the positional relationship determination unit 31 calculates the average value of all X coordinates and the average value of Y coordinates included in the handwritten data, and determines the position indicated by the calculated average value of X coordinates and average value of Y coordinates as the position where the handwritten data was input. Note that in the following description, the upward direction of the display 220 is the Y-axis positive direction, and the rightward direction is the X-axis positive direction.

また、本実施形態に係る判定基準情報90は、第1手書きデータが入力された位置と第2手書きデータが入力された位置とが所定の位置関係であるか否かを、位置関係判定部31が判定するための基準となる情報である。 The judgment criteria information 90 according to this embodiment is information that serves as a criterion for the positional relationship judgment unit 31 to judge whether or not the position where the first handwritten data is input and the position where the second handwritten data is input are in a predetermined positional relationship.

判定基準情報90は、例えば、第2手書きデータの入力された位置が、第1手書きデータの入力された位置の下方であるという位置関係を示す情報である。具体的には、判定基準情報90は、第2手書きデータに含まれるY座標の平均値が、第1手書きデータに含まれるY座標の平均値よりも小さいという位置関係を示す情報であっても良い。 The judgment criteria information 90 is, for example, information indicating a positional relationship in which the position where the second handwritten data is input is below the position where the first handwritten data is input. Specifically, the judgment criteria information 90 may be information indicating a positional relationship in which the average value of the Y coordinate included in the second handwritten data is smaller than the average value of the Y coordinate included in the first handwritten data.

次に、本実施形態に係る表示装置2の動作について説明する。 Next, the operation of the display device 2 according to this embodiment will be described.

図8は、第二の実施形態に係る表示態様変更処理のフローの一例を示す図である。 Figure 8 shows an example of the flow of the display mode change process according to the second embodiment.

本実施形態に係る表示態様変更処理のステップS201からステップS207までは、第一の実施形態に係る表示態様変更処理のステップS101-S102、ステップS104およびステップS106-ステップS109までと同様である。ステップS207の処理に続いて、位置関係判定部31は、第1手書きデータが入力された位置と第2手書きデータが入力された位置とが所定の位置関係であるか否かを判定する(ステップS208)。 Steps S201 to S207 of the display mode change process according to this embodiment are similar to steps S101-S102, step S104, and steps S106-S109 of the display mode change process according to the first embodiment. Following the process of step S207, the positional relationship determination unit 31 determines whether or not the position where the first handwritten data was input and the position where the second handwritten data was input have a predetermined positional relationship (step S208).

そして、位置関係判定部31が、所定の位置関係であると判定すると(ステップS208:Yes)、表示制御部26は、第2画像の表示態様を変更する(ステップS209)。 Then, when the positional relationship determination unit 31 determines that the predetermined positional relationship is met (step S208: Yes), the display control unit 26 changes the display mode of the second image (step S209).

また、位置関係判定部31が、所定の位置関係でないと判定すると(ステップS208:No)、表示制御部26は、第1画像および第2画像の表示態様を変更する(ステップS210)。 If the positional relationship determination unit 31 determines that the predetermined positional relationship is not met (step S208: No), the display control unit 26 changes the display mode of the first image and the second image (step S210).

図9は、第二の実施形態に係る表示態様変更処理の結果を説明するための図である。 Figure 9 is a diagram illustrating the results of the display mode change process according to the second embodiment.

表示態様変更処理の開始時点において、一例として、図9(a)に示すように、ディスプレー220に表示された画面300に手書きデータに基づく画像が含まれている。そして、表示態様変更処理のステップS201およびステップS202が実行されると、図9(b)に示すように、第1手書きデータに基づく第1画像301が画面300に表示される。 At the start of the display mode change process, as shown in FIG. 9(a), for example, screen 300 displayed on display 220 includes an image based on handwritten data. Then, when steps S201 and S202 of the display mode change process are executed, a first image 301 based on the first handwritten data is displayed on screen 300, as shown in FIG. 9(b).

続いて、表示態様変更処理のステップS203およびステップS204が実行されると、第2手書きデータに基づく第2画像302が画面300に表示される。そして、表示態様変更処理のステップS105において、接触領域判定部24は、ペン2500等の接触位置303が第2画像302の領域内であると判定し、表示態様変更処理のステップS206およびステップS207において、接触時間計測部22が計測した接触時間Taが長押し基準時間T1を超過していると判定される。 Next, when steps S203 and S204 of the display mode change process are executed, a second image 302 based on the second handwritten data is displayed on the screen 300. Then, in step S105 of the display mode change process, the contact area determination unit 24 determines that the contact position 303 of the pen 2500 or the like is within the area of the second image 302, and in steps S206 and S207 of the display mode change process, it is determined that the contact time Ta measured by the contact time measurement unit 22 exceeds the long press reference time T1.

そして、表示態様変更処理のステップS208において、位置関係判定部31が、第1手書きデータが入力された位置と第2手書きデータが入力された位置とが所定の位置関係であると判定すると、表示態様変更処理のステップS209において、表示制御部26は、図9(c)に示すように、第2画像302の表示態様を変更する。 Then, in step S208 of the display mode change process, if the positional relationship determination unit 31 determines that the position where the first handwritten data was input and the position where the second handwritten data was input have a predetermined positional relationship, in step S209 of the display mode change process, the display control unit 26 changes the display mode of the second image 302 as shown in FIG. 9(c).

本実施形態に係る表示装置2によれば、第1手書きデータが入力された位置と第2手書きデータが入力された位置との位置関係に基づいて、第1手書きデータと第2手書きデータとを判別して、第2画像302の表示態様を変更することができる。これによって、例えば、第1手書きデータおよび第2手書きデータの入力された時刻が近い場合であっても、位置関係によっては、第2画像302の表示態様のみを変更することができる。 The display device 2 according to this embodiment can distinguish between the first handwritten data and the second handwritten data based on the positional relationship between the position where the first handwritten data is input and the position where the second handwritten data is input, and can change the display mode of the second image 302. This makes it possible to change only the display mode of the second image 302 depending on the positional relationship, even if the first handwritten data and the second handwritten data are input close to each other.

また、判定基準情報90は、第2手書きデータの入力された位置が、第1手書きデータの入力された位置の下方であるという位置関係を規定している場合、例えば、図9(c)に示すように、横書きの文字列を示す手書きデータが入力された場合には、文字列ごとに表示態様を変更することができる。 In addition, when the judgment criteria information 90 specifies a positional relationship in which the position where the second handwritten data is input is below the position where the first handwritten data is input, for example, when handwritten data indicating a horizontal character string is input as shown in FIG. 9(c), the display mode can be changed for each character string.

なお、第2手書きデータの入力された位置が、第1手書きデータの入力された位置の下方であるという位置関係は、上述した具体例以外の関係であっても良い。例えば、判定基準情報90は、第2手書きデータに含まれるストロークデータのすべてのY座標が、第1手書きデータに含まれるストロークデータのどのY座標よりも小さいという位置関係を示す情報であっても良い。 Note that the positional relationship in which the position where the second handwritten data is input is below the position where the first handwritten data is input may be a relationship other than the specific example described above. For example, the judgment criterion information 90 may be information indicating a positional relationship in which all Y coordinates of the stroke data included in the second handwritten data are smaller than any Y coordinate of the stroke data included in the first handwritten data.

第1手書きデータが入力された位置と第2手書きデータが入力された位置とが所定の位置関係であるという条件は、複数の手書きデータを区別するための所定の条件の一例である。 The condition that the position where the first handwritten data is input and the position where the second handwritten data is input have a predetermined positional relationship is an example of a predetermined condition for distinguishing between multiple handwritten data.

また、所定の位置関係は、他でも良い。例えば、所定の位置関係は、第2手書きデータの入力された位置が、第1手書きデータの入力された位置の左方であるという位置関係であっても良い。そのようにすれば、縦書きの文字列を示す手書きデータが入力された場合には、文字列ごとに表示態様を変更することができる。 The predetermined positional relationship may also be something else. For example, the predetermined positional relationship may be a positional relationship in which the position where the second handwritten data is input is to the left of the position where the first handwritten data is input. In this way, when handwritten data indicating a vertically written character string is input, the display mode can be changed for each character string.

また、所定の位置関係は、第1手書きデータの入力された位置を示す座標点と第2手書きデータの入力された位置を示す座標点との間の距離dtが、所定の長さを超過しているという位置関係であっても良い。 The specified positional relationship may also be a positional relationship in which the distance dt between the coordinate point indicating the position where the first handwritten data was input and the coordinate point indicating the position where the second handwritten data was input exceeds a specified length.

具体的には、距離dtは、第2手書きデータに含まれるストロークデータのすべての座標点と、第1手書きデータに含まれるストロークデータのすべての座標点との間の距離のうち、最小の距離である。 Specifically, the distance dt is the smallest distance among the distances between all the coordinate points of the stroke data included in the second handwritten data and all the coordinate points of the stroke data included in the first handwritten data.

この場合、第1手書きデータの入力された位置を示す座標点は、第1手書きデータに含まれるストロークデータのすべての座標点のうち、第2手書きデータのすべての座標点に最も近い座標点である。 In this case, the coordinate point indicating the input position of the first handwritten data is the coordinate point, among all the coordinate points of the stroke data contained in the first handwritten data, that is closest to all the coordinate points of the second handwritten data.

同様に、第2手書きデータの入力された位置を示す座標点は、第2手書きデータに含まれるストロークデータのすべての座標点のうち、第1手書きデータのすべての座標点に最も近い座標点である。 Similarly, the coordinate point indicating the input position of the second handwritten data is the coordinate point, among all the coordinate points of the stroke data contained in the second handwritten data, that is closest to all the coordinate points of the first handwritten data.

図10は、第二の実施形態の変形例に係る表示態様変更処理の結果を説明するための図である。 Figure 10 is a diagram illustrating the results of the display mode change process according to a modified example of the second embodiment.

表示態様変更処理の開始時点において、一例として、図10(a)に示すように、ディスプレー220に表示された画面300に手書きデータに基づく画像が含まれている。そして、表示態様変更処理のステップS201およびステップS202が実行されると、第1手書きデータに基づく第1画像301が画面300に表示される。 At the start of the display mode change process, as shown in FIG. 10(a), for example, screen 300 displayed on display 220 includes an image based on handwritten data. Then, when steps S201 and S202 of the display mode change process are executed, a first image 301 based on the first handwritten data is displayed on screen 300.

続いて、表示態様変更処理のステップS203およびステップS204が実行されると、図10(b)に示すように、第2手書きデータに基づく第2画像302が画面300に表示される。そして、表示態様変更処理のステップS205において、接触領域判定部24は、ペン2500等の接触位置303が第2画像302の領域内であると判定し、表示態様変更処理のステップS206およびステップS207において、接触時間計測部22が計測した接触時間Taが長押し基準時間T1を超過していると判定される。 Next, when steps S203 and S204 of the display mode change process are executed, a second image 302 based on the second handwritten data is displayed on the screen 300 as shown in FIG. 10(b). Then, in step S205 of the display mode change process, the contact area determination unit 24 determines that the contact position 303 of the pen 2500 or the like is within the area of the second image 302, and in steps S206 and S207 of the display mode change process, it is determined that the contact time Ta measured by the contact time measurement unit 22 exceeds the long press reference time T1.

そして、表示態様変更処理のステップS208において、位置関係判定部31が、第1手書きデータが入力された位置と第2手書きデータが入力された位置が所定の位置関係であると判定すると、表示態様変更処理のステップS209において、表示制御部26は、図10(c)に示すように、第2画像302の表示態様を変更する。 Then, in step S208 of the display mode change process, if the positional relationship determination unit 31 determines that the position where the first handwritten data was input and the position where the second handwritten data was input have a predetermined positional relationship, in step S209 of the display mode change process, the display control unit 26 changes the display mode of the second image 302 as shown in FIG. 10(c).

本変形例に係る表示装置2によれば、第1手書きデータが入力された位置を示す座標点と第2手書きデータの入力された位置を示す座標点との間の距離dtが、所定の長さを超過したか否かに基づいて、第1手書きデータと第2手書きデータとを判別して、第2画像302の表示態様を変更することができる。 The display device 2 according to this modified example can distinguish between the first handwritten data and the second handwritten data based on whether the distance dt between the coordinate point indicating the position where the first handwritten data was input and the coordinate point indicating the position where the second handwritten data was input exceeds a predetermined length, and can change the display mode of the second image 302.

これによって、例えば、図10(c)に示すように、離れた位置に入力された複数の手書きデータを判別して、第2画像302の表示態様を変更することができる。 This allows, for example, multiple pieces of handwritten data input at separate locations to be distinguished and the display mode of the second image 302 to be changed, as shown in FIG. 10(c).

距離dtは、第2手書きデータに含まれるストロークデータの座標の平均値を示す座標点と、第1手書きデータに含まれるストロークデータの座標の平均値を示す座標点との間の距離としても良い。 The distance dt may be the distance between a coordinate point indicating the average value of the coordinates of the stroke data included in the second handwritten data and a coordinate point indicating the average value of the coordinates of the stroke data included in the first handwritten data.

本実施形態において、距離dtが所定の長さを超過したか否かの判定は、距離dtが所定の長さ以上であるか否かの判定であっても良い。 In this embodiment, the determination of whether the distance dt exceeds a predetermined length may be a determination of whether the distance dt is equal to or greater than the predetermined length.

本実施形態において、位置関係判定部31は、第1手書きデータの入力された位置および第2手書きデータの入力された位置を、ストロークデータに含まれる座標に基づき決定するものとしたが、これに限定されない。第1手書きデータの入力された位置および第2手書きデータの入力された位置は、ディスプレーにおいて第1画像が描画された位置と、第2画像が描画された位置と、に基づいて決定しても良い。位置関係判定部31が処理するタイミングでは、第1画像および第2画像がすでに表示されているため、描画された位置を示すデータは、RAM203等に格納されている。 In this embodiment, the positional relationship determination unit 31 determines the input position of the first handwritten data and the input position of the second handwritten data based on the coordinates included in the stroke data, but this is not limited to this. The input position of the first handwritten data and the input position of the second handwritten data may be determined based on the position where the first image is drawn on the display and the position where the second image is drawn. At the time when the positional relationship determination unit 31 performs processing, the first image and the second image are already displayed, so data indicating the drawn positions is stored in the RAM 203, etc.

(第三の実施形態)
以下に図面を参照して、第三の実施形態について説明する。第三の実施形態は、第1手書きデータ、第2手書きデータおよび他の手書きデータの入力順序に基づいて所定の条件を満たすか否かをさらに判定する点が、第二の実施形態と相違する。よって、以下の第三の実施形態の説明では、第二の実施形態との相違点についてのみ説明し、第二の実施形態と同様の機能構成を有するものには、第二の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
Third Embodiment
The third embodiment will be described below with reference to the drawings. The third embodiment is different from the second embodiment in that it further determines whether a predetermined condition is satisfied based on the input order of the first handwritten data, the second handwritten data, and the other handwritten data. Therefore, in the following description of the third embodiment, only the differences from the second embodiment will be described, and the same reference numerals as those used in the description of the second embodiment will be given to components having the same functional configuration as the second embodiment, and the description thereof will be omitted.

図11は、第三の実施形態に係る表示装置の機能の一例を示す図である。 Figure 11 is a diagram showing an example of the functions of a display device according to the third embodiment.

本実施形態に係る表示装置2は、入力順序判定部32をさらに備える。 The display device 2 according to this embodiment further includes an input order determination unit 32.

入力順序判定部32は、第1手書きデータの入力後であって、第2手書きデータの入力前に、他の手書きデータ(第3手書きデータ)が入力されたか否かを判定する。 The input order determination unit 32 determines whether other handwritten data (third handwritten data) has been input after the first handwritten data has been input and before the second handwritten data has been input.

また、本実施形態に係る判定基準情報90は、第1手書きデータの入力後であって、第2手書きデータの入力前に、第3手書きデータが入力されたか否かを入力順序判定部32が判定するための基準となる情報である。 In addition, the judgment criteria information 90 according to this embodiment is information that serves as a criterion for the input order judgment unit 32 to judge whether or not the third handwritten data has been input after the first handwritten data has been input and before the second handwritten data has been input.

次に、本実施形態に係る表示装置2の動作について説明する。 Next, the operation of the display device 2 according to this embodiment will be described.

図12は、第三の実施形態に係る表示態様変更処理のフローの一例を示す図である。 Figure 12 is a diagram showing an example of the flow of the display mode change process according to the third embodiment.

本実施形態に係る表示態様変更処理のステップS301およびステップS302は、第二の実施形態に係る表示態様変更処理のステップS201およびステップS202と同様である。ステップS302の処理に続いて、表示装置2は、第3手書きデータが入力されたか否かを判定する(ステップS303)。 Steps S301 and S302 of the display mode change process according to this embodiment are similar to steps S201 and S202 of the display mode change process according to the second embodiment. Following the process of step S302, the display device 2 determines whether or not third handwritten data has been input (step S303).

表示装置2は、第3手書きデータが入力されたと判定すると(ステップS303:Yes)、第3手書きデータの入力を受け付ける(ステップS304)。そして、表示装置2は、第3手書きデータに基づく画像(第3画像)を表示する(ステップS305)。 When the display device 2 determines that the third handwritten data has been input (step S303: Yes), it accepts the input of the third handwritten data (step S304). Then, the display device 2 displays an image (third image) based on the third handwritten data (step S305).

また、表示装置2は、第3手書きデータが入力されていないと判定すると(ステップS303:No)、ステップS304およびステップS305の処理をスキップする。 If the display device 2 determines that the third handwritten data has not been input (step S303: No), it skips the processing of steps S304 and S305.

続く、ステップS306からステップS309までの処理は、第二の実施形態に係る表示態様変更処理のステップS203からステップS207までと同様である。 The subsequent processing from step S306 to step S309 is similar to step S203 to step S207 of the display mode change processing according to the second embodiment.

ステップS309の処理に続いて、入力順序判定部32は、第1手書きデータの入力後であって、第2手書きデータの入力前に、第3手書きデータが入力されたか否かを判定する(ステップS311)。 Following the processing of step S309, the input order determination unit 32 determines whether or not the third handwritten data has been input after the first handwritten data has been input and before the second handwritten data has been input (step S311).

そして、入力順序判定部32が、第3手書きデータが入力されたと判定すると(ステップS311:Yes)、位置関係判定部31は、第3手書きデータが入力された位置と第2手書きデータが入力された位置とが所定の位置関係であるか否かを判定する(ステップS312)。 When the input order determination unit 32 determines that the third handwritten data has been input (step S311: Yes), the positional relationship determination unit 31 determines whether or not the position where the third handwritten data was input and the position where the second handwritten data was input have a predetermined positional relationship (step S312).

そして、位置関係判定部31が、所定の位置関係であると判定すると(ステップS312:Yes)、表示制御部26は、第2画像の表示態様を変更する(ステップS315)。 Then, when the positional relationship determination unit 31 determines that the predetermined positional relationship is met (step S312: Yes), the display control unit 26 changes the display mode of the second image (step S315).

また、位置関係判定部31が、所定の位置関係でないと判定すると(ステップS312:No)、第2画像および第3画像の表示態様を変更する(ステップS314)。 If the positional relationship determination unit 31 determines that the predetermined positional relationship is not met (step S312: No), the display mode of the second image and the third image is changed (step S314).

また、入力順序判定部32が、第3手書きデータが入力されていないと判定すると(ステップS311:No)、位置関係判定部31は、第1手書きデータが入力された位置と第2手書きデータが入力された位置とが所定の位置関係であるか否かを判定する(ステップS313)。 In addition, if the input order determination unit 32 determines that the third handwritten data has not been input (step S311: No), the positional relationship determination unit 31 determines whether or not the position where the first handwritten data is input and the position where the second handwritten data is input have a predetermined positional relationship (step S313).

そして、位置関係判定部31が、所定の位置関係であると判定すると(ステップS313:Yes)、表示制御部26は、第2画像の表示態様を変更する(ステップS315)。 Then, when the positional relationship determination unit 31 determines that the predetermined positional relationship is met (step S313: Yes), the display control unit 26 changes the display mode of the second image (step S315).

また、位置関係判定部31が、所定の位置関係でないと判定すると(ステップS313:No)、表示制御部26は、第1画像および第2画像の表示態様を変更する(ステップS316)。 If the positional relationship determination unit 31 determines that the predetermined positional relationship is not met (step S313: No), the display control unit 26 changes the display mode of the first image and the second image (step S316).

図13は、第三の実施形態に係る表示態様変更処理の結果を説明するための図である。 Figure 13 is a diagram illustrating the results of the display mode change process according to the third embodiment.

表示態様変更処理の開始時点において、一例として、図13(a)に示すように、ディスプレー220に表示された画面300に手書きデータに基づく画像が含まれている。そして、表示態様変更処理のステップS301およびステップS302が実行されると、第1手書きデータに基づく第1画像301が画面300に表示される。 At the start of the display mode change process, as shown in FIG. 13(a), for example, screen 300 displayed on display 220 includes an image based on handwritten data. Then, when steps S301 and S302 of the display mode change process are executed, a first image 301 based on the first handwritten data is displayed on screen 300.

続いて、表示態様変更処理のステップS303からステップS305までが実行されると、第3手書きデータに基づく第3画像304が画面300に表示され、表示態様変更処理のステップS306およびステップS307が実行されると、第2手書きデータに基づく第2画像302が画面300に表示される。 Next, when steps S303 to S305 of the display mode change process are executed, a third image 304 based on the third handwritten data is displayed on the screen 300, and when steps S306 and S307 of the display mode change process are executed, a second image 302 based on the second handwritten data is displayed on the screen 300.

そして、表示態様変更処理のステップS308において、図13(b)に示すように、接触領域判定部24は、ペン2500等の接触位置303が第2画像302の領域内であると判定し、表示態様変更処理のステップS309およびステップS310において、接触時間計測部22が計測した接触時間Taが長押し基準時間T1を超過していると判定される。 Then, in step S308 of the display mode change process, as shown in FIG. 13(b), the contact area determination unit 24 determines that the contact position 303 of the pen 2500 or the like is within the area of the second image 302, and in steps S309 and S310 of the display mode change process, it is determined that the contact time Ta measured by the contact time measurement unit 22 exceeds the long press reference time T1.

そして、表示態様変更処理のステップS311において、入力順序判定部32が、第1手書きデータの入力後であって、第2手書きデータの入力前に、第3手書きデータが入力されたと判定する。 Then, in step S311 of the display mode change process, the input order determination unit 32 determines that the third handwritten data has been input after the first handwritten data has been input and before the second handwritten data has been input.

続いて、表示態様変更処理のステップS312において、位置関係判定部31が、第3手書きデータが入力された位置と第2手書きデータが入力された位置とが所定の位置関係であると判定する。例えば、第3手書きデータが入力された位置を示す座標点と第2手書きデータが入力された位置を示す座標点との間の距離dtが所定の長さを超過していると判定する。 Next, in step S312 of the display mode change process, the positional relationship determination unit 31 determines that the position where the third handwritten data was input and the position where the second handwritten data was input have a predetermined positional relationship. For example, it determines that the distance dt between the coordinate point indicating the position where the third handwritten data was input and the coordinate point indicating the position where the second handwritten data was input exceeds a predetermined length.

すると、表示態様変更処理のステップS315において、表示制御部26は、図13(c)に示すように、第2画像302の表示態様を変更する。 Then, in step S315 of the display mode change process, the display control unit 26 changes the display mode of the second image 302 as shown in FIG. 13(c).

本実施形態に係る表示装置2によれば、第1手書きデータ、第2手書きデータおよび第3手書きデータの入力された順序に基づいて、第1手書きデータと第2手書きデータとを判別して、第2画像302の表示態様を変更することができる。 The display device 2 according to this embodiment can distinguish between the first handwritten data and the second handwritten data based on the input order of the first handwritten data, the second handwritten data, and the third handwritten data, and change the display mode of the second image 302.

これによって、例えば、第1手書きデータおよび第2手書きデータの入力された時刻が近い場合や、第1手書きデータと第2手書きデータの入力された位置が近い場合であっても、入力された順序によっては、第2画像302の表示態様のみを変更することができる。 As a result, even if, for example, the first handwritten data and the second handwritten data were input close to each other at the time, or the first handwritten data and the second handwritten data were input close to each other at the positions, it is possible to change only the display mode of the second image 302 depending on the input order.

第1手書きデータの入力後であって、第2手書きデータの入力前に第3手書きデータが入力されたという条件は、複数の手書きデータを区別するための所定の条件の一例である。 The condition that the third handwritten data is input after the first handwritten data is input and before the second handwritten data is input is an example of a predetermined condition for distinguishing between multiple handwritten data.

なお、本実施形態において、第1手書きデータと第2手書きデータとを入力順序判定部32の判定によって区別し、第2手書きデータと第3手書きデータとを位置関係判定部31の判定によって区別する例を示したが、第2手書きデータと第3手書きデータを区別するための条件は他でも良い。 In this embodiment, an example is shown in which the first handwritten data and the second handwritten data are distinguished by the judgment of the input order judgment unit 32, and the second handwritten data and the third handwritten data are distinguished by the judgment of the positional relationship judgment unit 31, but other conditions may be used to distinguish the second handwritten data and the third handwritten data.

例えば、表示装置2が入力時刻間隔判定部25を備え、入力時刻間隔判定部25が、第3手書きデータが入力されてから第2手書きデータが入力されるまでの時間に基づいて判定しても良い。 For example, the display device 2 may include an input time interval determination unit 25, and the input time interval determination unit 25 may make a determination based on the time from when the third handwritten data is input to when the second handwritten data is input.

(第四の実施形態)
以下に図面を参照して、第四の実施形態について説明する。第四の実施形態は、第1手書きデータの入力を受け付けた機器と第2手書きデータの入力を受け付けた機器が異なるか否かを判定する点が、第一の実施形態と相違する。よって、以下の第四の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
(Fourth embodiment)
The fourth embodiment will be described below with reference to the drawings. The fourth embodiment differs from the first embodiment in that it is determined whether the device that accepts the input of the first handwritten data is different from the device that accepts the input of the second handwritten data. Therefore, in the following description of the fourth embodiment, only the differences from the first embodiment will be described, and the same reference numerals as those used in the description of the first embodiment will be given to components having the same functional configuration as the first embodiment, and the description thereof will be omitted.

図14は、第四の実施形態に係る表示システムの全体構成の一例を示す図である。 Figure 14 is a diagram showing an example of the overall configuration of a display system according to the fourth embodiment.

表示システム1は、表示装置2aと表示装置2bとを備える。表示装置2aおよび表示装置2bを区別しないときは、総称して表示装置2という。 The display system 1 includes a display device 2a and a display device 2b. When there is no need to distinguish between the display device 2a and the display device 2b, they are collectively referred to as the display device 2.

表示装置2は、通信ネットワーク3を介して、互いに通信可能に接続されている。表示装置2は、遠隔会議等に使用され、入力された手書きデータ等を互いに通信して、同一の画面を表示する。 The display devices 2 are connected to each other so that they can communicate with each other via the communication network 3. The display devices 2 are used for remote conferences, etc., and communicate input handwritten data, etc. with each other to display the same screen.

図15は、第四の実施形態に係る表示装置の機能の一例を示す図である。 Figure 15 is a diagram showing an example of the functions of a display device according to the fourth embodiment.

本実施形態に係るネットワーク通信部28は、通信ネットワーク3を介して、他の表示装置2に自機に入力された手書きデータを送信する。また、ネットワーク通信部28は、他の表示装置2に入力された手書きデータを受信する。受信した手書きデータは、入力を受け付けた機器を示す属性情報を含む。 The network communication unit 28 in this embodiment transmits handwritten data input to the device itself to another display device 2 via the communication network 3. The network communication unit 28 also receives handwritten data input to another display device 2. The received handwritten data includes attribute information indicating the device that accepted the input.

また、本実施形態に係る表示装置2は、第一の実施形態に係る入力時刻間隔判定部25の代わりに、入力機器判定部33をさらに備える。 The display device 2 according to this embodiment further includes an input device determination unit 33 instead of the input time interval determination unit 25 according to the first embodiment.

入力機器判定部33は、第1手書きデータの入力を受け付けた機器と、第2手書きデータの入力を受け付けた機器が異なるかを判定する。 The input device determination unit 33 determines whether the device that accepted the input of the first handwritten data is different from the device that accepted the input of the second handwritten data.

また、本実施形態に係る判定基準情報90は、第1手書きデータの入力を受け付けた機器と、第2手書きデータの入力を受け付けた機器が異なるか否かを入力機器判定部33が判定するための基準となる情報である。 The judgment criteria information 90 according to this embodiment is information that serves as a criterion for the input device judgment unit 33 to judge whether the device that accepted the input of the first handwritten data is different from the device that accepted the input of the second handwritten data.

次に、本実施形態に係る表示装置2の動作について説明する。 Next, the operation of the display device 2 according to this embodiment will be described.

図16は、第四の実施形態に係る表示態様変更処理のフローの一例を示す図である。 Figure 16 is a diagram showing an example of the flow of the display mode change process according to the fourth embodiment.

本実施形態に係る表示態様変更処理のステップS401からステップS407までは、第一の実施形態に係る表示態様変更処理のステップS101-S102、ステップS104およびステップS106-ステップS109までと同様である。ステップS407の処理に続いて、入力機器判定部33は、第1手書きデータの入力を受け付けた機器と、第2手書きデータの入力を受け付けた機器が異なるか否かを判定する(ステップS408)。 Steps S401 to S407 of the display mode change process according to this embodiment are similar to steps S101-S102, step S104, and steps S106-S109 of the display mode change process according to the first embodiment. Following the process of step S407, the input device determination unit 33 determines whether the device that accepted the input of the first handwritten data is different from the device that accepted the input of the second handwritten data (step S408).

そして、入力機器判定部33が、入力を受け付けた機器が異なると判定すると(ステップS408:Yes)、表示制御部26は、第2画像の表示態様を変更する(ステップS409)。 If the input device determination unit 33 determines that the device that received the input is different (step S408: Yes), the display control unit 26 changes the display mode of the second image (step S409).

また、入力機器判定部33が、入力を受け付けた機器が同じであると判定すると(ステップS408:No)、表示制御部26は、第1画像および第2画像の表示態様を変更する(ステップS410)。 Also, if the input device determination unit 33 determines that the device that received the input is the same (step S408: No), the display control unit 26 changes the display mode of the first image and the second image (step S410).

表示態様変更処理の開始時点において、一例として、図6(a)に示すように、ディスプレー220に表示された画面300に手書きデータに基づく画像が含まれている。そして、表示態様変更処理のステップS401およびステップS402が実行されると、図6(b)に示すように、第1手書きデータに基づく第1画像301が画面300に表示される。第1手書きデータは、例えば、表示装置2aが入力を受け付けた手書きデータである。 At the start of the display mode change process, as shown in FIG. 6(a), for example, screen 300 displayed on display 220 includes an image based on handwritten data. Then, when steps S401 and S402 of the display mode change process are executed, a first image 301 based on the first handwritten data is displayed on screen 300, as shown in FIG. 6(b). The first handwritten data is, for example, handwritten data that has been accepted as input by display device 2a.

続いて、表示態様変更処理のステップS403およびステップS404が実行されると、図6(c)に示すように、第2手書きデータに基づく第2画像302が画面300に表示される。第2手書きデータは、例えば、表示装置2bが入力を受け付けた手書きデータである。 Next, when steps S403 and S404 of the display mode change process are executed, a second image 302 based on the second handwritten data is displayed on the screen 300 as shown in FIG. 6(c). The second handwritten data is, for example, handwritten data that has been accepted as input by the display device 2b.

そして、表示態様変更処理のステップS405において、図6(d)に示すように、接触領域判定部24は、ペン2500等の接触位置303が第2画像302の領域内であると判定し、表示態様変更処理のステップS406およびステップS407において、接触時間計測部22が計測した接触時間Taが長押し基準時間T1を超過していると判定される。 Then, in step S405 of the display mode change process, as shown in FIG. 6(d), the contact area determination unit 24 determines that the contact position 303 of the pen 2500 or the like is within the area of the second image 302, and in steps S406 and S407 of the display mode change process, it is determined that the contact time Ta measured by the contact time measurement unit 22 exceeds the long press reference time T1.

そして、表示態様変更処理のステップS408において、入力機器判定部33が、第1手書きデータの入力を受け付けた機器と第2手書きデータの入力を受け付けた機器が異なると判定すると、表示態様変更処理のステップS409において、表示制御部26は、図6(e)に示すように、第2画像302の表示態様を変更する。 Then, in step S408 of the display mode change process, if the input device determination unit 33 determines that the device that accepted the input of the first handwritten data is different from the device that accepted the input of the second handwritten data, in step S409 of the display mode change process, the display control unit 26 changes the display mode of the second image 302 as shown in FIG. 6 (e).

本実施形態に係る表示装置2によれば、第1手書きデータおよび第2手書きデータの入力を受け付けた機器に基づいて、第1手書きデータと第2手書きデータとを判別して、第2画像302の表示態様を変更することができる。 The display device 2 according to this embodiment can distinguish between the first handwritten data and the second handwritten data based on the device that accepts the input of the first handwritten data and the second handwritten data, and change the display mode of the second image 302.

これによって、例えば、第1手書きデータおよび第2手書きデータの入力された時刻が近い場合や、入力された位置が近い場合であっても、入力を受け付けた機器によっては、第2画像302の表示態様のみを変更することができる。 As a result, even if the first handwritten data and the second handwritten data were input close to each other at certain times or positions, for example, it is possible to change only the display mode of the second image 302 depending on the device that accepted the input.

第1手書きデータの入力を受け付けた機器と第2手書きデータの入力を受け付けた機器が異なるという条件は、複数の手書きデータを区別するための所定の条件の一例である。 The condition that the device that accepts the input of the first handwritten data is different from the device that accepts the input of the second handwritten data is an example of a predetermined condition for distinguishing between multiple handwritten data.

以下では表示装置2の他の構成例について説明する。 Other configuration examples of the display device 2 are described below.

上述した各実施形態では、表示装置2が大型のタッチパネルを有するものとして説明されているが、表示装置2はタッチパネルを有するものに限られない。 In each of the above-described embodiments, the display device 2 is described as having a large touch panel, but the display device 2 is not limited to having a touch panel.

図17は、表示装置の他の構成例を示す第一の図である。 Figure 17 is a first diagram showing another example configuration of a display device.

図17では、通常のホワイトボード413の上辺にプロジェクター411が設置されている。このプロジェクター411が表示装置2に相当する。通常のホワイトボード413とは、タッチパネルと一体のフラットパネルディスプレーではなく、ユーザーがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板でもよく、映像を投影するだけの広さの平面であればよい。 In FIG. 17, a projector 411 is installed on the top edge of a normal whiteboard 413. This projector 411 corresponds to the display device 2. A normal whiteboard 413 is not a flat panel display integrated with a touch panel, but a whiteboard on which a user directly writes with a marker. Note that the whiteboard may be a blackboard, and any flat surface large enough to project an image may be used.

プロジェクター411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPC400-1から送信されてもよいし、プロジェクター411が記憶していてもよい。 The projector 411 has an ultra-short focal length optical system and can project an image with little distortion onto the whiteboard 413 from a distance of about 10 cm. This image may be transmitted from the PC 400-1 connected wirelessly or via a wired connection, or may be stored in the projector 411.

ユーザーは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザーが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザーの目には見えない。プロジェクター411はカメラを有しており、発光部を撮像して画像を解析し電子ペン2501の方向を特定する。また、電子ペン2501は発光と共に音波を発信しており、プロジェクター411は音波の到達時間により距離を算出する。方向と距離により電子ペン2501の位置を特定できる。電子ペン2501の位置には手書きされたデータが描画(投影)される。 The user writes by hand on the whiteboard 413 using a dedicated electronic pen 2501. The electronic pen 2501 has a light-emitting part, for example at the tip, that is switched on and emits light when the user presses it against the whiteboard 413 to write. The wavelength of the light is near-infrared or infrared, so it is invisible to the user's eye. The projector 411 has a camera that captures the light-emitting part, analyzes the image, and identifies the direction of the electronic pen 2501. The electronic pen 2501 also emits sound waves along with the light emission, and the projector 411 calculates the distance based on the arrival time of the sound waves. The position of the electronic pen 2501 can be identified based on the direction and distance. The handwritten data is drawn (projected) at the position of the electronic pen 2501.

プロジェクター411はメニュー430を投影するので、ユーザーが電子ペン2501でボタンを押下すると、プロジェクター411が電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザーが手書きした手書きされたデータ(座標点列)がプロジェクター411で保存される。プロジェクター411は、予め定められたサーバー412又はUSBメモリー2600等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザーが再編集することができる。ただし、本実施形態では操作コマンドを手書きで呼び出せるのでメニュー430は表示されなくてもよい。 The projector 411 projects the menu 430, so when the user presses a button with the electronic pen 2501, the projector 411 identifies the position of the electronic pen 2501 and the pressed button by the switch ON signal. For example, when the save button 431 is pressed, the handwritten data (coordinate point sequence) handwritten by the user is saved in the projector 411. The projector 411 saves the handwritten information in a predetermined server 412 or USB memory 2600, etc. The handwritten information is saved for each page. Since the coordinates are saved instead of image data, the user can re-edit it. However, in this embodiment, the menu 430 does not need to be displayed because the operation command can be called up by handwriting.

図18は、表示装置の他の構成例を示す第二の図である。 Figure 18 is a second diagram showing another example configuration of a display device.

表示装置2として、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。 The display device 2 includes a terminal device 600, an image projection device 700A, and a pen operation detection device 810.

端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。 The terminal device 600 is connected by wire to the image projection device 700A and the pen motion detection device 810. The image projection device 700A projects image data input by the terminal device 600 onto the screen 800.

ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し(検出方法は図17と同様でよい)、端末装置600へ送信する。 The pen operation detection device 810 communicates with the electronic pen 820 and detects the operation of the electronic pen 820 in the vicinity of the screen 800. Specifically, the electronic pen 820 detects coordinate information indicating the point that the electronic pen 820 is pointing at on the screen 800 (the detection method may be the same as in FIG. 17 ) and transmits it to the terminal device 600.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力される手書きデータの画像データを生成し、画像投影装置700Aによって手書きデータの画像をスクリーン800に描画させる。 Based on the coordinate information received from the pen operation detection device 810, the terminal device 600 generates image data of the handwritten data input by the electronic pen 820, and causes the image projection device 700A to draw an image of the handwritten data on the screen 800.

また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力された手書きデータの画像とを合成した重畳画像を示す重畳画像データを生成する。 In addition, the terminal device 600 generates superimposed image data that shows a superimposed image that combines the background image projected by the image projection device 700A and the image of the handwritten data input by the electronic pen 820.

図19は、表示装置の他の構成例を示す第三の図である。 Figure 19 is a third diagram showing another example configuration of a display device.

図19の例では、表示装置2として、端末装置600と、ディスプレー800Aと、ペン動作検出装置810とを有する。 In the example of FIG. 19, the display device 2 includes a terminal device 600, a display 800A, and a pen motion detection device 810.

ペン動作検出装置810は、ディスプレー800Aの近傍に配置され、ディスプレー800A上に、電子ペン820Aが示している点を示す座標情報を検出し(検出方法は図26と同様でよい)、端末装置600へ送信する。なお、図28の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。 The pen motion detection device 810 is placed near the display 800A, detects coordinate information indicating the point indicated by the electronic pen 820A on the display 800A (the detection method may be the same as that in FIG. 26), and transmits it to the terminal device 600. In the example of FIG. 28, the electronic pen 820A may be charged by the terminal device 600 via the USB connector.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820Aによって入力される手書きデータの画像を示す画像データを生成し、ディスプレー800Aに表示させる。 Based on the coordinate information received from the pen operation detection device 810, the terminal device 600 generates image data showing an image of the handwritten data input by the electronic pen 820A and displays it on the display 800A.

図20は、表示装置の他の構成例を示す第四の図である。 Figure 20 is a fourth diagram showing another example configuration of a display device.

図20の例では、表示装置2として、端末装置600と、画像投影装置700Aとを有する。 In the example of FIG. 20, the display device 2 includes a terminal device 600 and an image projection device 700A.

端末装置600は、電子ペン820Bと無線通信(Bluetooth(登録商標)等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。座標情報は、スクリーン800に形成された微小な位置情報を電子ペン820Bが読み取ってもよいし、スクリーン800から座標情報を受信してもよい。 The terminal device 600 performs wireless communication (Bluetooth (registered trademark), etc.) with the electronic pen 820B to receive coordinate information of a point indicated by the electronic pen 820B on the screen 800. The coordinate information may be obtained by the electronic pen 820B reading minute positional information formed on the screen 800, or the terminal device 600 may receive the coordinate information from the screen 800.

そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力される手書きデータの画像の画像データを生成し、画像投影装置700Aに手書きデータの画像を投影させる。 Then, based on the received coordinate information, the terminal device 600 generates image data of the image of the handwritten data input by the electronic pen 820B, and causes the image projection device 700A to project the image of the handwritten data.

また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力された手書きデータの画像とを合成した重畳画像を示す重畳画像データを生成する。 In addition, the terminal device 600 generates superimposed image data that shows a superimposed image that combines the background image projected by the image projection device 700A and the image of the handwritten data input by the electronic pen 820.

以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。 As described above, each of the above-mentioned embodiments can be applied to various system configurations.

以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 The above describes the best mode for carrying out the present invention using examples, but the present invention is not limited to these examples in any way, and various modifications and substitutions can be made without departing from the spirit of the present invention.

文字列は文字コードとして、手書きデータは座標点データとして表示装置2に保存される。また、各種の記憶媒体に保存したり、ネットワーク上の記憶装置に保存したりしておいて、後で、表示装置2からダウンロードして再使用することができる。再使用する表示装置2はどの表示装置でもよく、一般的な情報処理装置でもよい。したがって、ユーザーは手書きした内容を異なる表示装置2で再現して会議などを継続することができる。 The character string is stored as character codes, and the handwritten data is stored as coordinate point data on the display device 2. It can also be stored on various storage media or on a storage device on a network, and later downloaded from the display device 2 for reuse. The display device 2 to be reused can be any display device, or even a general information processing device. Therefore, the user can reproduce the handwritten content on a different display device 2 and continue a meeting, etc.

また、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、ペン先の座標を超音波により検出してもよい。また、ペンは発光と共に超音波を発信しており、表示装置2は超音波の到達時間により距離を算出する。方向と距離によりペンの位置を特定できる。ペンの軌跡をストロークデータとしてプロジェクターが描画(投影)する。 In this embodiment, the coordinates of the pen are detected by detecting the coordinates of the pen tip using a touch panel, but the coordinates of the pen tip may also be detected using ultrasonic waves. The pen emits light and also emits ultrasonic waves, and the display device 2 calculates the distance based on the arrival time of the ultrasonic waves. The position of the pen can be identified based on the direction and distance. The projector draws (projects) the trajectory of the pen as stroke data.

また、図4などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 The configuration examples in FIG. 4 and the like are divided according to main functions to make it easier to understand the processing by the display device 2. The present invention is not limited by the manner in which the processing units are divided or the names of the processing units. The processing by the display device 2 can be divided into even more processing units depending on the processing content. It can also be divided so that one processing unit includes even more processes.

また、表示装置2が行う処理の一部を、表示装置2とネットワークを介して接続されたサーバーが行ってもよい。 In addition, some of the processing performed by the display device 2 may be performed by a server connected to the display device 2 via a network.

また、本実施形態において、比較の対象として閾値が例示されていたとしても閾値は例示された値には限定されない。このため、本実施形態では、全ての閾値に関し、閾値未満と閾値以下という記載は同等の意味を持ち、閾値超過と閾値以上という記載は同等の意味を持つ。例えば、閾値を11とした場合の閾値未満という記載は閾値が10である場合の閾値以下と同等の意味を持つ。また、閾値を10とした場合の閾値超過という記載は閾値が11である場合の閾値以上と同等の意味を持つ。 In addition, in this embodiment, even if a threshold is exemplified as an object of comparison, the threshold is not limited to the exemplified value. For this reason, in this embodiment, for all thresholds, the descriptions "less than threshold" and "below threshold" have the same meaning, and the descriptions "exceeding threshold" and "above threshold" have the same meaning. For example, the description "less than threshold" when the threshold is 11 has the same meaning as "below threshold" when the threshold is 10. Furthermore, the description "exceeding threshold" when the threshold is 10 has the same meaning as "above threshold" when the threshold is 11.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiments described above can be realized by one or more processing circuits. In this specification, the term "processing circuit" includes a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, and devices such as an ASIC (Application Specific Integrated Circuit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), and conventional circuit modules designed to execute each function described above.

上記で説明した実施形態の各機能は、表示装置2の備えるCPU201の動作を規定するOS(Operating system)上で動作するアプリケーションプログラムによって実現され得る。 The functions of the above-described embodiments can be realized by application programs that run on an OS (Operating system) that defines the operation of the CPU 201 of the display device 2.

尚、本実施形態が適用される装置は、タッチ操作によって、オブジェクトを操作する機能を備えた表示装置であれば良く、電子黒板に限定されにない。本実施形態が適用される表示装置は、例えば、PJ(Projector:プロジェクタ)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC等であってもよい。 The device to which this embodiment is applied may be any display device having a function for operating objects by touch operation, and is not limited to an electronic whiteboard. The display device to which this embodiment is applied may be, for example, a PJ (Projector), an output device such as digital signage, a HUD (Head Up Display) device, a network home appliance, an automobile (Connected Car), a notebook PC (Personal Computer), a mobile phone, a smartphone, a tablet terminal, a game console, a PDA (Personal Digital Assistant), a wearable PC, etc.

以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。 The present invention has been described above based on each embodiment, but the present invention is not limited to the requirements shown in the above embodiments. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form.

1 表示システム
2 表示装置
21 接触位置検出部
22 接触時間計測部
23 描画データ生成部
24 接触領域判定部
25 入力時刻間隔判定部
26 表示制御部
27 データ記録部
28 ネットワーク通信部
29 操作受付部
30 記憶部
31 位置関係判定部
32 入力順序判定部
33 入力機器判定部
REFERENCE SIGNS LIST 1 Display system 2 Display device 21 Contact position detection unit 22 Contact time measurement unit 23 Drawing data generation unit 24 Contact area determination unit 25 Input time interval determination unit 26 Display control unit 27 Data recording unit 28 Network communication unit 29 Operation reception unit 30 Storage unit 31 Positional relationship determination unit 32 Input order determination unit 33 Input device determination unit

特開2019-105988号公報JP 2019-105988 A

Claims (11)

入力手段によって手書きデータの入力を受け付ける受付手段と、
前記受付手段が受け付けた第1手書きデータの入力の後に入力を受け付けた第2手書きデータに対する所定の操作を受け付けた場合に、表示部に表示された前記第2手書きデータに基づく画像の表示態様を変更する制御手段と、を備え
前記第2手書きデータを対する前記所定の操作は、前記入力手段が前記第2手書きデータに基づく画像の領域内に接触する時間が、長押しの基準を示す時間以上であるか、または前記長押しの基準を示す時間を超過している操作である、
表示装置。
a receiving means for receiving handwritten data input by an input means;
a control means for changing a display mode of an image based on the second handwritten data displayed on a display unit when a predetermined operation on the second handwritten data inputted and accepted after the input of the first handwritten data inputted and accepted by the accepting means is accepted ,
the predetermined operation on the second handwritten data is an operation in which the time during which the input means touches an area of an image based on the second handwritten data is equal to or longer than a time indicating a criterion for a long press or exceeds the time indicating the criterion for a long press;
Display device.
前記制御手段は、前記第2手書きデータに対する前記所定の操作を受け付けた場合に、前記第1手書きデータ及び前記第2手書きデータが、複数の手書きデータを区別するための所定の条件を満たすときは、前記表示部に表示された前記第2手書きデータに基づく前記画像の表示態様を変更する、
請求項に記載の表示装置。
when the control means receives the predetermined operation on the second handwritten data, and when the first handwritten data and the second handwritten data satisfy a predetermined condition for distinguishing between a plurality of handwritten data, the control means changes a display mode of the image based on the second handwritten data displayed on the display unit.
The display device according to claim 1 .
前記所定の条件は、前記第1手書きデータが入力されてから前記第2手書きデータが入力されるまでの時間が、所定の時間以上であるという条件又は前記所定の時間を超過したという条件である、
請求項に記載の表示装置。
the predetermined condition is that the time from when the first handwritten data is input to when the second handwritten data is input is equal to or longer than a predetermined time, or that the time has exceeded the predetermined time.
The display device according to claim 2 .
前記所定の条件は、前記第1手書きデータが入力された位置と前記第2手書きデータが入力された位置とが、所定の位置関係であるという条件である、
請求項に記載の表示装置。
the predetermined condition is that a position where the first handwritten data is input and a position where the second handwritten data is input have a predetermined positional relationship;
The display device according to claim 2 .
前記位置関係は、前記第2手書きデータの入力された前記位置が、前記第1手書きデータの入力された前記位置の下方という関係である、
請求項に記載の表示装置。
the positional relationship is such that the position where the second handwritten data is input is below the position where the first handwritten data is input.
The display device according to claim 4 .
前記位置関係は、前記第1手書きデータの入力された前記位置を示す座標点と、前記第2手書きデータが入力された前記位置を示す座標点との間の距離が所定の長さ以上であること又は前記所定の長さを超過したという条件である、
請求項に記載の表示装置。
The positional relationship is a condition that a distance between a coordinate point indicating the position where the first handwritten data is input and a coordinate point indicating the position where the second handwritten data is input is equal to or greater than a predetermined length or exceeds the predetermined length.
The display device according to claim 4 .
前記所定の条件は、前記第1手書きデータの入力後であって、前記第2手書きデータの入力前に、第3手書きデータが入力されたという条件であって、
前記制御手段は、前記第3手書きデータが入力された位置と、前記第2手書きデータが入力された位置とが、所定の位置関係であるときは、前記第2手書きデータに基づく前記画像の表示態様を変更する、
請求項に記載の表示装置。
the predetermined condition is a condition that third handwritten data is input after the first handwritten data is input and before the second handwritten data is input,
the control means changes a display mode of the image based on the second handwritten data when a position where the third handwritten data is input and a position where the second handwritten data is input have a predetermined positional relationship.
The display device according to claim 2 .
前記所定の条件は、前記第1手書きデータの入力を受け付けた機器と、前記第2手書きデータの入力を受け付けた機器が異なるという条件である、
請求項に記載の表示装置。
the predetermined condition is that a device that accepts input of the first handwritten data is different from a device that accepts input of the second handwritten data;
The display device according to claim 2 .
前記制御手段は、前記第2手書きデータを示す前記所定の操作を受け付けた場合に、前記第1手書きデータが入力されてから前記第2手書きデータが入力されるまでの時間が、所定の時間以上でないとき、または前記第1手書きデータが入力された位置と前記第2手書きデータが入力された位置とが、所定の位置関係でないときは、前記表示部に表示された前記第1手書きデータ及び前記第2手書きデータの表示態様を変更する、
請求項2から8のいずれか1項に記載の表示装置。
when the control means receives the predetermined operation indicating the second handwritten data, if the time from when the first handwritten data is input to when the second handwritten data is input is not equal to or longer than a predetermined time, or if the position where the first handwritten data is input and the position where the second handwritten data is input do not have a predetermined positional relationship , the control means changes a display mode of the first handwritten data and the second handwritten data displayed on the display unit.
The display device according to claim 2 .
表示装置が実行する表示方法であって、
入力手段によって手書きデータの入力を受け付けるステップと、
受け付けた第1手書きデータの入力の後に入力を受け付けた第2手書きデータに対して、前記入力手段が前記第2手書きデータに基づく画像の領域内に接触する時間が、長押しの基準を示す時間以上であるか、または前記長押しの基準を示す時間を超過している操作を受け付けた場合に、表示部に表示された前記第2手書きデータに基づく画像の表示態様を変更するステップと、を備える、
表示方法。
A display method executed by a display device, comprising:
accepting input of handwritten data by an input means;
and when an operation is received in which the input means touches an area of an image based on the second handwritten data for a period of time equal to or longer than a time indicating a long press criterion for second handwritten data inputted after the input of the accepted first handwritten data, the method includes a step of changing a display mode of the image based on the second handwritten data displayed on the display unit.
Display method.
表示装置が備えるコンピュータに、
入力手段によって手書きデータの入力を受け付けるステップと、
受け付けた第1手書きデータの入力の後に入力を受け付けた第2手書きデータに対して、前記入力手段が前記第2手書きデータに基づく画像の領域内に接触する時間が、長押しの基準を示す時間以上であるか、または前記長押しの基準を示す時間を超過している操作を受け付けた場合に、表示部に表示された前記第2手書きデータに基づく画像の表示態様を変更するステップと、
を実行させるためのプログラム。
A computer equipped with the display device
accepting input of handwritten data by an input means;
changing a display mode of an image based on the second handwritten data displayed on a display unit when an operation is received in which the input means touches an area of an image based on the second handwritten data for a period of time equal to or longer than a time indicating a long press criterion for second handwritten data received after input of the accepted first handwritten data;
A program for executing.
JP2020123983A 2020-07-20 2020-07-20 Display device, display method, and program Active JP7508916B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020123983A JP7508916B2 (en) 2020-07-20 2020-07-20 Display device, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020123983A JP7508916B2 (en) 2020-07-20 2020-07-20 Display device, display method, and program

Publications (2)

Publication Number Publication Date
JP2022020470A JP2022020470A (en) 2022-02-01
JP7508916B2 true JP7508916B2 (en) 2024-07-02

Family

ID=80216290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020123983A Active JP7508916B2 (en) 2020-07-20 2020-07-20 Display device, display method, and program

Country Status (1)

Country Link
JP (1) JP7508916B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013065125A (en) 2011-09-16 2013-04-11 Ricoh Co Ltd Screen sharing system, screen sharing terminal, electronic blackboard system and program
JP2014102628A (en) 2012-11-19 2014-06-05 Konica Minolta Inc Object operation device and object operation control program
JP2019220155A (en) 2018-06-19 2019-12-26 株式会社リコー Handwriting input display device, handwriting input display method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013065125A (en) 2011-09-16 2013-04-11 Ricoh Co Ltd Screen sharing system, screen sharing terminal, electronic blackboard system and program
JP2014102628A (en) 2012-11-19 2014-06-05 Konica Minolta Inc Object operation device and object operation control program
JP2019220155A (en) 2018-06-19 2019-12-26 株式会社リコー Handwriting input display device, handwriting input display method and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
三浦 衛,iPad仕事術! 2018,日本,スタンダーズ株式会社,2017年11月10日,第28ページ
早瀬 敦,iPhone 完全マスターガイド iOS 13のすべて,日本,株式会社英和出版社 ,2019年11月01日,第43ページ
星野 未知,500円でわかる ウィンドウズ10便利技 ,日本,株式会社学研プラス,2015年12月31日,第16ページ

Also Published As

Publication number Publication date
JP2022020470A (en) 2022-02-01

Similar Documents

Publication Publication Date Title
US11250253B2 (en) Handwriting input display apparatus, handwriting input display method and recording medium storing program
JP7275885B2 (en) DISPLAY DEVICE, DIRECTION SPECIFICATION METHOD, PROGRAM
US11557138B2 (en) Display apparatus, control method, and recording medium
JP2022145191A (en) Display device, program, method for display, and display system
JP7508916B2 (en) Display device, display method, and program
US10521108B2 (en) Electronic apparatus for detecting touch, method of controlling the same, and display apparatus including touch controller
US11853636B2 (en) Display apparatus, display method, medium, and display system
JP2021197024A (en) Display unit, display method, and program
JP7480608B2 (en) Display device, display method, and program
US20230070034A1 (en) Display apparatus, non-transitory recording medium, and display method
JP2022119463A (en) Display, display method, and program
JP7384191B2 (en) Display device, program, area change method
JP7388153B2 (en) Display device, display program, display method
JP2022147384A (en) Display device, method for display, and program
JP7351374B2 (en) Display device, display program, display method
JP7494507B2 (en) Display device, display method, and program
JP2022147337A (en) Display device, display method and program
JP7268479B2 (en) Display device, program, display method
US11726654B2 (en) Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon
JP2023133110A (en) Display device, display method, and program
JP2022143517A (en) Display device, method for display, and program
WO2022071448A1 (en) Display apparatus, display method, and program
JP2023137822A (en) Display device, fair copy method, program, and information sharing system
JP2023137078A (en) Display device and program
JP2023133111A (en) Display apparatus, display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240603

R150 Certificate of patent or registration of utility model

Ref document number: 7508916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150