WO2023037907A1 - 表示制御プログラム - Google Patents

表示制御プログラム Download PDF

Info

Publication number
WO2023037907A1
WO2023037907A1 PCT/JP2022/032195 JP2022032195W WO2023037907A1 WO 2023037907 A1 WO2023037907 A1 WO 2023037907A1 JP 2022032195 W JP2022032195 W JP 2022032195W WO 2023037907 A1 WO2023037907 A1 WO 2023037907A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display area
pointer
terminal device
area
Prior art date
Application number
PCT/JP2022/032195
Other languages
English (en)
French (fr)
Inventor
来造 小坂
亮 山本
建太郎 加藤
寛恭 佐藤
香澄 広瀬
Original Assignee
ブラザー工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブラザー工業株式会社 filed Critical ブラザー工業株式会社
Publication of WO2023037907A1 publication Critical patent/WO2023037907A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory

Definitions

  • the present invention relates to a display control program.
  • a conventional display control program when a plurality of terminal devices connected via a communication line share and display the same window among a plurality of windows for joint editing, the movement of the pointer is controlled. Control. Specifically, according to the display control program, when the pointer displayed on the display unit of the terminal device is outside the frame of the window being shared, the terminal device detects changes in the distance between the pointer and each of the plurality of windows. Determines the destination window. The terminal device transmits pointer data including information on the destination window to the other terminal device. The terminal device that receives the pointer data moves the pointer of the other party toward the destination window based on the pointer data.
  • each terminal device can display a display area different from that of other devices.
  • a terminal device that controls a pointer according to a conventional display control program if the position of the pointer notified by the other device is outside the display area of the user's own terminal device, the user is aware that the pointer is being operated by the other device. don't know.
  • An object of the present invention is to provide a display control program that enables a user to grasp operations by other devices outside the display area even when different display areas are displayed for each terminal device.
  • the display control program of the first aspect is executed by the control unit of a terminal device having a display unit that displays an image, a communication unit that communicates with another device, and a control unit that controls the display unit and the communication unit.
  • a display control program for obtaining, in the control unit, layout information indicating a layout of a display area displayed on the display unit with respect to an editing area shared with the other device; Based on a reception process of receiving pointer information indicating the position of the pointer with respect to the editing area from the other device via the communication unit, the received pointer information, and the acquired arrangement information, the pointer a determination process of determining whether the pointer is within the display area; and displaying the pointer at the position indicated by the arrangement information within the display area when the pointer is determined to be within the display area.
  • a terminal device that executes the display control program of the first aspect can execute the first display process and the second display process according to the determination result of the determination process. Therefore, even when a different display area is displayed for each terminal device, the user of the terminal device can grasp whether or not the pointer has been operated on the other device from the mark displayed in the second display process.
  • the display control program of the second aspect is executed by the control unit of a terminal device having a display unit that displays an image, a communication unit that communicates with another device, and a control unit that controls the display unit and the communication unit.
  • a display control program for obtaining, in the control unit, layout information indicating a layout of a display area displayed on the display unit with respect to an editing area shared with the other device; a receiving process for receiving operation information indicating an operation position and an operation content with respect to the editing area from the other device via the communication unit; a judgment process for judging whether or not an operation position is within the display area; display processing for displaying according to operation content; and display processing for the editing area so that the operation position indicated by the operation information is within the display area when the operation position is not determined to be within the display area.
  • a terminal device that executes the display control program of the second mode can execute display processing and change processing according to the determination result of the determination processing. Therefore, even if a different display area is displayed for each terminal apparatus, the user of the terminal device can change the display area with respect to the editing area by the change processing, and the display corresponding to the operation content is displayed at the operation position. You can understand the operation on the device.
  • FIG. 1 is an explanatory diagram of a system 15 including terminal devices 1A to 1C;
  • FIG. It is a flow chart of invitation processing.
  • FIG. 4 is an explanatory diagram of a collaborative editing start screen 21, a collaborative editing screen 25, and a collaborative editing end screen 45; 9 is a flowchart of collaborative editing processing;
  • FIG. 11 is an explanatory diagram of processing when a pointer 54 is operated in a state where display areas 51 to 53 are different from an editing area 50;
  • FIG. 12 is an explanatory diagram of processing when the pointer 54 is operated in a state in which the display areas 51 to 53 are different from the editing area 50 in the first and second modified examples;
  • FIG. 4 is an explanatory diagram of a collaborative editing start screen 21, a collaborative editing screen 25, and a collaborative editing end screen 45;
  • 9 is a flowchart of collaborative editing processing;
  • FIG. 11 is an explanatory diagram of processing when a pointer 54 is operated in a state where display areas 51 to 53 are different from an editing area
  • FIG. 12 is an explanatory diagram of processing when the pointer 54 is operated in a state in which the display areas 51 to 53 are different from the editing area 50 in the third modified example
  • FIG. 16 is a flow chart of collaborative editing processing according to a fourth modified example
  • FIG. 11 is an explanatory diagram of processing when an object 96 is operated in a state in which display areas 51 to 53 are different from an editing area 50
  • FIG. 20 is an explanatory diagram of a process of switching the field 42 of the screen 25 displayed on the terminal device 1C from the image 100 to the image 103 in the collaborative editing process of the fourth modified example;
  • the system 15 comprises terminals 1A to 1C.
  • each of the terminal devices 1A to 1C executes a display control program, which will be described later, so that the terminal devices 1A to 1C connected via the communication line share and display the same window. can perform collaborative editing.
  • the terminal devices 1A to 1C are portable terminal devices such as mobile phones (for example, smart phones), PDAs, and tablet PCs.
  • the terminal device 1A is operated by user A
  • the terminal device 1B is operated by user B
  • the terminal device 1C is operated by user C.
  • the terminals 1A to 1C are also referred to as the terminal 1 when not distinguished.
  • Each terminal device 1 includes a CPU 2, a ROM 3, a RAM 4, a storage section 5, a communication section 6, an input/output interface (I/O) 7, a display section 9, and an input section 10.
  • the CPU 2 is connected to the ROM 3, the RAM 4, the storage section 5, the communication section 6, and the I/O 7 via the bus 8.
  • the CPU 2 controls the terminal device 1 .
  • the ROM 3 stores a boot program, BIOS, and the like.
  • the RAM 4 stores temporary data. Various setting values are stored in the storage unit 5 .
  • a communication unit 6 is an interface for connecting to the network 11 .
  • the CPU 2 can transmit and receive data to and from another terminal device 1 connected to the network 11 via the communication unit 6 and the access point 12 .
  • a display unit 9 and an input unit 10 are connected to the I/O 7 .
  • the display unit 9 can display images, and is, for example, a liquid crystal display.
  • the input unit 10 is a touch panel provided on the surface of the display unit 9, and outputs a detection signal according to the positions of the stylus pen 14 and an indicator such as a finger.
  • FIG. 1 The invitation process that can be executed by each terminal device 1 will be described with reference to FIGS. 2 and 3.
  • FIG. In the invitation process the user of the other terminal device 1 is added as a member of the joint editing, the process of starting the joint editing, and the process of ending the joint editing are executed.
  • CPU2 reads the program for performing an invitation process from the memory
  • CPU2 performs the invitation process which has the following steps according to the instruction
  • Various data obtained in the course of the invitation process are appropriately stored in the RAM 4 .
  • a step is abbreviated as S below.
  • the CPU 2 of the terminal device 1A displays the collaborative editing start screen 21 (hereinafter simply referred to as screen 21) shown in FIG. 3 on the display unit 9 (S2).
  • screen 21 displays keys 22-24.
  • Key 22 is selected to cancel the start of the collaborative editing process.
  • a key 23 is selected to instruct the start of collaborative editing processing.
  • a key 24 is selected when adding a user of another terminal device 1 as a member of collaborative editing.
  • the CPU 2 determines whether the selection of the key 24 has been detected based on the detection signal from the input section 10 (S3). If the selection of the key 24 is not detected (S3: NO), the CPU 2 performs the process of S5, which will be described later.
  • User A selects key 24 to enter an instruction to add each of users B and C as members of collaborative editing.
  • the CPU 2 outputs an invitation to joint editing to the terminal device 1 of the selected member via the communication unit 6 (S4).
  • each of the terminal devices 1B and 1C that received the invitation notification displays a screen for selecting whether to accept or reject the invitation to joint editing sent from the terminal device 1A.
  • Each of the terminal devices 1B and 1C transmits an acceptance notification to the terminal device 1A when acceptance is selected, and transmits a rejection notification to the terminal device 1A when rejection is selected.
  • the CPU 2 of the terminal device 1A determines whether or not the acceptance notification has been received via the communication section 6 (S5).
  • the CPU 2 of the terminal device 1A activates joint editing processing, which will be described later, and displays the joint editing screen 25 shown in FIG. ) is displayed (S6).
  • the screen 25 displays icons 26 to 41 and column 42.
  • the icon 26 is selected when instructing switching of the display screen.
  • the icon 27 is selected when returning the display area for the editing area to the initial state.
  • the initial state of this example is a state in which the entire editing area is included in the display area.
  • Icon 28 is selected when returning to the previous operation.
  • the icon 29 is selected when redoing the next operation.
  • Icon 30 is selected to output the contents of the editing area.
  • Icon 31 is selected when adding a stroke with a pen to the display area.
  • Icon 32 is selected to delete an object in the display area.
  • Icon 33 is selected to add a stroke with a marker to the display area.
  • Icon 34 is selected to select an object in the display area.
  • Icon 35 is selected when inserting characters into the display area.
  • Icon 36 is selected to add a graphic to the display area.
  • the icon 37 is selected when adding files, figures, photographs, etc. to the display area.
  • Icon 38 is selected when operating the pointer.
  • Icons 39 to 41 indicate figures that can be inserted into the display area when icon 36 is selected.
  • Icon 39 is selected to add a rectangle to the display area.
  • Icon 40 is selected to add a circle to the display area.
  • Icon 41 is selected to add a triangle to the display area.
  • the icon displayed to the right of icon 38 is changed according to the icon selected from icons 31 to 38 .
  • Column 42 displays the display area of the edit area.
  • the CPU 2 of the terminal device 1A determines whether an end instruction has been detected (S7).
  • the end instruction is input from a joint editing end screen 45 (hereinafter simply referred to as screen 45) that is displayed when "end joint editing" is selected after icon 26 is selected.
  • the end instruction may be received from another terminal device 1 during collaborative editing.
  • a screen 45 displays keys 46 and 47 . Key 46 is selected to cancel terminating the collaborative editing process.
  • a key 47 is selected to end the collaborative editing process. If the selection of the key 47 is not detected (S7: NO), the CPU 2 returns the process to S3. When the selection of the key 47 is detected (S7: NO), the CPU 2 of the terminal device 1A returns the process to S3. When the selection of the key 47 is detected (S7: YES), the CPU 2 of the terminal device 1A terminates the collaborative editing process (S8), and ends the invitation process.
  • the joint editing process of the terminal device 1 will be described with reference to FIGS. 3 to 5.
  • FIG. As an example, joint editing processing is performed on each of the terminal devices 1A to 1C, and based on the pointer 54 operated on the terminal device 1A, each of the terminal devices 1A to 1C performs processing corresponding to the operation of the pointer.
  • the CPU 2 of each terminal device 1 reads the display control program for executing the collaborative editing process from the storage unit 5 to the RAM 4 when detecting the start instruction to start the collaborative editing process. In addition to being output in S6, the start instruction is transmitted from the other terminal device 1 after the invitation notification from the other terminal device 1 is accepted.
  • the CPU 2 executes joint editing processing having the following steps according to instructions contained in the display control program read out to the RAM 4 .
  • the CPU 2 of each terminal device 1 displays the screen 25 of FIG. 3 on the display unit 9 (S11).
  • the CPU 2 of each terminal device 1 determines whether editing of the object is detected based on the detection signal of the input unit 10 (S12).
  • the user edits the object in the display area displayed in the field 42
  • the user selects any one of the icons 31 to 37 according to the contents of editing and then operates the field 42 .
  • the CPU 2 of each terminal device 1 detects a case where an operation in the column 42 is detected while any one of the icons 31 to 37 is selected as a case where the object is edited.
  • the terminal device 1A when the column 42 is operated during selection of the icon 35 and the input of the objects 55 to 58 shown in FIG.
  • the object information includes the type of object corresponding to the type of icon, the content of editing, and the editing position of the object with respect to the editing area 50 . Editing contents include addition, deletion, enlargement, reduction, rotation, and deformation of objects.
  • Object 55 is the alphabetic character "A”
  • object 56 is the alphabetic character "B”
  • object 57 is the alphabetic character "C”
  • object 58 is the alphabetic character "D”. be.
  • the CPU 2 of the terminal device 1A Based on the detected object information, the CPU 2 of the terminal device 1A performs object editing processing for reflecting the editing of the object in the editing area 50 and updating the field 42 (S15).
  • the CPU 2 of each terminal device 1 determines whether object information has been received from another terminal device 1 via the communication unit 6 (S14). In each of the terminal devices 1B and 1C, when object information is received from the terminal device 1A (S14: YES), the CPU 2 of each of the terminal devices 1B and 1C performs object editing processing based on the received object information ( S15). By the process of S15, in each of the terminal devices 1A to 1C, the editing result of the objects 55 to 58 input by the terminal device 1A is reflected in the editing area 50 of each terminal device 1, and the column 42 of each terminal device 1 is updated. be done.
  • the CPU 2 of each terminal device 1 determines whether an operation to change the display area is detected based on the detection signal of the input unit 10 (S16 ).
  • the user of each terminal device 1 can move the display area with respect to the editing area 50 by dragging the field 42 .
  • the user of each terminal device 1 can reduce the display area with respect to the editing area 50 by pinching in the column 42 and expand the display area with respect to the editing area 50 by pinching out.
  • the CPU 2 of each terminal device 1 changes the display area for the editing area 50 according to the detected operation to change the display area (S17). . As shown in FIG.
  • the editing area 50 is changed to the display area 51 in the terminal device 1A, the display area 52 in the terminal device 1B, and the display region 52 in the terminal device 1C.
  • the display area 53 is changed.
  • the CPU 2 of each terminal device 1 determines whether use of the pointer is detected based on the detection signal of the input unit 10 ( S18). Based on the detection signal of the input unit 10, the CPU 2 of each terminal device 1 determines that use of the pointer is detected when the operation of the column 42 is detected while the icon 38 is being selected. In a specific example, the use of the pointer 54 is detected in the terminal device 1A (S18: YES), and the CPU 2 of the terminal device 1A transmits the pointer information to the other terminal devices 1 being jointly edited, that is, the terminal devices 1B and 1C. (S19).
  • the pointer information includes identification information of the terminal device 1A and the position where the pointer 54 with respect to the editing area 50 is operated. Based on the operation of the pointer 54 detected based on the detection signal of the input unit 10, the CPU 2 of the terminal device 1A displays the pointer 54 in the display area 51 displayed in the column 42 of the terminal device 1A, like the image 71. Pointer display processing is performed (S27).
  • the CPU 2 of each terminal device 1 determines whether pointer information indicating the position of the pointer with respect to the editing area 50 has been received from another device via the communication unit 6 (S20 ). If the pointer information has not been received (S20: NO), the CPU 2 of each terminal device 1 performs the process of S28, which will be described later. Each of the CPUs 2 of the terminal devices 1B and 1C determines that the pointer information has been received from the terminal device 1A (S20: YES). Layout information indicating the layout of the display area to be displayed is acquired (S21).
  • the CPUs 2 of the terminal devices 1B and 1C determine whether the pointer 54 is within the display area based on the pointer information received in S20 and the arrangement information acquired in S21 (S22).
  • the CPU 2 of the terminal device 1B determines that the pointer 54 is within the display area 52 (S22: YES), and, like the image 72 shown in FIG.
  • Pointer display processing is performed to display the pointer 54 at the position indicated by the arrangement information (S27).
  • the CPU 2 of the terminal device 1C determines that the pointer 54 is not within the display area 53 (S22: NO), and acquires the display position of the mark according to the pointer information received from the terminal device 1A (S23).
  • the CPU 2 of each terminal device 1 in this example does not determine that the pointer 54 is within the display area 53
  • the line segment 61 connecting the position of the pointer 54 and the center 60 of the display area 53 and the outer edge of the display area 53 get the intersection point 64 of .
  • the CPU 2 of the terminal device 1C does not determine that the pointer 54 is within the display area 53 (S22: NO)
  • the mark 63 indicating that the pointer 54 is not within the display area 53 is displayed on the display unit 9 ( S24).
  • the CPU 2 of the terminal device 1C displays a mark 63 at the intersection point 64 obtained in S23, like an image 73 shown in FIG.
  • the mark 63 is a figure in which the pointer 54 is surrounded by a drop-shaped figure.
  • the positional relationship between the intersection point 64 and the mark 63 may be appropriately set, and in this example, the center of the mark 63 is the position of the intersection point 64 .
  • the direction of the tip of the drop-shaped graphic with respect to the center of the pointer 54 indicates the direction of the display position of the pointer 54 with respect to the display area 53 .
  • the CPU 2 of the terminal device 1C determines whether the mark 63 has been selected based on the output result of the input unit 10 (S25). Based on the output result of the input unit 10, the CPU 2 of the terminal device 1C determines that the mark 63 has been selected when an operation of touching the input unit 10 with the pointer for several seconds, that is, when a tap is detected. When the selection of the mark 63 is not detected (S25: NO), the CPU 2 of the terminal device 1C performs the processing of S28, which will be described later. When the CPU 2 of the terminal device 1C detects selection of the mark 63 via the input unit 10 (S25: YES), the terminal device 1C adjusts the position of the pointer 54 indicated by the pointer information received in S20 to be within the display area.
  • the layout of the display area with respect to the editing area 50 displayed on the display unit 9 of the device 1C is changed (S26).
  • the CPU 2 of the terminal device 1C of this example changes the arrangement of the display area with respect to the editing area 50 to the display area 62 arranged centering on the position of the pointer 54 indicated by the pointer information, as shown in the image 74 shown in FIG. (S26).
  • the CPU 2 of the terminal device 1C displays the pointer 54 at the position indicated by the pointer information within the display area 62 (S27).
  • the CPU 2 of each terminal device 1 determines whether an end instruction to end the collaborative editing process is detected via the input unit 10 (S28).
  • the termination instruction is output in S8 and also transmitted from another terminal device 1.
  • FIG. When the end instruction is not detected (S28: NO), the CPU 2 of each terminal device 1 returns the process to S12.
  • the end instruction is detected (S28: YES)
  • the CPU 2 of each terminal device 1 ends the joint editing (S29), and ends the joint editing process.
  • the terminal device 1, CPU 2, communication unit 6, display unit 9, and input unit 10 are examples of the terminal device, control unit, communication unit, display unit, and input unit of the present invention, respectively.
  • the process of S21 is an example of the placement acquisition process of the present invention.
  • the process of S20 is an example of the reception process of the present invention.
  • the processing of S22 is an example of the determination processing of the present invention.
  • the processing of S27 after S20 is an example of the first display processing of the present invention.
  • the processing of S24 is an example of the second display processing of the present invention.
  • the processing of S26 is an example of the change processing of the present invention.
  • the process of S23 is an example of the intersection acquisition process of the present invention.
  • the process of S26 of the joint editing process of the first modified example is executed by the terminal device 1C of the above specific example.
  • the CPU 2 of the terminal device 1C calculates a reduction ratio at which the position of the pointer 54 is within the display area, and reduces the display area at the calculated reduction ratio so that the pointer information is
  • the layout of the display area with respect to the editing area 50 is changed so that the position of the indicated pointer 54 is within the display area (S26).
  • the CPU 2 of the terminal device 1 ⁇ /b>C reduces the display area 53 to a display area 66 at a reduction rate such that the position of the pointer 54 is within the display area.
  • the process of S26 of the joint editing process of the first modified example is an example of the change process of the present invention.
  • the process of S26 of the joint editing process of the second modified example is executed by the terminal device 1C of the specific example of the above embodiment will be described as an example.
  • the CPU 2 of the terminal device 1C moves the display area of the editing area 50 from the display area 53 to the display area 65 so that the position of the pointer 54 is within the display area.
  • the arrangement of the display area with respect to the editing area 50 is changed (S26).
  • the process of S26 of the joint editing process of the second modified example is an example of the change process of the present invention.
  • the processes of S11 and S24 of the joint editing process of the third modified example are executed by the terminal device 1C of the specific example of the above embodiment.
  • the CPU 2 of the terminal device 1C displays the screen 81 in S11 (S11).
  • Screen 81 includes icons 26 through 41 and columns 43 and 44 .
  • Column 43 displays the names of the other users who are co-editing, namely User A and User B.
  • Column 44 displays display area 53 .
  • the CPU 2 of the terminal device 1C places a mark 49 indicating that the pointer 54 is not within the display area 53 to the right of the user A of the terminal device 1A who transmitted the pointer information among the users displayed in the column 43. (S24).
  • the process of S24 of the joint editing process of the third modified example is an example of the second display process of the present invention.
  • the collaborative editing process of the fourth modification receives operation information indicating the operation position and operation details for the editing area from the other device, and performs processing according to whether the operation position is within the display area.
  • the operation information is, for example, object information and pointer information.
  • the collaborative editing process of the fourth modification differs from the collaborative editing process of the above embodiment in that S31 to S33 are performed between S14 and S15 and S23 to S25 are omitted. A description of the same processing as in the above embodiment will be omitted, and processing different from the above embodiment will be described below. Collaborative editing processing in the terminal devices 1A to 1C is individually executed in each device, but for the sake of simplicity, it will be explained in parallel.
  • the CPU 2 of the terminal device 1A transmits the object information to the other terminal devices 1B and 1C being jointly edited (S13). Based on the object information, the CPU 2 of the terminal device 1A displays the object 96 within the display area 51 of the terminal device 1A in the column 42 of the display section 9, like the image 101 (S15).
  • the CPUs 2 of the terminal devices 1B and 1C which have received the object information from the terminal device 1A (S14: YES), acquire the arrangement information (S31) in the same manner as in S21.
  • Each of the CPUs 2 of the terminal devices 1B and 1C determines whether the object 96 has been edited within the display area based on the received object information (S32).
  • the CPU 2 of the terminal device 1B determines that the object 96 has been edited within the display area 52 of the terminal device 1B (S32: YES).
  • An object editing process is performed to display the object 96 in the display area 52 of (S15).
  • the CPU 2 of the terminal device 1C does not determine that the object 96 was edited within the display area 53 of the terminal device 1C (S32: NO), and the operation position indicated by the object information received in S14 is within the display area. , the layout of the display area with respect to the editing area 50 is changed (S33). For example, the CPU 2 of the terminal device 1C adjusts the arrangement of the display area with respect to the editing area 50 in at least one of the process of changing the reduction ratio of the display area with respect to the editing area 50 and the process of changing the position of the display area with respect to the editing area 50. change.
  • the CPU 2 of the terminal device 1C moves the display area from the display area 53 to the display area 67 with respect to the editing area 50 so that the center of the object 96 becomes the center of the display area 53, for example, as in the image 103. , the arrangement of the display area 53 with respect to the editing area 50 is changed. As shown in the image 103, the CPU 2 of the terminal device 1C performs object editing processing to display the object 96 in the display area 67 of the terminal device 1C based on the received object information (S15). As shown in FIG. 10, the column 42 of the screen 25 of the terminal device 1C is switched from the image 100 representing the display area 53 to the image 103 representing the display area 67 by the processes of S33 and S15.
  • the processing of S21 and S31 executed according to the display control program of the fourth modified example is an example of the layout acquisition processing of the present invention.
  • the processing of S20 and S14 is an example of the reception processing of the present invention.
  • the processing of S22 and S32 is an example of the determination processing of the present invention.
  • the processing of S27 after S20 and the processing of S15 after S14 are examples of the display processing of the present invention.
  • the processing of S26 and S33 is an example of the change processing of the present invention.
  • the terminal device 1 of the above embodiment includes a display unit 9 that displays images, a communication unit 6 that communicates with other terminal devices 1, and a CPU 2 that controls the display unit 9 and the communication unit 6. and
  • the display control program causes the CPU 2 of the terminal device 1 to perform layout acquisition processing (S21), reception processing (S20), determination processing (S22), first display processing (S27), and second display processing. It includes an instruction for executing the process (S24).
  • the CPU 2 acquires layout information indicating the layout of the display area displayed on the display unit 9 with respect to the editing area 50 shared with the other terminal device 1 .
  • the CPU 2 receives pointer information indicating the position of the pointer 54 with respect to the editing area 50 from the other device via the communication section 6 .
  • the CPU 2 judges whether the pointer 54 is within the display area based on the pointer information received in S20 and the arrangement information acquired in S21.
  • the CPU 2 displays the pointer 54 at the position indicated by the layout information within the display area.
  • the CPU 2 displays the mark 63 indicating that the pointer 54 is not within the display area on the display section 9.
  • the terminal device 1 executing the display control program can execute the first display process (S27) and the second display process (S24) according to the determination result in S22. Therefore, even if a different display area is displayed for each terminal device 1, the user C of the terminal device 1C can grasp whether or not the pointer 54 has been operated on the terminal device 1A from the mark 63 displayed in the second display process. can.
  • the CPU 2 of the terminal device 1C detects the selection of the mark 63 via the input unit 10 of the terminal device 1C according to the display control program (S25: YES), as shown in the image 74 of FIG.
  • a change process is executed to change the layout of the display area with respect to the editing area 50 so that the position of the pointer 54 indicated by is within the display area of the terminal device 1C (S26).
  • the display control program can reduce the effort of user C to change the display area to include the pointer 54 .
  • User C can confirm the pointer 54 displayed in the display area 62 whose arrangement has been changed.
  • the CPU 2 of the terminal device 1C changes the arrangement of the display area with respect to the editing area 50 to the display area 62 centered on the position of the pointer 54 indicated by the pointer information, as shown in the image 74 of FIG. change (S26).
  • the display control program can reduce the effort of user C to change the layout of the display area with respect to the editing area 50 so that the pointer 54 is at the center 60 of the display area 53 .
  • the display control program can make it easier for the user C to find the pointer 54 in the display area than when the position of the pointer 54 in the display area is not specified.
  • an intersection acquisition process for acquiring an intersection 64 with the outer edge of the display area 53 (S23).
  • the CPU 2 of the terminal device 1C displays a mark 63 at the intersection point 64 acquired in S23, as shown in the image 73 of FIG. 5 (S24).
  • the display control program can notify the user C of the direction of the position of the pointer 54 operated on the terminal device 1A with respect to the display area 53 by the display position of the mark 63 . Even when the user C manually changes the display area 53, the display position of the mark 63 can be used as a clue to efficiently change the display area so that the pointer 54 is arranged within the display area. can.
  • the CPU 2 of the terminal device 1C reduces the display area 53 at a reduction rate such that the position of the pointer 54 is within the display area, as in the specific example shown in FIG. It is set as the display area 66 (S26).
  • 1 C of terminal devices which perform the display control program of a 1st modification can reduce the effort of the user C who reduces a display area so that the pointer 54 may be in a display area.
  • the terminal device 1 of the fourth modified example has a display unit 9 that displays images, a communication unit 6 that communicates with other devices, and a CPU 2 that controls the display unit 9 and the communication unit 6 shown in FIG.
  • the CPU 2 of the terminal device 1 executes a display control program.
  • the CPU 2 of the terminal device 1 performs the layout acquisition processing (S21, S31), the reception processing (S14, S20), the determination processing (S32, S22), the display processing (S15) of the joint editing processing shown in FIG. , S27) and change processing (S32, S26).
  • the CPU 2 acquires layout information indicating the layout of the display area displayed on the display unit 9 with respect to the editing area 50 shared with the other terminal device 1 .
  • the CPU 2 receives operation information indicating the operation position and operation content for the editing area 50 from the other device via the communication unit 6 .
  • the CPU 2 determines whether the operation position is within the display area based on the received operation information and the acquired layout information (S32, S22).
  • the CPU 2 displays the operation content at the operation position indicated by the layout information within the display area.
  • the CPU 2 changes the display to the editing area 50 so that the operation position indicated by the operation information is within the display area.
  • the terminal device 1 that executes the display control program of the fourth modification can execute display processing and change processing according to the determination result of the determination processing. Therefore, in the specific example shown in FIG. 9, even if a different display area is displayed for each terminal device 1, the user C of the terminal device 1C can grasp the edit operation of the object on the terminal device 1A of the user A. In the specific example shown in FIG. 5, the user C of the terminal device 1C can grasp the operation of the pointer 54 on the terminal device 1A of the user A even if different display areas are displayed for each terminal device 1 .
  • the display control program of the present invention is not limited to the above-described embodiment, and various modifications may be made without departing from the gist of the present invention. For example, the following modifications may be added as appropriate.
  • the present invention can be implemented in various forms, and may be realized, for example, in the form of a non-transitory computer-readable medium storing a display control program, a display control method executed by the CPU 2 of the terminal device 1, and the like.
  • the configuration of the terminal device 1 may be changed as appropriate.
  • the display unit 9 of the terminal device 1 may display an image, and may be, for example, an organic EL display, a plasma display, a plasma tube array display, an electronic paper display using electrophoresis, or the like.
  • the input unit 10 of the terminal device 1 may be a keyboard, a mouse, a joystick, or the like, in addition to the touch panel.
  • Programs containing instructions for executing the processes of FIGS. 2, 4, and 8 may be stored in the storage device of each terminal device 1 by the time the CPU 2 executes the corresponding programs. Therefore, each of the program acquisition method, the acquisition route, and the device storing the program may be changed as appropriate.
  • a program executed by each terminal device 1 may be received from another device via cable or wireless communication and stored in a storage device such as a storage unit.
  • Other devices include, for example, PCs and servers connected via a network.
  • Each step of the joint editing process in FIGS. 4 and 8 is not limited to the example executed by the CPU 2, and may be partially or wholly executed by another electronic device (eg, ASIC).
  • Each step of the collaborative editing process may be distributed by multiple electronic devices (for example, multiple CPUs).
  • Each step of the collaborative editing process can be rearranged, omitted, or added as required. The following modifications may be made to the collaborative editing process as appropriate.
  • the layout of the screen displayed on the display unit 9, display items, etc. may be changed as appropriate.
  • the types of editable objects may be changed as appropriate.
  • the CPU 2 may omit the processing of S25 and S26 and be unable to detect the selection of the mark 63 .
  • the display position, shape, size, etc. of the mark 63 may be changed as appropriate.
  • the mark 63 may include information about the user of the terminal device 1 that has transmitted the pointer information, or may be a mark of a type that corresponds to the terminal device 1 that has transmitted the pointer information.
  • the mark 63 does not have to indicate the direction of the display position of the pointer 54 with respect to the display area 53 .
  • the positional relationship between the intersection point 64 and the mark 63 may be changed as appropriate.
  • the representative point of the mark 63 may be the intersection point 64 .
  • the representative point of the mark 63 is, for example, the tip of the mark 63 or the like.
  • the mark 63 may be arranged at a position that does not overlap with the intersection 64 and in the vicinity of the intersection 64 .
  • the area near the intersection point 64 may be appropriately determined in consideration of the size of the mark 63 and the size of the display area. is a region that satisfies
  • the CPU 2 may omit the processing of S25 and execute the processing of S26 after a predetermined period of time has passed since the mark 63 was displayed.
  • the CPU 2 may switch the layout of the display area with respect to the editing area 50 so that the position of the pointer indicated by the pointer information is within the display area.
  • the display area may be moved with respect to the editing area 50, or the display area may be reduced at a reduction rate such that the position of the pointer is within the display area.
  • the position of the pointer with respect to the display area displayed in S26 may be changed as appropriate.
  • the CPU 2 may change the arrangement of the display area with respect to the editing area 50 to a display area similar to that of the terminal device 1 of the user who transmitted the pointer information, or may change the display area to an initial state. .
  • the layout of the display area with respect to the editing area 50 may be set in advance, or may be selectable by the user. The above modifications may be combined as appropriate within a consistent range.
  • terminal device 2: CPU, 3: ROM, 4: RAM, 5: storage unit, 6: communication unit, 9: display unit, 10: input unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)

Abstract

端末装置ごとに異なる表示領域が表示される場合でも、表示領域外での他装置による操作をユーザが把握可能な表示制御プログラムを提供すること。端末装置は、表示部、通信部、及び制御部を有する。表示制御プログラムに従い制御部は、他装置との間で共有する編集領域に対する、表示部に表示される表示領域の配置を示す配置情報を取得し(S21)、通信部を介し、他装置から編集領域に対するポインタの位置を示すポインタ情報を受信し(S20)、受信されたポインタ情報と、取得された配置情報とに基づき、ポインタが表示領域内にあるかを判断し(S22)、ポインタが表示領域内にあると判断された場合、表示領域内の配置情報が示す位置にポインタを表示し(S27)、ポインタが表示領域内にあると判断されない場合、ポインタが表示領域内にないことを示すマークを表示部に表示する(S24)。

Description

表示制御プログラム
 本発明は、表示制御プログラムに関する。
 従来の表示制御プログラムは、通信回線を介して接続された複数の端末装置の間で、複数のウィンドウの内の、同一のウィンドウを共有、表示して共同編集を行う際に、ポインタの移動を制御する。具体的には、端末装置は、表示制御プログラムに従い、端末装置の表示部に表示されているポインタが共有中のウィンドウの枠外にあった場合、ポインタと、複数のウィンドウの各々の距離の変化から移動先ウィンドウを決定する。端末装置は、移動先ウィンドウの情報を含むポインタデータを他の端末装置に送信する。ポインタデータを受信した端末装置は、ポインタデータに基づいて、移動先ウィンドウに向かって相手側のポインタを移動させる。
特開2010-224872号公報
 複数の端末装置の間で共同編集を実行中に、端末装置は、他装置とは異なる表示領域を表示可能である。従来の表示制御プログラムに従ってポインタを制御する端末装置では、ユーザは、他装置から通知されるポインタの位置が自身の端末装置の表示領域外にある場合、他装置でポインタを操作されていることがわからない。
 本発明の目的は、端末装置ごとに異なる表示領域が表示される場合でも、表示領域外での他装置による操作をユーザが把握可能な表示制御プログラムを提供することである。
 第一態様の表示制御プログラムは、画像を表示する表示部と、他装置と通信を行う通信部と、前記表示部及び前記通信部を制御する制御部とを有する端末装置の前記制御部によって実行される表示制御プログラムであって、前記制御部に、前記他装置との間で共有する編集領域に対する、前記表示部に表示される表示領域の配置を示す配置情報を取得する配置取得処理と、前記通信部を介し、前記他装置から前記編集領域に対するポインタの位置を示すポインタ情報を受信する受信処理と、受信された前記ポインタ情報と、取得された前記配置情報とに基づき、前記ポインタが、前記表示領域内にあるかを判断する判断処理と、前記ポインタが前記表示領域内にあると判断された場合に、前記表示領域内の前記配置情報が示す前記位置に前記ポインタを表示する第一表示処理と、前記ポインタが前記表示領域内にあると判断されない場合に、前記ポインタが前記表示領域内にないことを示すマークを、前記表示部に表示する第二表示処理とを実行させるための指示を含む。第一態様の表示制御プログラムを実行する端末装置は、判断処理での判断結果に応じて第一表示処理と、第二表示処理とを実行できる。故に、端末装置のユーザは、端末装置ごとに異なる表示領域が表示される場合でも、第二表示処理で表示されるマークにより、他装置でのポインタの操作の有無を把握できる。
 第二態様の表示制御プログラムは、画像を表示する表示部と、他装置と通信を行う通信部と、前記表示部及び前記通信部を制御する制御部とを有する端末装置の前記制御部によって実行される表示制御プログラムであって、前記制御部に、前記他装置との間で共有する編集領域に対する、前記表示部に表示される表示領域の配置を示す配置情報を取得する配置取得処理と、前記通信部を介し、前記他装置から前記編集領域に対する操作位置と操作内容とを示す操作情報を受信する受信処理と、受信された前記操作情報と、取得された前記配置情報とに基づき、前記操作位置が、前記表示領域内にあるかを判断する判断処理と、前記操作位置が前記表示領域内にあると判断された場合に、前記表示領域内の前記配置情報が示す前記操作位置に前記操作内容に応じた表示をする表示処理と、前記操作位置が前記表示領域内にあると判断されない場合に、前記操作情報が示す前記操作位置が前記表示領域内となるように、前記編集領域に対する前記表示領域の前記配置を変更し、前記配置情報が示す前記操作位置に前記操作内容に応じた表示をする変更処理とを実行させるための指示を含む。第二態様の表示制御プログラムを実行する端末装置は、判断処理での判断結果に応じて表示処理と、変更処理とを実行できる。故に、端末装置のユーザは、端末装置ごとに異なる表示領域が表示される場合でも、変更処理で編集領域に対する表示領域が変更され、操作位置に操作内容に応じた表示がされることにより、他装置での操作を把握できる。
端末装置1Aから1Cを備えるシステム15の説明図である。 招待処理のフローチャートである。 共同編集開始画面21、共同編集画面25、及び共同編集終了画面45の説明図である。 共同編集処理のフローチャートである。 編集領域50に対する表示領域51から53が異なる状態で、ポインタ54が操作された場合の処理の説明図である。 第一、第二変形例において、編集領域50に対する表示領域51から53が異なる状態で、ポインタ54が操作された場合の処理の説明図である。 第三変形例において、編集領域50に対する表示領域51から53が異なる状態で、ポインタ54が操作された場合の処理の説明図である。 第四変形例の共同編集処理のフローチャートである。 編集領域50に対する表示領域51から53が異なる状態で、オブジェクト96が操作された場合の処理の説明図である。 第四変形例の共同編集処理において、端末装置1Cで表示される画面25の欄42が画像100から画像103に切り替えられる処理の説明図である。
 本開示の実施形態を、図面を参照して説明する。図1に示すように、システム15は、端末装置1Aから1Cを備える。システム15では、端末装置1Aから1Cの各々で、後述の表示制御プログラムが実行されることで、通信回線を介して接続された端末装置1Aから1Cの間で、同一のウィンドウを共有、表示して共同編集が実行できる。端末装置1Aから1Cは各々、携帯電話(例えばスマートフォン)、PDA、及びタブレットPC等の可搬型の端末装置である。端末装置1AはユーザAにより操作され、端末装置1BはユーザBにより操作され、端末装置1CはユーザCにより操作される。以下では、端末装置1Aから1Cを区別しない時には、端末装置1ともいう。
 各端末装置1は、CPU2、ROM3、RAM4、記憶部5、通信部6、入出力インターフェイス(I/O)7、表示部9、及び入力部10を備える。CPU2はバス8を介して、ROM3、RAM4、記憶部5、通信部6、及びI/O7と接続されている。CPU2は、端末装置1の制御を司る。ROM3には、ブートプログラム及びBIOS等が記憶される。RAM4には、一時的なデータが記憶される。記憶部5には、各種設定値が記憶される。通信部6は、ネットワーク11に接続するためのインターフェイスである。CPU2は、通信部6と、アクセスポイント12とを介して、ネットワーク11に接続する他の端末装置1とデータの送受信を実行できる。I/O7には、表示部9及び入力部10が接続されている。表示部9は、画像を表示可能であり、例えば、液晶ディスプレイである。入力部10は、表示部9の表面に設けられたタッチパネルであり、スタイラスペン14及び指等の指示体の位置に応じた検出信号を出力する。
 図2及び図3を参照して、各端末装置1で実行可能な招待処理を説明する。招待処理では、他の端末装置1のユーザを共同編集のメンバーに加え、共同編集を開始する処理と、共同編集を終了する処置とが実行される。一例として、ユーザAの端末装置1Aで招待処理が実行され、ユーザB及びCを共同編集のメンバーに加える場合について説明する。CPU2は、招待処理を開始する指示を検出した時に、招待処理を実行するためのプログラムを記憶部5からRAM4に読み出す。CPU2は、RAM4に読み出したプログラムに含まれる指示に従って、以下のステップを有する招待処理を実行する。招待処理の過程で得られた各種データは、適宜RAM4に記憶される。以下、ステップをSと略記する。
 図2に示すように、端末装置1AのCPU2は、表示部9に図3に示す共同編集開始画面21(以下、単に画面21という。)を表示する(S2)。図3に示すように、画面21は、キー22から24を表示する。キー22は、共同編集処理の開始をキャンセルする場合に選択される。キー23は、共同編集処理の開始を指示する場合に選択される。キー24は、共同編集のメンバーとして、他の端末装置1のユーザを追加する場合に選択される。CPU2は、入力部10の検出信号に基づき、キー24の選択が検出されたかを判断する(S3)。キー24の選択が検出されない場合(S3:NO)、CPU2は、後述のS5の処理を行う。
 ユーザAは、キー24を選択してユーザB及びCの各々を共同編集のメンバーに追加する指示を入力する。キー24の選択が検出された場合(S3:YES)、CPU2は、通信部6を介し、選択されたメンバーの端末装置1に、共同編集への招待通知を出力する(S4)。図示しないが、招待通知を受信した端末装置1B及び1Cでは各々、端末装置1Aから送信された共同編集への招待を受諾するか拒否するかを選択する画面が表示される。端末装置1B及び1Cでは各々、受諾が選択された場合には、受諾通知が端末装置1Aに送信され、拒否が選択された場合には、拒否通知が端末装置1Aに送信される。端末装置1AのCPU2は、通信部6を介し、受諾通知を受信したかを判断する(S5)。受諾通知が受信された場合(S5:YES)、端末装置1AのCPU2は、後述の共同編集処理を起動し、表示部9に、図3に示す共同編集画面25(以下、単に画面25という。)を表示する(S6)。
 画面25は、アイコン26から41及び欄42を表示する。アイコン26は、表示画面の切替を指示する場合に選択される。アイコン27は、編集領域に対する表示領域を初期状態に戻す場合に選択される。本例の初期状態は、編集領域全体が表示領域に含まれる状態である。アイコン28は、一つ前の操作に戻す場合に選択される。アイコン29は、一つ後の操作をやり直す場合に選択される。アイコン30は、編集領域の内容を出力する場合に選択される。アイコン31は、表示領域にペンでストロークを追加する場合に選択される。アイコン32は、表示領域のオブジェクトを削除する場合に選択される。アイコン33は、表示領域にマーカーでストロークを追加する場合に選択される。アイコン34は、表示領域のオブジェクトを選択する場合に選択される。アイコン35は、表示領域に文字を挿入する場合に選択される。アイコン36は、表示領域に図形を追加する場合に選択される。アイコン37は、表示領域にファイル、図形、写真等を追加する場合に選択される。アイコン38は、ポインタを操作する場合に選択される。アイコン39から41は、アイコン36が選択された場合に、表示領域に挿入可能な図形を示す。アイコン39は、表示領域に矩形を追加する場合に選択される。アイコン40は、表示領域に円を追加する場合に選択される。アイコン41は、表示領域に三角形を追加する場合に選択される。アイコン38の右方に表示されるアイコンは、アイコン31から38の内の選択されたアイコンに応じて変更される。欄42は、編集領域のうちの表示領域を表示する。
 受諾通知が受信されない場合(S5:NO)、又はS6の次に、端末装置1AのCPU2は、終了指示を検出したかを判断する(S7)。終了指示は、アイコン26が選択された後、「共同編集を終了」を選択された場合に表示される共同編集終了画面45(以下、単に画面45という。)から入力される。終了指示は、共同編集中の他の端末装置1から受信されてもよい。画面45は、キー46、47を表示する。キー46は、共同編集処理を終了することをキャンセルする場合に選択される。キー47は、共同編集処理を終了する場合に選択される。キー47の選択が検出されない場合(S7:NO)、CPU2は、処理をS3に戻す。キー47の選択が検出された場合(S7:NO)、端末装置1AのCPU2は、処理をS3に戻す。キー47の選択が検出された場合(S7:YES)、端末装置1AのCPU2は、共同編集処理を終了させ(S8)、以上で招待処理を終了する。
 図3から図5を参照して、端末装置1の共同編集処理を説明する。一例として、端末装置1Aから1Cの各々で共同編集処理が実行され、端末装置1Aで操作されたポインタ54に基づき、端末装置1Aから1Cの各々でポインタの操作に応じた処理が実行される場合について説明する。各端末装置1のCPU2は、共同編集処理を開始する開始指示を検出した時に、共同編集処理を実行するための表示制御プログラムを記憶部5からRAM4に読み出す。開始指示は、S6で出力される他、他の端末装置1からの招待通知を受諾した後、他の端末装置1から送信される。CPU2は、RAM4に読み出した表示制御プログラムに含まれる指示に従って、以下のステップを有する共同編集処理を実行する。共同編集処理の過程で得られた各種データは、適宜RAM4に記憶される。以下、ステップをSと略記する。端末装置1Aから1Cでの共同編集処理は各々、各装置で個別に実行されるが、説明を簡単にするために、並列に説明する。
 図4に示すように、各端末装置1のCPU2は、表示部9に図3の画面25を表示する(S11)。各端末装置1のCPU2は、入力部10の検出信号に基づき、オブジェクトの編集が検出されたかを判断する(S12)。ユーザは、欄42に表示された表示領域のオブジェクトを編集する場合に、編集内容に応じてアイコン31から37の何れかを選択した上で、欄42を操作する。各端末装置1のCPU2は、アイコン31から37の何れかが選択された状態で、欄42の操作を検出した場合を、オブジェクトが編集された場合として検出する。端末装置1Aにおいて、アイコン35の選択中に、欄42が操作され、図5に示すオブジェクト55から58の入力が検出された場合(S12:YES)、端末装置1AのCPU2は、オブジェクト情報を、共同編集中の他の端末装置1、つまり、端末装置1B及び1Cに送信する(S13)。オブジェクト情報は、アイコンの種類に応じたオブジェクトの種類、編集内容、及び編集領域50に対するオブジェクトの編集位置を含む。編集内容は、オブジェクトの追加、削除、拡大、縮小、回転、及び変形を含む。オブジェクト55は、アルファベット文字の「A」であり、オブジェクト56は、アルファベット文字の「B」であり、オブジェクト57は、アルファベット文字の「C」であり、オブジェクト58は、アルファベット文字の「D」である。端末装置1AのCPU2は、検出されたオブジェクト情報に基づき、編集領域50にオブジェクトの編集を反映し、欄42を更新するオブジェクト編集処理を行う(S15)。
 オブジェクトの編集が検出されない場合(S12:NO)、各端末装置1のCPU2は、通信部6を介して、他の端末装置1からオブジェクト情報を受信したかを判断する(S14)。端末装置1B及び1Cとの各々において、端末装置1Aからオブジェクト情報が受信された場合(S14:YES)、端末装置1B及び1CのCPU2は各々、受信されたオブジェクト情報に基づきオブジェクト編集処理を行う(S15)。S15の処理により、端末装置1Aから1Cの各々において、端末装置1Aで入力されたオブジェクト55から58の編集結果が各端末装置1の編集領域50に反映され、各端末装置1の欄42が更新される。
 オブジェクト情報が受信されない場合(S14:NO)、又はS15の次に、各端末装置1のCPU2は、入力部10の検出信号に基づき、表示領域を変更する操作を検出するかを判断する(S16)。各端末装置1のユーザは、欄42でドラッグすることで、編集領域50に対して表示領域を移動できる。各端末装置1のユーザは、欄42でピンチインすることで、編集領域50に対し表示領域を縮小し、ピンチアウトすることで、編集領域50に対し表示領域を拡大できる。表示領域を変更する操作が検出された場合(S16:YES)、各端末装置1のCPU2は、検出された表示領域を変更する操作に応じて、編集領域50に対する表示領域を変更する(S17)。図5に示すように、具体例では、S16、S17の処理により、編集領域50に対し、端末装置1Aでは表示領域51に変更され、端末装置1Bでは表示領域52に変更され、端末装置1Cでは表示領域53に変更される。
 表示領域を変更する操作が検出されない場合(S16:NO)、又はS17の次に、各端末装置1のCPU2は、入力部10の検出信号に基づき、ポインタの利用を検出したかを判断する(S18)。各端末装置1のCPU2は、入力部10の検出信号に基づき、アイコン38の選択中に、欄42の操作が検出された場合にポインタの利用を検出したと判断する。具体例では端末装置1Aにおいて、ポインタ54の利用が検出され(S18:YES)、端末装置1AのCPU2は、ポインタ情報を、共同編集中の他の端末装置1、つまり、端末装置1B及び1Cとの各々に送信する(S19)。ポインタ情報は、端末装置1Aの識別情報と、編集領域50に対するポインタ54が操作された位置とを含む。端末装置1AのCPU2は、入力部10の検出信号に基づき検出されたポインタ54の操作に基づき、画像71のように、端末装置1Aの欄42に表示された表示領域51にポインタ54を表示するポインタ表示処理を行う(S27)。
 ポインタの利用が検出されない場合(S18:NO)、各端末装置1のCPU2は、通信部6を介し、他装置から編集領域50に対するポインタの位置を示すポインタ情報を受信したかを判断する(S20)。ポインタ情報が受信されていない場合(S20:NO)、各端末装置1のCPU2は後述のS28の処理を行う。端末装置1B及び1CのCPU2は各々、端末装置1Aからポインタ情報を受信したと判断し(S20:YES)、他の端末装置1との間で共有する編集領域50に対する、表示部9に表示される表示領域の配置を示す配置情報を取得する(S21)。端末装置1B及び1CのCPU2は、S20で受信されたポインタ情報と、S21で取得された配置情報とに基づき、ポインタ54が、表示領域内にあるかを判断する(S22)。端末装置1BのCPU2は、ポインタ54が表示領域52内にあると判断し(S22:YES)、図5に示す画像72のように、端末装置1Bの欄42に表示された表示領域52内の配置情報が示す位置にポインタ54を表示するポインタ表示処理を行う(S27)。
 端末装置1CのCPU2は、ポインタ54が表示領域53内にはないと判断し(S22:NO)、端末装置1Aから受信されたポインタ情報に応じたマークの表示位置を取得する(S23)。本例の各端末装置1のCPU2は、ポインタ54が、表示領域53内にあると判断されない場合、ポインタ54の位置及び表示領域53の中心60を結ぶ線分61と、表示領域53の外縁との交点64を取得する。端末装置1CのCPU2は、ポインタ54が表示領域53内にあると判断されない場合に(S22:NO)、ポインタ54が表示領域53内にないことを示すマーク63を、表示部9に表示する(S24)。端末装置1CのCPU2は、図5に示す画像73のように、S23で取得された交点64にマーク63を表示する。マーク63は、ポインタ54を雫状の図形で囲んだ図形である。交点64とマーク63との位置関係は適宜設定されればよく、本例では、マーク63の中心が、交点64となる位置である。ポインタ54の中心に対する雫状の図形の先端部の向き(左やや上方)は、表示領域53に対するポインタ54の表示位置の方角を示す。
 端末装置1CのCPU2は、入力部10の出力結果に基づき、マーク63が選択されたかを判断する(S25)。端末装置1CのCPU2は、入力部10の出力結果に基づき、入力部10に指示体が数秒間接触する操作、つまり、タップが検出された場合に、マーク63が選択されたと判断する。マーク63の選択が検出されていない場合(S25:NO)、端末装置1CのCPU2は、後述のS28の処理を行う。端末装置1CのCPU2は、入力部10を介し、マーク63の選択を検出した場合(S25:YES)、S20で受信されたポインタ情報が示すポインタ54の位置が表示領域内となるように、端末装置1Cの表示部9に表示される、編集領域50に対する表示領域の配置を変更する(S26)。本例の端末装置1CのCPU2は、図5に示す画像74に示すように、ポインタ情報が示すポインタ54の位置を中心とする配置の表示領域62に、編集領域50に対する表示領域の配置を変更する(S26)。端末装置1CのCPU2は、表示領域62内のポインタ情報が示す位置にポインタ54を表示する(S27)。
 S27の次に、各端末装置1のCPU2は、入力部10を介し、共同編集処理を終了する終了指示を検出したかを判断する(S28)。終了指示は、S8で出力される他、他の端末装置1から送信される。終了指示が検出されていない場合(S28:NO)、各端末装置1のCPU2は、処理をS12に戻す。終了指示が検出された場合(S28:YES)、各端末装置1のCPU2は、共同編集を終了し(S29)、以上で共同編集処理を終了する。
 上記実施形態において、端末装置1、CPU2、通信部6、表示部9、及び入力部10は各々、本発明の端末装置、制御部、通信部、表示部、及び入力部の一例である。S21の処理は、本発明の配置取得処理の一例である。S20の処理は、本発明の受信処理の一例である。S22の処理は、本発明の判断処理の一例である。S20の後のS27の処理は、本発明の第一表示処理の一例である。S24の処理は本発明の第二表示処理の一例である。S26の処理は、本発明の変更処理の一例である。S23の処理は、本発明の交点取得処理の一例である。
 図6を参照して、第一変形例の共同編集処理のS26の処理が、上記具体例の端末装置1Cで実行される場合を例に説明する。第一変形例の共同編集処理では、端末装置1CのCPU2は、ポインタ54の位置が表示領域内となる縮小率を算出し、算出された縮小率で表示領域を縮小することで、ポインタ情報が示すポインタ54の位置が表示領域内となるように、編集領域50に対する表示領域の配置を変更する(S26)。具体的には、端末装置1CのCPU2は、ポインタ54の位置が表示領域内となる縮小率で表示領域53を縮小して、表示領域66とする。第一変形例の共同編集処理のS26の処理は、本発明の変更処理の一例である。
 図6を参照して、第二変形例の共同編集処理のS26の処理を、上記実施形態の具体例の端末装置1Cで実行される場合を例に説明する。第二変形例の共同編集処理では、端末装置1CのCPU2は、ポインタ54の位置が表示領域内となるように、編集領域50に対して表示領域を表示領域53から表示領域65に移動させて、編集領域50に対する表示領域の配置を変更する(S26)。第二変形例の共同編集処理のS26の処理は、本発明の変更処理の一例である。
 図7を参照して、第三変形例の共同編集処理のS11、S24の処理が、上記実施形態の具体例の端末装置1Cで実行される場合を例に説明する。第三変形例の共同編集処理では、端末装置1CのCPU2は、S11で画面81を表示する(S11)。画面81は、アイコン26から41、欄43、44を含む。欄43は、共同編集中の他のユーザ名、つまり、ユーザAと、ユーザBとを表示する。欄44は、表示領域53を表示する。S24では端末装置1CのCPU2は、ポインタ54が表示領域53内にないことを示すマーク49を、欄43に表示されたユーザのうちの、ポインタ情報を送信した端末装置1AのユーザAの右隣りに表示する(S24)。第三変形例の共同編集処理のS24の処理は本発明の第二表示処理の一例である。
 図8及び図9を参照して、第四変形例の表示制御プログラムに従って実行される共同編集処理を、端末装置1Aから1Cの各々で実行される場合を例に説明する。第四変形例の共同編集処理は、他装置から編集領域に対する操作位置と操作内容とを示す操作情報を受信し、操作位置が表示領域内にあるかに応じた処理を行う。操作情報は、一例として、オブジェクト情報及びポインタ情報である。第四変形例の共同編集処理は、S14とS15との間にS31からS33を行い、S23からS25を省略する点で、上記実施形態の共同編集処理と互いに異なる。上記実施形態と同様な処理については説明を省略し、以下、上記実施形態と異なる処理について説明する。端末装置1Aから1Cでの共同編集処理は各々、各装置で個別に実行されるが、説明を簡単にするために、並列に説明する。
 図9の具体例において、端末装置1Aで、アイコン36、40が選択された状態で欄42が操作され、円状のオブジェクト96が、オブジェクト55とオブジェクト56との間に配置された場合(S12:YES)、端末装置1AのCPU2は、オブジェクト情報を、共同編集中の他の端末装置1B及び1Cに送信する(S13)。端末装置1AのCPU2は、オブジェクト情報に基づき、画像101のように、端末装置1Aの表示領域51内にオブジェクト96を表示部9の欄42に表示する(S15)。端末装置1Aからオブジェクト情報を受信した、端末装置1B及び1CのCPU2は各々(S14:YES)、S21と同様に配置情報を取得する(S31)。端末装置1B及び1CのCPU2は各々、受信されたオブジェクト情報に基づき、オブジェクト96の編集が表示領域内で行われたかを判断する(S32)。端末装置1BのCPU2は、オブジェクト96の編集が端末装置1Bの表示領域52内で行われたと判断し(S32:YES)、画像102に示すように、受信されたオブジェクト情報に基づき、端末装置1Bの表示領域52内にオブジェクト96を表示するオブジェクト編集処置を行う(S15)。
 端末装置1CのCPU2は、オブジェクト96の編集は端末装置1Cの表示領域53内で行われたと判断せず(S32:NO)、S14で受信されたオブジェクト情報が示す操作位置が表示領域内となるように、編集領域50に対する表示領域の配置を変更する(S33)。端末装置1CのCPU2は、例えば、編集領域50に対する表示領域の縮小率を変更する処理、及び編集領域50に対する表示領域の位置を変更する処理の少なくとも何れかで編集領域50に対する表示領域の配置を変更する。端末装置1CのCPU2は、例えば、画像103のように、オブジェクト96の中心が表示領域53の中心となる位置に、編集領域50に対して表示領域を表示領域53から表示領域67に移動することで、編集領域50に対する表示領域53の配置を変更する。端末装置1CのCPU2は、画像103に示すように、受信されたオブジェクト情報に基づき、端末装置1Cの表示領域67内にオブジェクト96を表示するオブジェクト編集処置を行う(S15)。図10に示すように、S33及びS15の処理により、端末装置1Cの画面25の欄42は、表示領域53を表す画像100から、表示領域67を表す画像103に切り替えられる。
 図5の具体例の表示領域53を欄42に表示中の端末装置1CのCPU2が、ポインタ54のポインタ情報を端末装置1Aから受信した場合(S20:YES)、端末装置1CのCPU2は、ポインタ54は表示領域53にないと判断し(S22:NO)、マーク63を表示せずに、図5の画像74に示すように、S20で受信されたポインタ情報が示すポインタ54の位置が表示領域内となるように、編集領域50に対する表示領域の配置を変更する(S26)。端末装置1CのCPU2は、変更された表示領域62内のポインタ情報が示す位置にポインタ54を表示する(S27)。
 第四変形例の表示制御プログラムに従って実行されるS21、S31の処理は、本発明の配置取得処理の一例である。S20、S14の処理は、本発明の受信処理の一例である。S22、S32の処理は、本発明の判断処理の一例である。S20の後のS27の処理、S14の後のS15の処理は、本発明の表示処理の一例である。S26、S33の処理は本発明の変更処理の一例である。
 上記実施形態の端末装置1は、図1に示すように、画像を表示する表示部9と、他の端末装置1と通信を行う通信部6と、表示部9及び通信部6を制御するCPU2とを有する。図4に示すように、表示制御プログラムは、端末装置1のCPU2に、配置取得処理(S21)、受信処理(S20)、判断処理(S22)、第一表示処理(S27)、及び第二表示処理(S24)を実行させるための指示を含む。CPU2は、配置取得処理では、他の端末装置1との間で共有する編集領域50に対する、表示部9に表示される表示領域の配置を示す配置情報を取得する。CPU2は、受信処理において、通信部6を介し、他装置から編集領域50に対するポインタ54の位置を示すポインタ情報を受信する。CPU2は、判断処理において、S20で受信されたポインタ情報と、S21で取得された配置情報とに基づき、ポインタ54が、表示領域内にあるかを判断する。CPU2は、第一表示処理では、ポインタ54が表示領域内にあると判断された場合に(S22:YES)、表示領域内の配置情報が示す位置にポインタ54を表示する。CPU2は、第二表示処理では、ポインタ54が表示領域内にあると判断されない場合に(S22:NO)、ポインタ54が表示領域内にないことを示すマーク63を、表示部9に表示する。表示制御プログラムを実行する端末装置1は、S22での判断結果に応じて第一表示処理(S27)と、第二表示処理(S24)とを実行できる。故に、端末装置1CのユーザCは、端末装置1ごとに異なる表示領域が表示される場合でも、第二表示処理で表示されるマーク63により、端末装置1Aでのポインタ54の操作の有無を把握できる。
 端末装置1CのCPU2は、表示制御プログラムに従い、端末装置1Cが備える入力部10を介し、マーク63の選択を検出した場合に(S25:YES)、図5の画像74に示すように、ポインタ情報が示すポインタ54の位置が端末装置1Cの表示領域内となるように、編集領域50に対する表示領域の配置を変更する変更処理を実行する(S26)。表示制御プログラムは、ポインタ54を含むように表示領域を変更するユーザCの手間を軽減できる。ユーザCは、配置が変更された表示領域62内に表示されたポインタ54を確認できる。
 端末装置1CのCPU2は、変更処理において、図5の画像74に示すように、ポインタ情報が示すポインタ54の位置を中心とする配置である表示領域62に、編集領域50に対する表示領域の配置を変更する(S26)。表示制御プログラムは、ポインタ54が表示領域53の中心60になるように、編集領域50に対する表示領域の配置を変更するユーザCの手間を軽減できる。表示制御プログラムは、表示領域内のポインタ54の位置が特定されていない場合に比べ、ユーザCが表示領域からポインタ54を見つけやすくできる。
 端末装置1CのCPU2は、ポインタ54が、表示領域内にあると判断されない場合(S22:NO)、図5に示すように、ポインタ54の位置及び表示領域53の中心60を結ぶ線分61と、表示領域53の外縁との交点64を取得する交点取得処理を行う(S23)。端末装置1CのCPU2は、図5の画像73に示すように、S23で取得された交点64にマーク63を表示する(S24)。表示制御プログラムは、マーク63の表示位置により、表示領域53に対する、端末装置1Aで操作されたポインタ54の位置の方向をユーザCに通知できる。ユーザCは、表示領域53を手動で変更する場合にも、マーク63の表示位置を手掛かりに、表示領域内にポインタ54が配置されるように表示領域を変更する操作を効率的に行うことができる。
 第一変形例において、端末装置1CのCPU2は、S26の変更処理において、図6に示す具体例のように、ポインタ54の位置が表示領域内となる縮小率で表示領域53を縮小して、表示領域66とする(S26)。第一変形例の表示制御プログラムを行う端末装置1Cは、ポインタ54が表示領域内になるように表示領域を縮小するユーザCの手間を軽減できる。
 第四変形例の端末装置1は、図1に示す、画像を表示する表示部9と、他装置と通信を行う通信部6と、表示部9及び通信部6を制御するCPU2とを有する。端末装置1のCPU2は、表示制御プログラムを行う。端末装置1のCPU2は、表示制御プログラムに従い、図8に示す共同編集処理の、配置取得処理(S21、S31)、受信処理(S14、S20)、判断処理(S32、S22)、表示処理(S15、S27)、変更処理(S32、S26)の各々を行う。CPU2は、配置取得処理では、他の端末装置1との間で共有する編集領域50に対する、表示部9に表示される表示領域の配置を示す配置情報を取得する。CPU2は、受信処理では、通信部6を介し、他装置から編集領域50に対する操作位置と操作内容とを示す操作情報を受信する。CPU2は、判断処理では、受信された操作情報と、取得された配置情報とに基づき、操作位置が、表示領域内にあるかを判断する(S32、S22)。CPU2は、表示処理では、操作位置が表示領域内にあると判断された場合に(S32:YES、S22:YES)、表示領域内の配置情報が示す操作位置に操作内容に応じた表示をする。CPU2は、変更処理では、操作位置が表示領域内にあると判断されない場合に(S32:NO、S22:NO)、操作情報が示す操作位置が表示領域内となるように、編集領域50に対する表示領域の配置を変更し、配置情報が示す操作位置に操作内容に応じた表示をする。第四変形例の表示制御プログラムを実行する端末装置1は、判断処理での判断結果に応じて表示処理と、変更処理とを実行できる。故に、図9に示す具体例において、端末装置1CのユーザCは、端末装置1ごとに異なる表示領域が表示される場合でも、ユーザAの端末装置1Aでのオブジェクトの編集操作を把握できる。図5に示す具体例において、端末装置1CのユーザCは、端末装置1ごとに異なる表示領域が表示される場合でも、ユーザAの端末装置1Aでのポインタ54の操作を把握できる。
 本発明の表示制御プログラムは、上記した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更が加えられてもよい。例えば、以下の変形が適宜加えられてもよい。本発明は種々の態様で実行可能であり、例えば、表示制御プログラムを記憶した非一時的コンピュータ可読媒体、及び端末装置1のCPU2により実行される表示制御方法等の形態で実現されてもよい。
 端末装置1の構成は適宜変更してよい。端末装置1の表示部9は、画像を表示可能であればよく、例えば、有機ELディスプレイ、プラズマディスプレイ、プラズマチューブアレイディスプレイ、電気泳動等を利用した電子ペーパーディスプレイ等でもよい。端末装置1の入力部10は、タッチパネルの他、キーボード、マウス、及びジョイスティック等でもよい。
 図2、図4、及び図8の処理を実行させるための指令を含むプログラムは、CPU2が、対応するプログラムを実行するまでに、各端末装置1の記憶機器に記憶されればよい。従って、プログラムの取得方法、取得経路及びプログラムを記憶する機器の各々は、適宜変更してもよい。各端末装置1が実行するプログラムは、ケーブル又は無線通信を介して、他の装置から受信し、記憶部等の記憶装置に記憶されてもよい。他の装置は、例えば、PC、及びネットワーク網を介して接続されるサーバを含む。
 図4及び図8の共同編集処理の各ステップは、CPU2によって実行される例に限定されず、一部又は全部が他の電子機器(例えば、ASIC)によって実行されてもよい。共同編集処理の各ステップは、複数の電子機器(例えば、複数のCPU)によって分散処理されてもよい。共同編集処理の各ステップは、必要に応じて順序の変更、ステップの省略、及び追加が可能である。共同編集処理に、以下の変更が適宜加えられてもよい。
 表示部9に表示される画面のレイアウト、及び表示項目等は適宜変更されてよい。編集可能なオブジェクトの種類は適宜変更されてよい。CPU2は、S25、S26の処理を省略し、マーク63の選択を検出不能でもよい。マーク63の表示位置、形状、大きさ等は、適宜変更されてよい。マーク63は、ポインタ情報を送信した端末装置1のユーザの情報を含んでもよいし、ポインタ情報を送信した端末装置1に応じた種類のマークであってもよい。マーク63は、表示領域53に対するポインタ54の表示位置の方角を示さなくてもよい。交点64とマーク63との位置関係は適宜変更されてよく、例えば、マーク63の代表点が、交点64となる位置でもよい。マーク63の代表点は、例えば、マーク63の先端等である。マーク63は、交点64と重ならない位置、且つ、交点64の近傍領域に配置されてもよい。交点64の近傍領域は、マーク63の大きさと、表示領域の大きさとを考慮して適宜定められればよく、例えば、交点64とマーク63との最短距離が、マーク63の最大径よりも小さい条件を満たす領域である。CPU2は、S25の処理を省略し、マーク63を表示してから所定時間経過後に、S26の処理を実行してもよい。CPU2は、マーク63の選択を検出した場合に(S25:YES)、CPU2は、ポインタ情報が示すポインタの位置が表示領域内となるように、編集領域50に対する表示領域の配置を切り替えてもよいし、編集領域50に対して表示領域を移動させてもよいし、ポインタの位置が表示領域内となる縮小率で表示領域を縮小してもよい。S26で表示される表示領域に対するポインタの位置は適宜変更されてよい。CPU2は、S26で、編集領域50に対する表示領域の配置を、ポインタ情報を送信したユーザの端末装置1と同様の表示領域に変更してもよいし、初期状態の表示領域に変更してもよい。S26で、編集領域50に対する表示領域の配置は、予め設定されていてもよいし、ユーザが選択可能であってもよい。上記変形例は、矛盾のない範囲で適宜組み合わされてもよい。
 1:端末装置、2:CPU、3:ROM、4:RAM、5:記憶部、6:通信部、9:表示部、10:入力部

Claims (6)

  1.  画像を表示する表示部と、他装置と通信を行う通信部と、前記表示部及び前記通信部を制御する制御部とを有する端末装置の前記制御部によって実行される表示制御プログラムであって、
     前記制御部に、
      前記他装置との間で共有する編集領域に対する、前記表示部に表示される表示領域の配置を示す配置情報を取得する配置取得処理と、
      前記通信部を介し、前記他装置から前記編集領域に対するポインタの位置を示すポインタ情報を受信する受信処理と、
      受信された前記ポインタ情報と、取得された前記配置情報とに基づき、前記ポインタが、前記表示領域内にあるかを判断する判断処理と、
      前記ポインタが前記表示領域内にあると判断された場合に、前記表示領域内の前記配置情報が示す前記位置に前記ポインタを表示する第一表示処理と、
      前記ポインタが前記表示領域内にあると判断されない場合に、前記ポインタが前記表示領域内にないことを示すマークを、前記表示部に表示する第二表示処理と
    を実行させるための指示を含むことを特徴とする表示制御プログラム。
  2.  前記制御部に、前記端末装置が備える入力部を介し、前記マークの選択を検出した場合に、前記ポインタ情報が示す前記ポインタの前記位置が前記表示領域内となるように、前記編集領域に対する前記表示領域の前記配置を変更する変更処理を実行させるための指示を更に含むことを特徴とする請求項1に記載の表示制御プログラム。
  3.  前記制御部は、前記変更処理において、前記ポインタ情報が示す前記ポインタの前記位置を中心とする配置に、前記編集領域に対する前記表示領域の前記配置を変更することを特徴とする請求項2に記載の表示制御プログラム。
  4.  前記制御部は、
      前記ポインタが、前記表示領域内にあると判断されない場合、前記ポインタの前記位置及び前記表示領域の中心を結ぶ線分と、前記表示領域の外縁との交点を取得する交点取得処理を実行する指示を更に含み、
    前記第二表示処理において、取得された前記交点に前記マークを表示することを特徴とする請求項1から3の何れかに記載の表示制御プログラム。
  5.  前記制御部は、前記変更処理において、前記ポインタの前記位置が前記表示領域内となる縮小率で前記表示領域を縮小することを特徴とする請求項2に記載の表示制御プログラム。
  6.  画像を表示する表示部と、他装置と通信を行う通信部と、前記表示部及び前記通信部を制御する制御部とを有する端末装置の前記制御部によって実行される表示制御プログラムであって、
     前記制御部に、
      前記他装置との間で共有する編集領域に対する、前記表示部に表示される表示領域の配置を示す配置情報を取得する配置取得処理と、
      前記通信部を介し、前記他装置から前記編集領域に対する操作位置と操作内容とを示す操作情報を受信する受信処理と、
      受信された前記操作情報と、取得された前記配置情報とに基づき、前記操作位置が、前記表示領域内にあるかを判断する判断処理と、
      前記操作位置が前記表示領域内にあると判断された場合に、前記表示領域内の前記配置情報が示す前記操作位置に前記操作内容に応じた表示をする表示処理と、
      前記操作位置が前記表示領域内にあると判断されない場合に、前記操作情報が示す前記操作位置が前記表示領域内となるように、前記編集領域に対する前記表示領域の前記配置を変更し、前記配置情報が示す前記操作位置に前記操作内容に応じた表示をする変更処理と
    を実行させるための指示を含むことを特徴とする表示制御プログラム。
PCT/JP2022/032195 2021-09-07 2022-08-26 表示制御プログラム WO2023037907A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021145308A JP2023038531A (ja) 2021-09-07 2021-09-07 表示制御プログラム
JP2021-145308 2021-09-07

Publications (1)

Publication Number Publication Date
WO2023037907A1 true WO2023037907A1 (ja) 2023-03-16

Family

ID=85506557

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/032195 WO2023037907A1 (ja) 2021-09-07 2022-08-26 表示制御プログラム

Country Status (2)

Country Link
JP (1) JP2023038531A (ja)
WO (1) WO2023037907A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086049A (ja) * 2007-09-27 2009-04-23 Brother Ind Ltd 画像投影システム及びプログラム
JP2009186827A (ja) * 2008-02-07 2009-08-20 Brother Ind Ltd プロジェクタシステム及びプロジェクタ
JP2013125526A (ja) * 2011-12-16 2013-06-24 Canon Inc 画像表示装置、その制御方法及びプログラム
JP2014026413A (ja) * 2012-07-26 2014-02-06 Fujitsu Ten Ltd 電子装置、通信システム、携帯通信端末、通信方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086049A (ja) * 2007-09-27 2009-04-23 Brother Ind Ltd 画像投影システム及びプログラム
JP2009186827A (ja) * 2008-02-07 2009-08-20 Brother Ind Ltd プロジェクタシステム及びプロジェクタ
JP2013125526A (ja) * 2011-12-16 2013-06-24 Canon Inc 画像表示装置、その制御方法及びプログラム
JP2014026413A (ja) * 2012-07-26 2014-02-06 Fujitsu Ten Ltd 電子装置、通信システム、携帯通信端末、通信方法及びプログラム

Also Published As

Publication number Publication date
JP2023038531A (ja) 2023-03-17

Similar Documents

Publication Publication Date Title
KR100823083B1 (ko) 터치스크린을 구비한 문서 표시장치의 문서 교정 방법 및그 장치
US9671952B2 (en) Function execution program, terminal device, function execution method, recording medium and information processing system
JP5001182B2 (ja) 表示制御装置、電子機器、表示制御方法、およびプログラム
KR102091235B1 (ko) 휴대 단말기에서 메시지를 편집하는 장치 및 방법
US8300017B2 (en) Mobile electronic apparatus with touch input device and display method using the same
US20170123592A1 (en) Input device, input assistance method and program
EP2306154A2 (en) Navigation device and program
US20180121076A1 (en) Drawing processing method, drawing program, and drawing device
JP2012088801A (ja) 電子ブック装置、および電子ブックプログラム
CN103140826A (zh) 信息终端装置以及触控面板的显示方法
JP2014182588A (ja) 情報端末、操作領域制御方法及び操作領域制御プログラム
JP5388385B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JPWO2009022671A1 (ja) 接触型入力装置、接触型入力方法及びプログラム
EP2458481A1 (en) Input control apparatus
JP5429726B1 (ja) 住所入力プログラム、住所入力装置
KR101354841B1 (ko) 터치 스크린을 구비한 전자 기기 및 그 입력처리 방법
US10303346B2 (en) Information processing apparatus, non-transitory computer readable storage medium, and information display method
WO2023037907A1 (ja) 表示制御プログラム
JP6284426B2 (ja) 経路出力装置及び経路出力方法
JP5414920B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JP2022179604A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6722239B2 (ja) 情報処理装置、入力方法及びプログラム
JP2001195170A (ja) 携帯型電子機器、入力制御装置、及び記憶媒体
JP2015158759A (ja) 機能選択実行装置、機能選択実行方法及び機能選択実行プログラム
JP6421604B2 (ja) 情報処理装置、記録システム、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22867229

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE