WO2024084923A1 - 表示プログラム及び表示方法 - Google Patents

表示プログラム及び表示方法 Download PDF

Info

Publication number
WO2024084923A1
WO2024084923A1 PCT/JP2023/035650 JP2023035650W WO2024084923A1 WO 2024084923 A1 WO2024084923 A1 WO 2024084923A1 JP 2023035650 W JP2023035650 W JP 2023035650W WO 2024084923 A1 WO2024084923 A1 WO 2024084923A1
Authority
WO
WIPO (PCT)
Prior art keywords
border
color
display
displayed
image
Prior art date
Application number
PCT/JP2023/035650
Other languages
English (en)
French (fr)
Inventor
来造 小坂
雄磨 上田
敏雅 藤尾
Original Assignee
ブラザー工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブラザー工業株式会社 filed Critical ブラザー工業株式会社
Publication of WO2024084923A1 publication Critical patent/WO2024084923A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns

Definitions

  • the present invention relates to a display program and a display method.
  • Patent Document 1 discloses a tele-writing device that displays revised information input from each of multiple terminals on a common screen.
  • the tele-writing device colors each of the multiple pieces of revised information displayed on the common screen in a different color depending on the terminal on which the revised information was input. This allows the user to identify the revised information displayed on the common screen for each terminal on which it was input.
  • the color of the retouched information displayed on the common screen may be changed from the color of the retouched information at the time of input.
  • the user may not be able to recognize the object in the color it had at the time of input.
  • the object of the present invention is to provide a display program and a display method that can display objects with good reproducibility while allowing a user to identify the attributes of the objects.
  • the display program according to the first aspect of the present invention is a program to be executed by a computer having a display and a touch panel provided on the surface of the display, and executes an association step of associating an object inputted via the touch panel and displayed on the screen of the display with an attribute related to the input of the object, a first determination step of determining a border color indicating the color of a border image displayed around the object on the screen for each of the attributes, and a display step of displaying on the screen the border image indicated with the border color corresponding to the attribute of the object displayed on the screen.
  • the computer can display a border image on the screen while maintaining the appearance of the object. Since the border color of the border image is determined for each attribute of the object, the computer can display the object on the screen with good reproducibility while allowing the user to distinguish the attributes of the object.
  • the display method is characterized by comprising an association step of associating an object displayed on a display screen with an attribute related to input of the object, a first determination step of determining a border color indicating the color of a border image displayed around the object on the screen for each of the attributes, and a display step of displaying on the screen the border image indicated with the border color corresponding to the attribute of the object displayed on the screen.
  • an association step of associating an object displayed on a display screen with an attribute related to input of the object a first determination step of determining a border color indicating the color of a border image displayed around the object on the screen for each of the attributes
  • a display step of displaying on the screen the border image indicated with the border color corresponding to the attribute of the object displayed on the screen According to the second aspect, the same effect as the first aspect is achieved.
  • FIG. 1 is a diagram showing an overview of a system 1 and the electrical configuration of a server 2 and a client 3.
  • FIG. FIG. 13 is a diagram showing screen 8 (page 81, menu bar 82).
  • FIG. 8 shows screen 8 (page 81, menu bar 82, account list 83, before account selection).
  • FIG. 8 shows screen 8 (page 81, menu bar 82, account list 83, after account selection).
  • FIG. 13 is a diagram showing an object table.
  • FIG. 13 is a diagram showing a border image table.
  • 13 is a flowchart showing a first display process.
  • 13 is a flowchart showing a second display process.
  • 13 is a flowchart showing a border display process.
  • 10 is a flowchart showing the border display process, which is a continuation of FIG. 9 .
  • the system 1 has a server 2 and clients 3A, 3B, and 3C (hereinafter collectively referred to as "clients 3").
  • the server 2 is communicatively connected to an access point 9A via a network line 9.
  • the client 3 is communicatively connected to the access point 9A wirelessly.
  • the server 2 and the client 3 can communicate with each other via the network line 9 and the access point 9A.
  • the client 3 is a well-known tablet terminal.
  • the server 2 has a CPU 21, a memory unit 22, and a communication interface (I/F) 23.
  • the CPU 21 is responsible for the overall control of the server 2.
  • the memory unit 22 stores programs and the like to be executed by the CPU 21.
  • the communication I/F 23 is a communication module for communicating with the client 3 via the network line 9 and the access point 9A.
  • the client 3 has a CPU 31, a memory unit 32, a display unit 33, an input unit 34, and a communication I/F 35.
  • the CPU 31 is responsible for the overall control of the client 3.
  • the memory unit 32 stores a display program executed by the CPU 31, object data, an object table (see FIG. 5) described below, and a border image table (see FIG. 6) described below.
  • the display unit 33 is a liquid crystal display.
  • the input unit 34 is a touch panel provided on the surface of the display unit 33.
  • the communication I/F 35 is a communication module for communicating with the server 2 via the network line 9 and the access point 9A.
  • client 3A the user of client 3A
  • user 4B The user of client 3B
  • user 4C The user of client 3C
  • Users 4A to 4C will be collectively referred to as "user 4.”
  • ⁇ Sharing screen 8> The users 4 operate their own clients 3 and launch a shared application using their own accounts. When the shared application is launched, a screen 8 is displayed on the display unit 33 of the client 3. The screen 8 is shared between the clients 3. Objects that the users 4 have input to the client 3 via the input unit 34 are displayed on the screen 8.
  • the objects include line drawings handwritten with a stylus pen or a finger, text entered by typing, imported still images, moving images, and the like.
  • the client 3 When an object is input via the input unit 34, the client 3 displays the input object on the screen 8 and simultaneously transmits data of the input object to the server 2 via the network line 9 and access point 9A. The client 3 also receives data of an object input to another client 3 from the server 2 via the network line 9 and access point 9A, and displays the object on the screen 8. As a result, the objects input to each of the clients 3A to 3C are displayed on the screens 8 of the clients 3A to 3C, respectively. As a result, the object is shared between the users 4A to 4C.
  • FIG. 2 shows a specific example of a screen 8 displayed on the display unit 33 of the client 3A.
  • the screen 8 includes a page 81 and a menu bar 82.
  • Page 81 is a rectangular display area in which objects are displayed.
  • line drawing objects 71, 72, and 73, still image object 74, and text object 75 are displayed on page 81.
  • objects 71, 72, and 74 are objects that user 4A input into client 3A using his or her own account.
  • Objects 73 and 75 are objects that user 4B input into client 3B using his or her own account.
  • objects 71 to 75 are collectively referred to as "object 7.”
  • the account used when inputting object 7 is referred to as the "account used.”
  • the menu bar 82 displays a number of icons for operating the screen 8.
  • the icons include an account list display icon 82A, a magnification icon 82B, an upload icon 82C, a handwriting tool icon 82D, and a text input icon 82E.
  • the account list display icon 82A is used to switch between displaying and not displaying a list of accounts using the object 7 displayed on the page 81 (account list 83, see FIG. 3).
  • the magnification icon 82B is used to enlarge or reduce the page 81.
  • the upload icon 82C is used to upload a still image or video object 7.
  • the handwriting tool icon 82D is used to input a line drawing object 7.
  • the text input icon 82E is used to input a text object 7.
  • FIG. 3 shows a specific example of screen 8 when the account list display icon 82A on menu bar 82 is touched in the state shown in FIG. 2.
  • screen 8 is displayed that includes an account list 83 in addition to page 81 and menu bar 82.
  • the account list 83 includes the accounts being used that are displayed on page 81.
  • "kawashima" in account list 83 indicates the account of user 4A
  • "kaigawa” indicates the account of user 4B.
  • a mark 83B is displayed to the left of the accounts of users 4A and 4B.
  • the touched use account is selected individually. Also, by touching the link 83A displayed at the bottom of the account list 83, all of the use accounts in the account list 83 are selected at once.
  • the object 7 input using the selected use account among the objects 7 on the page 81 is displayed in a manner distinguished from the other objects 7. Specifically, this is as follows.
  • FIG. 4 shows a specific example of screen 8 when the operation of touching link 83A in account list 83 shown in FIG. 3 is performed.
  • link 83A By selecting link 83A, all of the available accounts “kawashima” and “kaigawa” included in account list 83 are selected. Note that a check mark is displayed to the right of the selected account in account list 83.
  • Page 81 shown in FIG. 4 differs from page 81 in FIG. 2 and FIG. 3 in that yellow border images 6A (61A, 62A, 64A) are displayed in association with objects 71, 72, 74 input using the selected account "kawashima”, and purple border images 6B (63B, 65B) are displayed in association with objects 73, 75 input using the selected account "kaigawa”.
  • border images 6A, 6B are collectively referred to as "border image 6".
  • the border image 6 is displayed around the outline of the object 7.
  • the display area of the page 81 in which the object 7 is displayed is called the "object area.”
  • the display area of the page 81 in which the border image 6 is displayed is called the "border area.” More specifically, the border area does not overlap with the object area and is in contact with the periphery of the object area. There is no gap between the object area and the border area.
  • border color The color of the border image 6 (hereinafter referred to as the "border color"), the border area, and the transparency indicating the transparency of the border image 6 are determined according to the account used by the object 7, the type of object 7, the magnification of the page 81 set via the magnification icon 82B, the size of the object area, and the transparency of the object 7. Details will be described later.
  • a yellow border image 61A having a thickness W61 is displayed around a line drawing object 71.
  • a purple border image 63B having a thickness W63 is displayed around a line drawing object 73.
  • a description of the border image 62A displayed around a line drawing object 72 is omitted. In this way, when the object 7 is a line drawing, the border area is positioned along the contour of the line drawing.
  • still image object 74 is displayed inside rectangular window 74A, and a yellow border image 64A having a thickness W64 is displayed around window 74A.
  • rectangular area 75A is defined as the input range for text object 75, and a purple border image 65A having a thickness W65 is displayed around rectangular area 75A.
  • the border area is positioned along the periphery of a rectangular object area that is defined in advance according to the type of object 7.
  • border image 6 displayed in the border area surrounding the object 7 will be referred to as the "border image 6 of the object 7.”
  • the border color of the border image 6 is determined so as to satisfy all of the following conditions (1) to (4).
  • (1) The border color of the border image 6 is common to each account using the object 7 on which the border image 6 is displayed.
  • the border color of the border image 6 of each object 7 differs for each account.
  • (3) The object color of the object 7 and the border color of the border image 6 of the object 7 are different.
  • the border area in which the border image 6 is displayed is determined by specifying the thickness of the border image 6 based on the following conditions (a) and (b).
  • the border region is determined such that the thicker the line drawing, the thicker the border image 6.
  • the border region is determined such that the thicker the border image 6, the larger the area of the object region of the object 7.
  • the border area is determined such that the larger the magnification ratio set by touching the magnification ratio icon 82B on the menu bar 82, the smaller the thickness of the border image 6 becomes.
  • the average value of the thickness determined based on each of the conditions (a) and (b) is specified as the thickness of the border image 6, and the border area in which this border image 6 is displayed is determined.
  • the method of determining the border area based on each of the conditions (a) and (b) is not limited to the above method.
  • the transparency which indicates the transparency of the border image 6 of the object 7, which is a line drawing, is determined to be a value greater than the transparency of the object 7. Note that the greater the transparency, the easier it is to see through the border image 6, so the border image 6 will always be more see-through than the object 7.
  • the transparency of the border image 6 of an object 7, whether it be text, a still image, or a moving image is always determined to be 0%. Therefore, the border image 6 of an object 7, whether it be text, a still image, or a moving image, is always opaque.
  • ⁇ Object table> 5 shows a specific example of an object table stored in the storage unit 32 of the client 3 A.
  • the object table stores the account used, the object color, and the transparency in association with each object 7.
  • the account used indicates the account used by the corresponding object 7.
  • the object color indicates the color of the line drawing when the corresponding object 7 is a line drawing.
  • the transparency indicates the transparency of the border image 6 when the corresponding object 7 is a line drawing. Note that if the corresponding object 7 is text, a still image, or a moving image, the object color and transparency are not associated with the object 7.
  • the CPU 31 of the client 3A displays the object 7 on the page 81 of the screen 8 based on the data of the object 7 stored in the memory unit 32 and the object table.
  • objects 71, 72, and 74 are input to client 3A.
  • CPU 31 of client 3A stores the data of input objects 71, 72, and 74 in storage unit 32.
  • CPU 31 of client 3A also extracts object color and transparency from the data of line drawing objects 71 and 72, and stores them in the object table in association with objects 71 and 72.
  • CPU 31 of client 3A stores the accounts used by objects 71, 72, and 74 in the object table in association with objects 71, 72, and 74.
  • CPU 31 of client 3B transmits the input data of objects 73 and 75 and the accounts used for objects 73 and 75 to server 2.
  • CPU 21 of server 2 transmits the data of objects 73 and 75 and the accounts used received from client 3B to client 3A.
  • CPU 31 of client 3A receives the data of objects 73 and 75 from server 2 and stores them in storage unit 32.
  • CPU 31 of client 3A also extracts object color and transparency from the data of line drawing object 73, and stores them in the object table in association with object 73.
  • CPU 31 of client 3A stores the accounts used received from server 2 in the object table in association with objects 73 and 75.
  • ⁇ Border image table> 6 shows a specific example of a border image table stored in the storage unit 32 of the client 3A.
  • the border image table stores a border color, a border area, and a transparency in association with each object 7.
  • the border color and the transparency indicate the color and transparency of the border image 6 of the corresponding object 7.
  • the border area indicates the display area in which the border image 6 is displayed by the thickness of the border image 6.
  • the CPU 31 of the client 3A displays the border image 6 on the page 81 of the screen 8 based on the border image table (see FIG. 4).
  • the CPU 31 of the client 3A determines a border color that satisfies all of the conditions (1) to (4).
  • the CPU 31 associates the determined border color with the object 7 and stores it in the border image table.
  • the CPU 31 determines a border area and transparency that satisfy the conditions (a) and (b).
  • the CPU 31 stores the determined border area and transparency in the border image table in association with the object 7.
  • the user 4 inputs an operation to launch a shared application using his/her own account to the client 3.
  • the CPU 31 of the client 3 detects this operation, it causes the display unit 33 to display the screen 8. Thereafter, when the CPU 31 detects an operation of touching the magnification icon 82B, it enlarges or reduces the display of the page 81 on the screen 8.
  • the CPU 31 stores the magnification of the page 81 after the enlargement or reduction in the storage unit 32.
  • the CPU 31 displays the screen 8 on the display unit 33 in response to an operation to launch the shared application, it reads out and executes a display program stored in the storage unit 32 to start the first display process (see FIG. 7) and the second display process (see FIG. 8 to FIG. 10).
  • the first display process and the second display process are executed in parallel. The following description is based on the assumption that the first display process and the second display process are executed by the CPU 31 of the client 3A.
  • the CPU 31 of the client 3A determines whether an object 7 has been input to the client 3 by an operation on the menu bar 82 displayed on the display unit 33 (S11).
  • the CPU 31 detects an operation of touching the upload icon 82C, the handwriting tool icon 82D, and the text input icon 82E on the menu bar 82, it determines that an object 7 has been input to the client 3 (S11: YES).
  • the CPU 31 stores the input object 7 data in the storage unit 32 (S13).
  • the CPU 31 also extracts the object color and transparency from the data of the line drawing object 7 among the input objects 7.
  • the CPU 31 stores the extracted object color and transparency in the object table in association with the line drawing object 7 (S13).
  • the CPU 31 acquires the account used when starting the shared application as the account in use.
  • the CPU 31 stores the acquired account in association with the input object 7 in the object table (S13).
  • the CPU 31 transmits the input data of the object 7 to the server 2 via the network line 9 and the access point 9A (S15).
  • the CPU 31 also transmits the account used when starting the shared application to the server 2 via the network line 9 and the access point 9A as the account used (S15).
  • the CPU 31 advances the process to S21.
  • the CPU 21 of the server 2 receives the object 7 data and the account used sent from the client 3A.
  • the CPU 21 transmits the received object 7 data and the account used to the clients 3B and 3C.
  • the CPU 21 also receives the object 7 data and the account used sent from the clients 3B and 3C.
  • the CPU 21 transmits the received object 7 data and the account used to the client 3A.
  • the CPU 31 determines whether an object 7 has not been input to the client 3 (S11: NO), it determines whether it has received the object 7 data and the account used transmitted from the server 2 (S17). If the CPU 31 determines that the object 7 data and the account used have been received (S17: YES), it stores the received object 7 data in the storage unit 32 (S19). The CPU 31 also extracts the object color and transparency from the line drawing object 7 data among the received object 7 data. The CPU 31 stores the extracted object color and transparency in the object table in association with the received line drawing object 7 (S19). Furthermore, the CPU 31 stores the received account used in the object table in association with the received object 7 (S19). The CPU 31 proceeds to the process at S21.
  • the CPU 31 displays the object 7 on the page 81 of the screen 8 based on the data of the object 7 stored in the storage unit 32 by S13 and S19, and the object table (S21). The CPU 31 returns the process to S11.
  • the second display process will be described with reference to FIG. 8.
  • the CPU 31 of the client 3A determines whether an operation of touching the account list display icon 82A has been detected (S31). If the CPU 31 determines that an operation of touching the account list display icon 82A has not been detected (S31: NO), the process returns to S31. If the CPU 31 determines that an operation of touching the account list display icon 82A has been detected (S31: YES), the process proceeds to S33.
  • the CPU 31 refers to the object table (see FIG. 5) stored in the memory unit 32.
  • the CPU 31 acquires the object color for each account used (S33). For example, when the object table shown in FIG. 5 is referenced, black (object 71) and red (object 72) are acquired as the object colors corresponding to the account used by user 4A, "kawashima,” and green (object 73) is acquired as the object color corresponding to the account used by user 4B, "kaigawa.”
  • the CPU 31 determines the border color of the border image 6 so as to satisfy all of the conditions (1) to (4) (S35).
  • the CPU 31 associates the determined border color with the object 7 and stores it in the border image table. For example, if the object color has been obtained in S33 based on the object table shown in FIG. 5, the border color is determined as follows.
  • a common border color is determined as the border color of the border images 6 of objects 71, 72, and 74 input by user 4A using the account “kawashima.” Also, a common border color is determined as the border color of the border images 6 of objects 73 and 75 input by user 4B using the account “kaigawa.”
  • the border color of the border images 6 of objects 71, 72, and 74 (using the account “kawashima") is referred to as the "first border color”
  • the border color of the border images 6 of objects 73 and 75 is referred to as the "second border color.”
  • the first border color and the second border color are determined so that they are different from each other.
  • the first border color is determined to be a color different from both the object color of object 71 (black) and the object color of object 72 (red). Therefore, the first border color is determined to be a color other than black and red.
  • the second border color is determined to be a color different from the object color of object 73 (green). Therefore, the second border color is determined to be a color other than green.
  • the first and second border colors are determined so that the combination of the first border color and the object color of object 71 (black) "first border color/black,” the combination of the first border color and the object color of object 72 (red) "first border color/red,” and the combination of the second border color and the object color of object 73 (green) "second border color/green” are all different. Therefore, the first border color is determined to be a color other than green, and the second border color is determined to be a color other than black and red.
  • yellow is determined as the first border color and purple is determined as the second border color. Therefore, for example, as shown in FIG. 6, yellow is stored in the border image table as the border color for objects 71, 72, and 74 entered using the account "kawashima.” Also, purple is stored in the border image table as the border color for objects 73 and 75 entered using the account "kaigawa.”
  • the CPU 31 displays a mark 83B (see FIG. 3) in the border color determined in S35 to the left of the account in the account list 83 (S37).
  • a mark 83B in yellow determined as the first border color
  • a mark 83B in purple is displayed to the left of the account in the account list 83, "kaigawa” (see FIG. 3).
  • the CPU 31 determines whether it has detected an operation to select a use account from the account list 83 displayed in response to the operation of touching the account list display icon 82A (S39).
  • the operation of selecting a use account from the account list 83 includes an operation of individually selecting each use account in the account list 83 by touching them, and an operation of selecting all use accounts by touching the link 83A displayed at the bottom of the account list 83.
  • S39: YES If an operation to select a use account has been performed (S39: YES), the CPU 31 executes a border display process (see FIG. 9) (S41).
  • the selected use account is referred to as the "target account.” After completing the border display process (S41), the CPU 31 returns the process to S39.
  • the border display process will be described with reference to FIG. 9.
  • the CPU 31 acquires the magnification stored in the memory unit 32 in response to the operation of touching the magnification icon 82B (S51).
  • the CPU 31 acquires the border color for each object 7 (hereinafter referred to as the "target object") input using the target account by referencing the border image table (see FIG. 6) stored in the memory unit 32 (S53).
  • the CPU 31 determines whether the line drawing target object is displayed on the page 81 by S21 (see FIG. 7) (S55). If the CPU 31 determines that the line drawing target object is not displayed on the page 81 (S55: NO), the CPU 31 advances the process to S81 (see FIG. 10).
  • the CPU 31 determines that a line drawing target object is displayed on page 81 (S55: YES), it selects one of the line drawing target objects displayed on page 81 (S57).
  • the CPU 31 references the data of the selected target object from the data of objects 7 stored in the memory unit 32, and acquires the thickness of the selected line drawing (S59).
  • the CPU 31 specifies the thickness of the border image 6 so as to satisfy conditions (a) and (b), and determines a border area in which the border image 6 of the specified thickness is to be displayed (S61).
  • the CPU 31 associates the determined border area (thickness of the border image 6) with the target object selected in S57, and stores it in the border image table.
  • the CPU 31 refers to the object table stored in the memory unit 32 and obtains the transparency associated with the target object of the line drawing selected in S57 (S63).
  • the CPU 31 determines the transparency of the border image 6 of the selected target object of the line drawing to be a value greater than the obtained transparency (S65).
  • the CPU 31 stores the determined transparency in the border image table in association with the target object selected in S57.
  • the CPU 31 refers to the border image table stored in the memory unit 32 and acquires the border color, border area (thickness of the border image 6), and transparency of the border image 6.
  • the CPU 31 displays the border image 6 indicated by the acquired border color and transparency in the acquired border area (S67).
  • the border image 6 of the line drawing target object selected in S57 from among the target objects displayed on the page 81 is displayed in the border area.
  • the CPU 31 advances the process to S69.
  • the CPU 31 determines whether all of the target objects of the line drawings displayed on page 81 have been selected in S57 (S69). If the CPU 31 determines that all of the target objects of the line drawings displayed on page 81 have not been selected in S57 (S69: NO), the process returns to S57. The CPU 31 selects one target object that has not yet been selected from among the target objects of the line drawings displayed on page 81 (S57), and repeats the processes of S59 to S67. If the CPU 31 determines that all of the target objects of the line drawings displayed on page 81 have been selected in S57 (S69: YES), the process proceeds to S81 (see FIG. 10).
  • the CPU 31 determines whether any of the target objects, namely, text, still image, and moving image, is displayed on the page 81 by S21 (see FIG. 7) (S81). If the CPU 31 determines that none of the target objects, namely, text, still image, and moving image, is displayed on the page 81 (S81: NO), the CPU 31 ends the border display process and returns the process to the second display process (see FIG. 8).
  • the CPU 31 determines that a target object of any of text, still image, and moving image is displayed on the page 81 (S81: YES)
  • the CPU 31 selects one of the target objects of any of text, still image, and moving image displayed on the page 81 (S83).
  • the CPU 31 references the data of the selected target object from the data of the object 7 stored in the storage unit 32, and obtains the area of the object region of the selected target object of any of text, still image, and moving image (S85).
  • the CPU 31 specifies the thickness of the border image 6 that satisfies the conditions (a) and (b) based on the magnification obtained in S51 (see FIG.
  • the CPU 31 stores the determined border region (thickness of the border image 6) in the border image table in association with the target object selected in S83.
  • the CPU 31 determines the transparency of the border image 6 of the selected line drawing target object to be 0% (S89).
  • the CPU 31 associates the determined transparency with the selected target object and stores it in the border image table.
  • the CPU 31 refers to the border image table stored in the memory unit 32 and acquires the border color, border area (thickness of the border image 6), and transparency of the border image 6.
  • the CPU 31 displays the border image 6 indicated by the acquired border color and transparency in the acquired border area (S91).
  • This displays the border image 6 of the target object, either text, still image, or moving image selected in S83 from among the target objects displayed on the page 81.
  • the CPU 31 advances the process to S93.
  • the CPU 31 determines whether all of the target objects among the still images, moving images, and text displayed on the page 81 have been selected in S83 (S93). If the CPU 31 determines that all of the target objects among the still images, moving images, and text displayed on the page 81 have not been selected in S83 (S93: NO), the process returns to S83.
  • the CPU 31 selects one target object that has not yet been selected among the target objects among the still images, moving images, and text displayed on the page 81 (S83), and repeats the processes of S85 to S91. If the CPU 31 determines that all of the target objects among the still images, moving images, and text displayed on the page 81 have been selected in S83 (S93: YES), the border display process ends, and the process returns to the second display process (see FIG. 8).
  • the CPU 31 determines whether it has detected an operation of selecting a used account from the account list 83 (S39: NO). If the CPU 31 determines that it has not detected an operation of touching the account list display icon 82A again (S43: NO), it returns the process to S39. If the CPU 31 determines that it has detected an operation of touching the account list display icon 82A again (S43: YES), it cancels the display of the account list 83 from the screen 8, and returns the process to S31.
  • the client 3 can display the border image 6 on the display unit 33 while maintaining the appearance of the object 7.
  • the border color of the border image 6 is determined for each account used for the object 7 (conditions (1) and (2)). This allows the client 3 to display the object 7 on the display unit 33 with good reproducibility while allowing the user 4 to identify the account used for the object 7. Furthermore, when multiple accounts are used to input multiple objects 7, the client 3 can allow the user 4 to easily identify which account was used to input each of the multiple objects 7.
  • the object color of the object 7 and the border color of the border image 6 of the object 7 are different (condition (3)). This allows the client 3 to make the user 4 recognize the object 7 and the border image 6 separately. This allows the user 4 to identify the object 7 itself with good reproducibility.
  • the combination of the object color of the object 7 and the border color of the border image 6 of this object 7 is different for each account used (condition (4)). This allows the client 3 to easily distinguish between the account used for the object 7 and the object 7 for each object, compared to when the combination of the border color and the object color is the same.
  • the border area is determined so that the thicker the line drawing, the thicker the border image 6. If the object 7 is text, a still image, or a moving image, the border area is determined so that the thicker the object area of the object 7, the thicker the border image 6 (condition (a)). Note that the thicker the object 7 is a line drawing, or the larger the area of the object area of the object 7 is for text, a still image, or a moving image, the easier it is for the user 4 to recognize the border image 6 if the thickness of the border image 6 is made larger. Therefore, the client 3 can allow the user 4 to easily identify the object 7 regardless of the size of the object area.
  • the client 3 determines the border area so that the thickness of the border image 6 decreases as the magnification increases (condition (b)). In this way, the client 3 can allow the user 4 to easily identify the object 7, regardless of the magnification at which the object 7 is displayed.
  • the transparency of the border image 6 is determined to be greater than the transparency of the object 7 when the object 7 surrounded by the border image 6 is a line drawing. In this case, the border image 6 can be made less noticeable compared to the object 7. Therefore, the client 3 can allow the user 4 to easily identify the object 7 even when the border image 6 is displayed, regardless of the transparency of the object 7.
  • the present invention is not limited to the above-described embodiment, and various modifications are possible.
  • the display program may be stored in a recording medium readable by the client 3.
  • the client 3 may read out the display program stored in the recording medium and store it in the storage unit 32.
  • the display program may also be provided to the client 3 by being downloaded from the server 2.
  • the client 3 may store the downloaded display program in the storage unit 32.
  • a border image 6 of an object 7 is displayed on a screen 8 shared between clients 3A to 3C.
  • the client 3 has a function of displaying the input object 7 on the display unit 33, and does not need to communicate with the server 2.
  • the client 3 may display the border image 6 of the object 7 in addition to displaying the object 7 on the display unit 33.
  • the client 3 may display a border image 6 with a different border color for each account used in the border area surrounding the object 7.
  • the client 3 has determined the border color of the border image 6 for each account using the object 7.
  • the client 3 may also determine the border color of the border image 6 for each other attribute related to the input of the object 7. For example, multiple groups (companies, departments, etc.) may be defined in advance, and each account may belong to one of the multiple groups.
  • the client 3 may determine the border color of the border image 6 for each group that includes the account being used.
  • the client 3 may also determine the border color of the border image 6 for each client 3 into which the object 7 has been input.
  • the border color may be determined by the server 2. Details are as follows.
  • an object table is also stored in the memory unit 22 of the server 2.
  • the clients 3A to 3C transmit the input object 7 data and the account used for the object 7 to the server 2.
  • the server 2 receives the object 7 data from the clients 3A to 3C and stores it in the memory unit 22, and stores the account used, object color, and transparency in the object table stored in the memory unit 22 based on the received object 7 data and account used.
  • the server 2 determines the border color so as to satisfy all of the conditions (1) to (4) based on the object 7 data and object table stored in the memory unit 22.
  • the server 2 transmits the object 7 data stored in the memory unit 22 and the determined border color to the clients 3A to 3C.
  • the clients 3A to 3C store the received object 7 data in the memory unit 32. Additionally, instead of executing the process of S35, clients 3A to 3C store the received border color in a border image table.
  • the server 2 may determine the thickness of the border image 6 identified based on the conditions (a) and (b) as the border area in which the border image 6 is displayed.
  • the server 2 may also determine the transparency indicating the transparency of the border image 6.
  • the server 2 may transmit the determined border area and transparency to the client 3.
  • the client 3 may store the received border area in the border image table instead of executing the process of S61.
  • the client 3 may store the received transparency in the border image table instead of executing the process of S65.
  • the border area in which the border image 6 is displayed is arranged so as to completely surround the periphery of the object area in which the object 7 is displayed, but the portion surrounded by the border area may be only a part of the periphery of the object area.
  • the periphery of the object area may include a portion that is not surrounded by the border image area.
  • the border region does not overlap with the object region and is in contact with the outer frame of the object region.
  • the border region may not overlap with the object region and may be positioned with a small gap between the object region and the outer frame. In this case, a gap may be formed between the object region and the border region.
  • a portion of the border region close to the object region may overlap with the object region. Note that even if a portion of the border region overlaps with the object region, the width of the overlapping portion may be adjusted so that the border color of the border image 6 displayed in the border region can be discerned.
  • the client 3 may display the account list 83, and at the same time, automatically select all of the accounts in use included in the account list 83, and display the border images 6 of each of the objects 7 on the page 81.
  • an account to be used from the account list 83 is selected, and an object 7 around which a border image 6 is displayed is selected for each account to be used.
  • an operation is performed to directly select at least a portion of an object 7 on page 81, for example, only the border image 6 surrounding the selected object 7 may be displayed.
  • an operation is performed to directly select objects 71 and 73 out of objects 71 to 75 on page 81, for example, border image 61A of object 71 and border image 63B of object 73 are displayed, and border images 62A, 64A, and 65B of objects 72, 74, and 75 may not be displayed.
  • the client 3 only needs to determine a border color that satisfies at least the conditions (1) and (2), and does not need to satisfy at least one of the conditions (3) and (4).
  • the border color does not need to satisfy the condition (3). That is, the object color of the object 7 and the border color of the border image 6 of the object 7 may be the same. In this case, for example, a gap may be provided between the object area and the border area, or a boundary line of a color different from the object color and the border color may be displayed between the object area and the border area.
  • the border color does not need to satisfy the condition (4). That is, the combination of the object color of the object 7 and the border color of the border image 6 of this object 7 may match.
  • the client 3 may determine the thickness of the border image 6 based on either (a) or (b) and determine the border area.
  • the client 3 may also determine a smaller border area the larger the size of the object area.
  • the client 3 may also determine a larger border area the greater the magnification.
  • the client 3 may determine the border area so that the thickness of the border image 6 is uniform regardless of the size of the object area or the magnification.
  • the client 3 may determine the transparency of the border image 6 to be a value greater than the transparency of the line drawing object 7. Furthermore, the client 3 may determine the transparency of the border image 6 to a predetermined value regardless of the transparency of the line drawing object 7. The client 3 may also set the transparency of the border image 6 of any of the objects 7, which are text, still images, and moving images, to a value greater than 0%. In this case, the border image 6 of any of the objects 7, which are text, still images, and moving images, may be see-through.
  • the processes of S13 and S19 are an example of an "associating step" of the present invention.
  • the process of S35 is an example of a "first deciding step” of the present invention.
  • the processes of S21, S67, and S91 are an example of a "displaying step” of the present invention.
  • the processes of S61 and S87 are an example of a "second deciding step” and a "third deciding step” of the present invention.
  • the process of S65 is an example of a "fourth deciding step” of the present invention.
  • 3A, 3B, 3C Client 31: CPU 6, 6A, 6B, 61A, 62A, 63B, 64A, 65A: bordered images 7, 71, 72, 73, 74, 75: objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

オブジェクトを再現性良く表示させつつ、オブジェクトの属性をユーザに識別させることが可能な表示プログラム、及び表示方法を提供する。 クライアントは、オブジェクト71~75と、オブジェクト71~75の入力に関する属性とを関連付けて記憶する。クライアントは、表示部33のうちオブジェクト71~75の周囲を囲む位置に表示される縁取り画像61A、62A、63B、64A、65Bの色を示す縁取り色を、記憶された属性に基づき決定する。クライアントは、オブジェクト71~75を表示部33に表示させ、且つ、表示部33に表示されたオブジェクト71~75に関連付けて記憶された属性に基づき決定された縁取り色で示される縁取り画像61A、62A、63B、64A、65Bを、オブジェクト71~75の周囲を囲む位置に表示させる。

Description

表示プログラム及び表示方法
 本発明は、表示プログラム及び表示方法に関する。
 共通のオブジェクトを複数の表示端末に表示して共有するためのシステムがある。このようなシステムにおいて、共有されるオブジェクトの属性を通知するための技術が提案されている。属性の具体例として、オブジェクトが入力された表示端末のIDや、オブジェクトを入力したユーザのアカウント等が挙げられる。例えば特許文献1は、複数の端末のそれぞれから入力された加筆情報を共通画面に表示するテレライティング装置を開示する。テレライティング装置は、共通画面に表示される複数の加筆情報のそれぞれを、加筆情報が入力された端末毎に異なる色で色分けする。これによりユーザは、共通画面に表示される加筆情報を、入力された端末毎に識別可能となる。
特開平3-133244号公報
 上記のテレライティング装置において、共通画面に表示される加筆情報の色は、入力時点での加筆情報の色に対して変更される場合がある。このように、例えば画面に表示されるオブジェクトの色が、オブジェクトの入力時点での色に対して変更された場合、ユーザは、入力された時点での色でオブジェクトを認識できないという問題点がある。
 本発明の目的は、オブジェクトを再現性良く表示させつつ、オブジェクトの属性をユーザに識別させることが可能な表示プログラム、及び表示方法を提供することである。
 本発明の第1態様に係る表示プログラムは、ディスプレイと前記ディスプレイの表面に設けられたタッチパネルとを備えるコンピュータに実行させるためのプログラムであって、前記タッチパネルを介して入力され、且つ前記ディスプレイの画面に表示されるオブジェクトと、前記オブジェクトの入力に関する属性とを関連付ける関連付けステップと、前記画面において前記オブジェクトの周囲に表示される縁取り画像の色を示す縁取り色を、前記属性ごとに決定する第1決定ステップと、前記画面に表示された前記オブジェクトの前記属性に対応する前記縁取り色で示される前記縁取り画像を、前記画面に表示させる前記表示ステップとを実行させる。
 第1態様によれば、コンピュータは、オブジェクトの態様を維持したまま縁取り画像を画面に表示させることができる。なお、縁取り画像の縁取り色は、オブジェクトの属性毎に決定されるので、コンピュータは、オブジェクトを再現性良く画面に表示させつつ、オブジェクトの属性をユーザに識別させることが可能となる。
 本発明の第2態様に係る表示方法は、ディスプレイの画面に表示されるオブジェクトと、前記オブジェクトの入力に関する属性とを関連付ける関連付けステップと、前記画面において前記オブジェクトの周囲に表示される縁取り画像の色を示す縁取り色を、前記属性ごとに決定する第1決定ステップと、前記画面に表示された前記オブジェクトの前記属性に対応する前記縁取り色で示される前記縁取り画像を、前記画面に表示させる前記表示ステップとを備えたことを特徴とする。第2態様によれば、第1態様と同様の効果を奏する。
システム1の概要、並びに、サーバ2及びクライアント3の電気的構成を示す図である。 画面8(ページ81、メニューバー82)を示す図である。 画面8(ページ81、メニューバー82、アカウント一覧83、利用アカウント選択前)を示す図である。 画面8(ページ81、メニューバー82、アカウント一覧83、利用アカウント選択後)を示す図である。 オブジェクトテーブルを示す図である。 縁取り画像テーブルを示す図である。 第1表示処理を示すフローチャートである。 第2表示処理を示すフローチャートである。 縁取り表示処理を示すフローチャートである。 縁取り表示処理を示すフローチャートであって、図9の続きである。
<システム1の概要>
 図1を参照し、システム1の概要について説明する。システム1は、サーバ2及びクライアント3A、3B、3C(以下、総称して「クライアント3」という。)を有する。サーバ2は、ネットワーク回線9を介してアクセスポイント9Aと通信可能に接続する。クライアント3は、アクセスポイント9Aと無線により通信可能に接続する。このため、サーバ2とクライアント3とは、ネットワーク回線9及びアクセスポイント9Aを介して相互に通信可能である。クライアント3は、周知のタブレット端末である。
 サーバ2は、CPU21、記憶部22、及び通信インターフェース(I/F)23を有する。CPU21は、サーバ2の制御全般を司る。記憶部22には、CPU21が実行するためのプログラム等が記憶される。通信I/F23は、ネットワーク回線9及びアクセスポイント9Aを介してクライアント3と通信を行う為の通信モジュールである。
 クライアント3は、CPU31、記憶部32、表示部33、入力部34、及び通信I/F35を有する。CPU31は、クライアント3の制御全般を司る。記憶部32には、CPU31が実行するための表示プログラム、オブジェクトのデータ、後述のオブジェクトテーブル(図5参照)、及び、後述の縁取り画像テーブル(図6参照)等が記憶される。表示部33は液晶ディスプレイである。入力部34は、表示部33の表面に設けられたタッチパネルである。通信I/F35は、ネットワーク回線9及びアクセスポイント9Aを介してサーバ2と通信を行う為の通信モジュールである。
 以下、クライアント3Aのユーザを「ユーザ4A」という。クライアント3Bのユーザを「ユーザ4B」という。クライアント3Cのユーザを「ユーザ4C」という。ユーザ4A~4Cを総称して「ユーザ4」という。
<画面8の共有>
 ユーザ4は、それぞれが使用するクライアント3を操作し、各自のアカウントを利用して共有アプリケーションを起動する。共有アプリケーションの起動により、クライアント3の表示部33には画面8が表示される。画面8は、クライアント3間で共有化される。画面8には、ユーザ4が入力部34を介してクライアント3に入力したオブジェクトが表示される。オブジェクトには、スタイラスペンまたは指等により手書きで入力された線画、キー入力されたテキスト、インポートされた静止画像、動画像等が含まれる。
 なお、クライアント3は、入力部34を介してオブジェクトが入力された場合、入力されたオブジェクトを画面8に表示すると同時に、入力されたオブジェクトのデータを、ネットワーク回線9及びアクセスポイント9Aを介してサーバ2に送信する。又、クライアント3は、他のクライアント3に入力されたオブジェクトのデータを、ネットワーク回線9及びアクセスポイント9Aを介してサーバ2から受信し、画面8にオブジェクトを表示する。これにより、クライアント3A~3Cのそれぞれに入力されたオブジェクトは、クライアント3A~3Cのそれぞれの画面8に表示される。これにより、ユーザ4A~4C間でオブジェクトが共有される。
 図2は、クライアント3Aの表示部33に表示された画面8の具体例を示す。図2に示す例において、画面8にはページ81及びメニューバー82が含まれる。
 ページ81は、オブジェクトが表示される矩形状の表示領域である。図2に示す例では、線画のオブジェクト71、72、73、静止画のオブジェクト74、及び、テキストのオブジェクト75がページ81に表示されている。なお、オブジェクト71、72、74は、ユーザ4Aが自身のアカウントを利用してクライアント3Aに入力したオブジェクトである。オブジェクト73、75は、ユーザ4Bが自身のアカウントを利用してクライアント3Bに入力したオブジェクトである。以下、オブジェクト71~75を総称して「オブジェクト7」という。オブジェクト7の入力時に利用されたアカウントを、「利用アカウント」という。
 メニューバー82には、画面8を操作するための複数のアイコンが表示される。複数のアイコンには、アカウント一覧表示アイコン82A、倍率アイコン82B、アップロードアイコン82C、手書きツールアイコン82D、及び、テキスト入力アイコン82Eが含まれる。アカウント一覧表示アイコン82Aは、ページ81に表示されたオブジェクト7の利用アカウントの一覧(アカウント一覧83、図3参照)の表示の有無を切り替えるために用いられる。倍率アイコン82Bは、ページ81を拡大又は縮小するために用いられる。アップロードアイコン82Cは、静止画像又は動画像のオブジェクト7をアップロードするために用いられる。手書きツールアイコン82Dは、線画のオブジェクト7を入力するために用いられる。テキスト入力アイコン82Eは、テキストのオブジェクト7を入力するために用いられる。
 図3は、図2に示す状態でメニューバー82のアカウント一覧表示アイコン82Aをタッチする操作が行われた場合の画面8の具体例を示す。アカウント一覧表示アイコン82Aがタッチされることに応じ、ページ81及びメニューバー82に加えてアカウント一覧83を含む画面8が表示される。アカウント一覧83には、ページ81に表示された利用アカウントが含まれる。図3に示す例において、アカウント一覧83の「kawashima」は、ユーザ4Aのアカウントを示し、「kaigawa」は、ユーザ4Bのアカウントを示す。ユーザ4A、4Bのアカウントの左側には、マーク83Bが表示される。
 アカウント一覧83の各利用アカウントをタッチする操作により、タッチされた利用アカウントが個別に選択される。又、アカウント一覧83の最下位に表示されたリンク83Aをタッチする操作により、アカウント一覧83の各利用アカウントが一度にすべて選択される。
 アカウント一覧83の各利用アカウントの少なくとも1つをタッチする操作が行われた場合、ページ81のオブジェクト7のうち選択された利用アカウントを利用して入力されたオブジェクト7は、他のオブジェクト7と区別して表示される。具体的には次の通りである。
 図4は、図3に示すアカウント一覧83のリンク83Aをタッチする操作が行われた場合の画面8の具体例を示す。リンク83Aが選択されることにより、アカウント一覧83に含まれるすべての利用アカウント「kawashima」「kaigawa」が選択されている。なお、アカウント一覧83において選択されたアカウントの右側には、チェックマークが表示される。
 図4にて示されるページ81が図2、図3のページ81と異なる点は、選択されたアカウント「kawashima」を利用して入力されたオブジェクト71、72、74に対応付けて黄色の縁取り画像6A(61A、62A、64A)が表示され、且つ、選択されたアカウント「kaigawa」を利用して入力されたオブジェクト73、75に対応付けて紫色の縁取り画像6B(63B、65B)が表示される点である。以下、縁取り画像6A、6Bを総称して「縁取り画像6」という。
 縁取り画像6は、オブジェクト7の輪郭の周囲に表示される。ページ81のうちオブジェクト7が表示される表示領域を、「オブジェクト領域」という。ページ81のうち縁取り画像6が表示される表示領域を、「縁取り領域」という。より詳細には、縁取り領域は、オブジェクト領域と重複せず、オブジェクト領域の外周と接する。オブジェクト領域と縁取り領域との間に隙間は生じない。
 縁取り画像6の色(以下、「縁取り色」という。)、縁取り領域、及び、縁取り画像6の透過性を示す透過度は、オブジェクト7の利用アカウント、オブジェクト7の種類、倍率アイコン82Bを介して設定されたページ81の倍率、オブジェクト領域の大きさ、及び、オブジェクト7の透過度に応じて決定される。詳細は後述する。
 例えば図4に示す例では、線画のオブジェクト71の周囲に、太さW61を有する黄色の縁取り画像61Aが表示されている。又、線画のオブジェクト73の周囲に、太さW63を有する紫色の縁取り画像63Bが表示されている。線画のオブジェクト72の周囲に表示される縁取り画像62Aについての説明は省略する。このように、オブジェクト7が線画の場合、縁取り領域は、線画の輪郭に沿って配置される。
 又、静止画像のオブジェクト74が矩形状のウィンドウ74Aの内部に表示され、ウィンドウ74Aの周囲に、太さW64を有する黄色の縁取り画像64Aが表示されている。又、テキストのオブジェクト75の入力範囲として矩形領域75Aが規定され、矩形領域75Aの周囲に、太さW65を有する紫色の縁取り画像65Aが表示されている。このように、オブジェクト7がテキスト、静止画像、及び動画像の場合、縁取り領域は、オブジェクト7の種類に応じて予め規定される矩形状のオブジェクト領域の周囲に沿って配置される。
 以下、オブジェクト7の周囲の縁取り領域に表示される縁取り画像6を、「オブジェクト7の縁取り画像6」という。
<縁取り画像6の決定方法>
 縁取り画像6の縁取り色は、以下の(1)~(4)の条件をすべて満たすように決定される。
(1)縁取り画像6の縁取り色は、縁取り画像6が表示されるオブジェクト7の利用アカウント毎に共通とする。
(2)利用アカウントが複数のオブジェクト7で相違する場合、それぞれのオブジェクト7の縁取り画像6の縁取り色は、利用アカウント毎に相違する。
(3)オブジェクト7のオブジェクト色と、オブジェクト7の縁取り画像6の縁取り色とは相違する。
(4)利用アカウントが複数のオブジェクト7で相違する場合、オブジェクト7のオブジェクト色と、このオブジェクト7の縁取り画像6の縁取り色との組み合わせは、利用アカウント毎に相違する。
 縁取り画像6が表示される縁取り領域は、以下の(a)、(b)の条件に基づいて縁取り画像6の太さを特定することにより決定される。
(a)オブジェクト7が線画である場合、線画の太さが大きい程、縁取り画像6の太さが大きくなるよう、縁取り領域が決定される。又、オブジェクト7がテキスト、静止画像、及び動画像の何れかである場合、これらのオブジェクト7のオブジェクト領域の面積が大きい程、縁取り画像6の太さが大きくなるよう、縁取り領域が決定される。
(b)メニューバー82の倍率アイコン82Bをタッチする操作により設定された倍率が大きい程、縁取り画像6の太さが小さくなるよう、縁取り領域が決定される。
 例えば、(a)(b)のそれぞれの条件に基づき決定された太さの平均値が、縁取り画像6の太さとして特定され、この縁取り画像6が表示される縁取り領域が決定される。なお、(a)(b)のそれぞれの条件に基づいて縁取り領域を決定する方法は、上記の方法に限定されない。
 線画であるオブジェクト7の縁取り画像6の透過性を示す透過度は、このオブジェクト7の透過度よりも大きい値となるように決定される。なお、透過度が大きい程透けて見え易いので、縁取り画像6はオブジェクト7よりも常に透けて見え易くなる。
 一方、テキスト、静止画像、及び動画像の何れかのオブジェクト7の縁取り画像6の透過度は、常に0%に決定される。従って、テキスト、静止画像、及び動画像の何れかのオブジェクト7の縁取り画像6は、常に透けないことになる。
<オブジェクトテーブル>
 図5は、クライアント3Aの記憶部32に記憶されるオブジェクトテーブルの具体例を示す。オブジェクトテーブルには、利用アカウント、オブジェクト色、及び透過度がオブジェクト7毎に対応付けて格納される。
 利用アカウントは、対応するオブジェクト7の利用アカウントを示す。オブジェクト色は、対応するオブジェクト7が線画である場合において、線画の色を示す。透過度は、対応するオブジェクト7が線画である場合において、縁取り画像6の透過性を示す。なお、対応するオブジェクト7がテキスト、静止画像、及び動画像の何れかである場合、オブジェクト色及び透過度はオブジェクト7に対応付けられない。クライアント3AのCPU31は、記憶部32に記憶されたオブジェクト7のデータ、及びオブジェクトテーブルに基づき、画面8のページ81にオブジェクト7を表示する。
 なお、図2~図4に示す例において、オブジェクト71、72、74は、クライアント3Aに入力されたものである。この場合、クライアント3AのCPU31は、入力されたオブジェクト71、72、74のデータを記憶部32に記憶する。又、クライアント3AのCPU31は、線画のオブジェクト71、72のデータから、オブジェクト色及び透過度を抽出し、オブジェクト71、72に対応付けてオブジェクトテーブルに格納する。更に、クライアント3AのCPU31は、オブジェクト71、72、74の利用アカウントを、オブジェクト71、72、74に対応付けてオブジェクトテーブルに格納する。
 一方、図2~図4に示す例において、オブジェクト73、75は、クライアント3Bに入力されたものである。このため、クライアント3BのCPU31は、入力されたオブジェクト73、75のデータと、オブジェクト73、75の利用アカウントとを、サーバ2に送信する。サーバ2のCPU21は、クライアント3Bから受信したオブジェクト73、75のデータ、及び利用アカウントを、クライアント3Aに送信する。クライアント3AのCPU31は、オブジェクト73、75のデータをサーバ2から受信して記憶部32に記憶する。又、クライアント3AのCPU31は、線画のオブジェクト73のデータから、オブジェクト色及び透過度を抽出し、オブジェクト73に対応付けてオブジェクトテーブルに格納する。更に、クライアント3AのCPU31は、サーバ2から受信した利用アカウントを、オブジェクト73、75に対応付けてオブジェクトテーブルに格納する。
<縁取り画像テーブル>
 図6は、クライアント3Aの記憶部32に記憶される縁取り画像テーブルの具体例を示す。縁取り画像テーブルには、縁取り色、縁取り領域、及び透過度がオブジェクト7毎に対応付けて格納される。縁取り色及び透過度は、対応するオブジェクト7の縁取り画像6の色、及び透過性を示す。縁取り領域は、縁取り画像6が表示される表示領域を、縁取り画像6の太さにより示す。クライアント3AのCPU31は、縁取り画像テーブルに基づき、画面8のページ81に縁取り画像6を表示する(図4参照)。
 クライアント3AのCPU31は、アカウント一覧83を表示するためにアカウント一覧表示アイコン82Aをタッチする操作が行われた場合、(1)~(4)の条件をすべて満たす縁取り色を決定する。CPU31は、オブジェクト7に、決定した縁取り色を対応付けて縁取り画像テーブルに格納する。
 又、CPU31は、アカウント一覧83の利用アカウントを選択するための操作が行われた場合、(a)(b)の条件を満たす縁取り領域、及び透過度を決定する。CPU31は、オブジェクト7に対応付けて、決定した縁取り領域及び透過度を縁取り画像テーブルに格納する。
<表示処理>
 ユーザ4は、自身のアカウントを利用して共有アプリケーションを起動する操作をクライアント3に入力する。クライアント3のCPU31は、この操作を検出した場合、表示部33に画面8を表示させる。以後、CPU31は、倍率アイコン82Bをタッチする操作を検出した場合、画面8のページ81の表示を拡大又は縮小する。CPU31は、拡大又は縮小後のページ81の倍率を、記憶部32に記憶する。
 又、CPU31は、共有アプリケーションを起動する操作に応じて表示部33に画面8を表示させた後、記憶部32に記憶された表示プログラムを読み出して実行することにより、第1表示処理(図7参照)及び第2表示処理(図8~図10参照)を開始する。第1表示処理及び第2表示処理は並列して実行される。以下では、クライアント3AのCPU31により第1表示処理及び第2表示処理が実行された場合を前提として説明する。
 図7を参照し、第1表示処理について説明する。クライアント3AのCPU31は、表示部33に表示されたメニューバー82に対する操作により、クライアント3にオブジェクト7が入力されたか判定する(S11)。CPU31は、メニューバー82のアップロードアイコン82C、手書きツールアイコン82D、及び、テキスト入力アイコン82Eをタッチする操作を検出した場合、クライアント3にオブジェクト7が入力されたと判定する(S11:YES)。
 CPU31は、入力されたオブジェクト7のデータを記憶部32に記憶する(S13)。又、CPU31は、入力されたオブジェクト7のうち線画のオブジェクト7のデータから、オブジェクト色及び透過度を抽出する。CPU31は、抽出したオブジェクト色及び透過度を、線画のオブジェクト7に対応付けてオブジェクトテーブルに格納する(S13)。更に、CPU31は、共有アプリケーションを起動するときに利用されたアカウントを、利用アカウントとして取得する。CPU31は、取得した利用アカウントを、入力されたオブジェクト7に対応付けてオブジェクトテーブルに格納する(S13)。
 CPU31は、入力されたオブジェクト7のデータを、ネットワーク回線9及びアクセスポイント9Aを介してサーバ2に送信する(S15)。又、CPU31は、共有アプリケーションを起動するときに利用されたアカウントを、利用アカウントとして、ネットワーク回線9及びアクセスポイント9Aを介してサーバ2に送信する(S15)。CPU31は、処理をS21に進める。
 サーバ2のCPU21は、クライアント3Aから送信されたオブジェクト7のデータ及び利用アカウントを受信する。CPU21は、受信したオブジェクト7のデータ及び利用アカウントを、クライアント3B、3Cに送信する。又、CPU21は、クライアント3B、3Cから送信されたオブジェクト7のデータ及び利用アカウントを受信する。CPU21は、受信したオブジェクト7のデータ及び利用アカウントを、クライアント3Aに送信する。
 CPU31は、クライアント3にオブジェクト7が入力されていないと判断した場合(S11:NO)、サーバ2から送信されたオブジェクト7のデータ及び利用アカウントを受信したか判定する(S17)。CPU31は、オブジェクト7のデータ及び利用アカウントを受信したと判定した場合(S17:YES)、受信したオブジェクト7のデータを記憶部32に記憶する(S19)。又、CPU31は、受信したオブジェクト7のデータのうち線画のオブジェクト7のデータから、オブジェクト色及び透過度を抽出する。CPU31は、抽出したオブジェクト色及び透過度を、受信した線画のオブジェクト7に対応付けてオブジェクトテーブルに格納する(S19)。更に、CPU31は、受信した利用アカウントを、受信したオブジェクト7に対応付けてオブジェクトテーブルに格納する(S19)。CPU31は、処理をS21に進める。
 CPU31は、S13、S19によって記憶部32に記憶されたオブジェクト7のデータ、及びオブジェクトテーブルに基づき、画面8のページ81にオブジェクト7を表示する(S21)。CPU31は、処理をS11に戻す。
 CPU31は、オブジェクト7のデータ及び利用アカウントを受信していないと判定した場合(S17:NO)、処理をS11に戻す。
 図8を参照し、第2表示処理について説明する。クライアント3AのCPU31は、アカウント一覧表示アイコン82Aをタッチする操作を検出したか判定する(S31)。CPU31は、アカウント一覧表示アイコン82Aをタッチする操作を検出していないと判定した場合(S31:NO)、処理をS31に戻す。CPU31は、アカウント一覧表示アイコン82Aをタッチする操作を検出したと判定した場合(S31:YES)、処理をS33に進める。
 CPU31は、記憶部32に記憶されたオブジェクトテーブル(図5参照)を参照する。CPU31は、線画のオブジェクト7に対応するオブジェクト色がオブジェクトテーブルに格納されている場合、利用アカウント毎にオブジェクト色を取得する(S33)。例えば、図5に示すオブジェクトテーブルが参照された場合、ユーザ4Aの利用アカウント「kawashima」に対応するオブジェクト色として、黒色(オブジェクト71)及び赤色(オブジェクト72)を取得し、ユーザ4Bの利用アカウント「kaigawa」に対応するオブジェクト色として、緑色(オブジェクト73)を取得する。
 図8に示すように、CPU31は、オブジェクト色の取得後、(1)~(4)の条件をすべて満たすように、縁取り画像6の縁取り色を決定する(S35)。CPU31は、決定した縁取り色をオブジェクト7に対応付けて、縁取り画像テーブルに格納する。例えば、図5に示すオブジェクトテーブルに基づきS33によりオブジェクト色が取得されている場合、次のように縁取り色が決定される。
 (1)の条件に基づき、ユーザ4Aのアカウント「kawasima」が利用されることにより入力されたオブジェクト71、72、74のそれぞれの縁取り画像6の縁取り色として、共通の縁取り色が決定される。又、ユーザ4Bのアカウント「kaigawa」が利用されることにより入力されたオブジェクト73、75のそれぞれの縁取り画像6の縁取り色として、共通の縁取り色が決定される。以下、オブジェクト71、72、74(アカウント「kawasima」を利用)のそれぞれの縁取り画像6の縁取り色を、「第1縁取り色」といい、オブジェクト73、75(アカウント「kaigawa」を利用)のそれぞれの縁取り画像6の縁取り色を、「第2縁取り色」という。
 (2)の条件に基づき、第1縁取り色と第2縁取り色とが異なるように、それぞれの縁取り色が決定される。
 (3)の条件に基づき、第1縁取り色は、オブジェクト71のオブジェクト色(黒色)、及びオブジェクト72のオブジェクト色(赤色)の何れとも異なる色となるように決定される。従って第1縁取り色は、黒色及び赤色以外の色となるように決定される。又、第2縁取り色は、オブジェクト73のオブジェクト色(緑色)と異なる色となるように決定される。このため第2縁取り色は、緑色以外の色となるように決定される。
 (4)の条件に基づき、第1縁取り色と、オブジェクト71のオブジェクト色(黒色)との組み合わせ「第1縁取り色/黒色」、第1縁取り色と、オブジェクト72のオブジェクト色(赤色)との組み合わせ「第1縁取り色/赤色」、及び、第2縁取り色と、オブジェクト73のオブジェクト色(緑色)との組み合わせ「第2縁取り色/緑色」がそれぞれ異なるように、第1縁取り色と第2縁取り色とが決定される。従って第1縁取り色は、緑色以外の色となるように決定され、且つ、第2縁取り色は、黒色及び赤色以外の色となるように決定される。
 上記の条件に基づき、例えば第1縁取り色として黄色が決定され、第2縁取り色として紫色が決定される。このため、例えば図6に示すように、アカウント「kawashima」を利用して入力されたオブジェクト71、72、74の縁取り色として黄色が縁取り画像テーブルに格納される。又、アカウント「kaigawa」を利用して入力されたオブジェクト73、75の縁取り色として紫色が縁取り画像テーブルに格納される。
 図8に示すように、CPU31は、アカウント一覧83の利用アカウントの左側に、S35により決定した縁取り色で示されるマーク83B(図3参照)を表示する(S37)。例えば、図6に示す縁取り画像テーブルにて示される縁取り色が決定された場合、図3に示すように、アカウント一覧83の利用アカウント「kawashima」の左側に、第1縁取り色として決定された黄色で示されるマーク83Bが表示される。又、アカウント一覧83の利用アカウント「kaigawa」の左側に、第2縁取り色として決定された紫色で示されるマーク83Bが表示される(図3参照)。
 図8に示すように、CPU31は、アカウント一覧表示アイコン82Aをタッチする操作に応じて表示されたアカウント一覧83の利用アカウントを選択する操作を検出したか判定する(S39)。アカウント一覧83の利用アカウントを選択する操作として、アカウント一覧83の利用アカウントのそれぞれをタッチすることにより個別に選択する操作と、アカウント一覧83の最下位に表示されたリンク83Aをタッチすることにより、利用アカウントをすべて選択する操作とがある。CPU31は、利用アカウントを選択する操作が行われた場合(S39:YES)、縁取り表示処理(図9参照)を実行する(S41)。以下、選択された利用アカウントを、「対象アカウント」という。CPU31は、縁取り表示処理(S41)の終了後、処理をS39に戻す。
 図9を参照し、縁取り表示処理について説明する。CPU31は、倍率アイコン82Bをタッチする操作に応じて記憶部32に記憶された倍率を取得する(S51)。CPU31は、記憶部32に記憶された縁取り画像テーブル(図6参照)を参照し、対象アカウントを利用して入力されたオブジェクト7(以下、「対象オブジェクト」という。)毎に縁取り色を取得する(S53)。
 CPU31は、線画の対象オブジェクトがS21(図7参照)によってページ81に表示されているか判定する(S55)。CPU31は、線画の対象オブジェクトがページ81に表示されていないと判定した場合(S55:NO)、処理をS81(図10参照)に進める。
 CPU31は、線画の対象オブジェクトがページ81に表示されていると判定した場合(S55:YES)、ページ81に表示された線画の対象オブジェクトのうち何れか1つを選択する(S57)。CPU31は、記憶部32に記憶されたオブジェクト7のデータのうち、選択した対象オブジェクトのデータを参照し、選択した線画の太さを取得する(S59)。CPU31は、S51で取得した倍率と、S59により取得した線画の太さに基づき、(a)(b)の条件を満たすように、縁取り画像6の太さを特定し、特定した太さの縁取り画像6が表示される縁取り領域を決定する(S61)。CPU31は、決定した縁取り領域(縁取り画像6の太さ)を、S57で選択した対象オブジェクトに対応付けて、縁取り画像テーブルに格納する。
 CPU31は、記憶部32に記憶したオブジェクトテーブルを参照し、S57により選択した線画の対象オブジェクトに対応付けられた透過度を取得する(S63)。CPU31は、選択した線画の対象オブジェクトの縁取り画像6の透過度を、取得した透過度よりも大きい値に決定する(S65)。CPU31は、決定した透過度を、S57で選択した対象オブジェクトに対応付けて、縁取り画像テーブルに格納する。
 CPU31は、記憶部32に記憶された縁取り画像テーブルを参照し、縁取り画像6の縁取り色、縁取り領域(縁取り画像6の太さ)、及び透過度を取得する。CPU31は、取得した縁取り色及び透過度で示される縁取り画像6を、取得した縁取り領域に表示する(S67)。これにより、ページ81に表示された対象オブジェクトのうちS57で選択した線画の対象オブジェクトの縁取り画像6が、縁取り領域に表示される。CPU31は、処理をS69に進める。
 CPU31は、ページ81に表示されたすべての線画の対象オブジェクトを、S57で選択したか判定する(S69)。CPU31は、ページ81に表示されたすべての線画の対象オブジェクトを、S57で選択していないと判定した場合(S69:NO)、処理をS57に戻す。CPU31は、ページ81に表示された線画の対象オブジェクトのうち、まだ選択していない対象オブジェクトを1つ選択し(S57)、S59~S67の処理を繰り返す。CPU31は、ページ81に表示されたすべての線画の対象オブジェクトを、S57で選択したと判定した場合(S69:YES)、処理をS81(図10参照)に進める。
 図10に示すように、CPU31は、テキスト、静止画像、及び動画像の何れかの対象オブジェクトが、S21(図7参照)によってページ81に表示されているか判定する(S81)。CPU31は、テキスト、静止画像、及び動画像の何れの対象オブジェクトもページ81に表示されていないと判定した場合(S81:NO)、縁取り表示処理を終了し、処理を第2表示処理(図8参照)に戻す。
 CPU31は、テキスト、静止画像、及び動画像何れかの対象オブジェクトがページ81に表示されていると判定した場合(S81:YES)、ページ81に表示されたテキスト、静止画像、及び動画像の何れかの対象オブジェクトのうち何れか1つを選択する(S83)。CPU31は、記憶部32に記憶されたオブジェクト7のデータのうち、選択した対象オブジェクトのデータを参照し、選択したテキスト、静止画像、及び動画像の何れかがの対象オブジェクトのオブジェクト領域の面積を取得する(S85)。CPU31は、S51(図9参照)で取得した倍率と、S85により取得した面積に基づき、(a)(b)の条件を満たす縁取り画像6の太さを特定し、特定した太さの縁取り画像6が表示される縁取り領域を決定する(S87)。CPU31は、決定した縁取り領域(縁取り画像6の太さ)を、S83で選択した対象オブジェクトに対応付けて、縁取り画像テーブルに格納する。
 CPU31は、選択した線画の対象オブジェクトの縁取り画像6の透過度として、0%を決定する(S89)。CPU31は、決定した透過度を、選択した対象オブジェクトに対応付けて、縁取り画像テーブルに格納する。
 CPU31は、記憶部32に記憶された縁取り画像テーブルを参照し、縁取り画像6の縁取り色、縁取り領域(縁取り画像6の太さ)、及び透過度を取得する。CPU31は、取得した縁取り色及び透過度で示される縁取り画像6を、取得した縁取り領域に表示する(S91)。これにより、ページ81に表示された対象オブジェクトのうちS83で選択したテキスト、静止画像、及び動画像何れかの対象オブジェクトの縁取り画像6が表示される。CPU31は、処理をS93に進める。
 CPU31は、ページ81に表示されたすべての静止画像、動画像、及びテキストの何れかの対象オブジェクトを、S83で選択したか判定する(S93)。CPU31は、ページ81に表示されたすべての静止画像、動画像、及びテキストの何れかの対象オブジェクトを、S83で選択していないと判定した場合(S93:NO)、処理をS83に戻す。CPU31は、ページ81に表示された静止画像、動画像、及びテキストの何れかの対象オブジェクトのうち、まだ選択していない対象オブジェクトを1つ選択し(S83)、S85~S91の処理を繰り返す。CPU31は、ページ81に表示されたすべての静止画像、動画像、及びテキストの何れかの対象オブジェクトを、S83で選択したと判定した場合(S93:YES)、縁取り表示処理を終了し、処理を第2表示処理(図8参照)に戻す。
 図8に示すように、CPU31は、アカウント一覧83の利用アカウントを選択する操作を検出していないと判定した場合(S39:NO)、アカウント一覧表示アイコン82Aを再度タッチする操作を検出したか判定する(S43)。CPU31は、アカウント一覧表示アイコン82Aを再度タッチする操作を検出していないと判定した場合(S43:NO)、処理をS39に戻す。CPU31は、アカウント一覧表示アイコン82Aを再度タッチする操作を検出したと判定した場合(S43:YES)、画面8からアカウント一覧83の表示を解除し、処理をS31に戻す。
<本実施形態の作用、効果>
 クライアント3は、オブジェクト7の周囲に縁取り画像6を表示することにより、オブジェクト7の態様を維持したまま縁取り画像6を表示部33に表示させることができる。なお、縁取り画像6の縁取り色は、オブジェクト7の利用アカウント毎に決定される((1)(2)の条件)。このためクライアント3は、オブジェクト7を再現性良く表示部33に表示させつつ、オブジェクト7の利用アカウントをユーザ4に識別させることが可能となる。又、クライアント3は、複数のアカウントが利用されて複数のオブジェクト7が入力されている場合、複数のオブジェクト7がそれぞれどのアカウントを利用して入力されたかを、ユーザ4に容易に識別させることができる。
 アカウント一覧83に表示されたリンク83Aがタッチされた場合、アカウント一覧83のすべての利用アカウントが選択される。この場合、ページ81に表示されたオブジェクト7のすべてに対し、利用アカウント毎に異なる縁取り色の縁取り画像6が表示される。これによりクライアント3は、表示されたすべてのオブジェクト7のそれぞれの利用アカウントを、ユーザ4に容易に識別させることができる。
 オブジェクト7のオブジェクト色と、オブジェクト7の縁取り画像6の縁取り色とは相違する((3)の条件)。これによりクライアント3は、オブジェクト7と縁取り画像6とを区別してユーザ4に認識させることができる。このためユーザ4は、オブジェクト7そのものを再現性良く識別できる。
 オブジェクト7のオブジェクト色と、このオブジェクト7の縁取り画像6の縁取り色との組み合わせは、利用アカウント毎に相違する((4)の条件)。これによりクライアント3は、縁取り色とオブジェクト色との組み合わせが一致する場合と比べて、オブジェクト7の利用アカウントとオブジェクト7とを、オブジェクト毎に容易に識別させることができる。
 オブジェクト7が線画である場合、線画の太さが大きい程、縁取り画像6の太さが大きくなるよう、縁取り領域が決定される。又、オブジェクト7がテキスト、静止画像、及び動画像の何れかである場合、これらのオブジェクト7のオブジェクト領域の面積が大きい程、縁取り画像6の太さが大きくなるよう、縁取り領域が決定される((a)の条件)。なお、線画のオブジェクト7の太さや、テキスト、静止画像、及び動画像のオブジェクト7のオブジェクト領域の面積が大きい程、縁取り画像6の太さを大きくした方が、ユーザ4は縁取り画像6を認識し易くなる。従ってクライアント3は、オブジェクト領域の大小に関わらず、オブジェクト7をユーザ4に容易に識別させることができる。
 倍率アイコン82Bをタッチする操作により設定される倍率の増加に応じて縁取り画像6の太さが大きくなる場合、縁取り画像6の視認性が低下するので好ましくない。従ってクライアント3は、倍率が大きい程、縁取り画像6の太さが小さくなるよう、縁取り領域を決定する((b)の条件)。これによりクライアント3は、オブジェクト7が表示される場合の倍率の大小に関わらず、オブジェクト7をユーザ4に容易に識別させることができる。
 縁取り画像6の透過度は、縁取り画像6により周囲を囲まれるオブジェクト7が線画である場合において、オブジェクト7の透過度よりも大きい値となるように決定される。この場合、オブジェクト7に対して縁取り画像6を目立たなくすることができる。従ってクライアント3は、オブジェクト7の透過度の大小に関わらず、縁取り画像6が表示される場合でもオブジェクト7をユーザ4に容易に識別させることができる。
<変形例>
 本発明は上記実施形態に限定されず、種々の変更が可能である。表示プログラムは、クライアント3が読み取り可能な記録媒体に記憶されてもよい。クライアント3は、記録媒体に記憶された表示プログラムを読み出して記憶部32に記憶してもよい。又、表示プログラムは、サーバ2からダウンロードされることによりクライアント3に提供されてもよい。クライアント3は、ダウンロードした表示プログラムを記憶部32に記憶してもよい。
 上記実施形態では、クライアント3A~3C間で共有される画面8に表示されるオブジェクト7の縁取り画像6が表示される場合を説明した。これに対し、クライアント3単体でも同様の機能が実現されてもよい。例えばクライアント3は、入力されたオブジェクト7を表示部33に表示する機能を有し、サーバ2と通信を行わなくてもよい。この場合、クライアント3は、表示部33にオブジェクト7を表示するのに併せて、オブジェクト7の縁取り画像6を表示してもよい。又、複数のアカウントを利用してクライアント3にオブジェクト7が入力された場合、クライアント3は、利用アカウント毎に縁取り色の異なる縁取り画像6を、オブジェクト7の周囲の縁取り領域に表示してもよい。
 クライアント3は、オブジェクト7の利用アカウント毎に、縁取り画像6の縁取り色を決定した。クライアント3は、オブジェクト7の入力に関する他の属性毎に、縁取り画像6の縁取り色を決定してもよい。例えば、予め複数のグループ(会社、所属部署等)が規定され、各アカウントは、複数のグループの何れかに属していてもよい。クライアント3は、利用アカウントが含まれるグループ毎に、縁取り画像6の縁取り色を決定してもよい。又、クライアント3は、オブジェクト7が入力されたクライアント3毎に、縁取り画像6の縁取り色を決定してもよい。
 上記にて例示したオブジェクト7の種類(線画/テキスト/静止画像/動画像)は一例であり、他の種類のオブジェクト7であってもよい。
 例えば、サーバ2により縁取り色が決定されてもよい。詳細は次の通りである。なおこの場合、上記実施形態と異なり、サーバ2の記憶部22にもオブジェクトテーブルが記憶される。クライアント3A~3Cは、オブジェクト7が入力された場合、入力されたオブジェクト7のデータと、オブジェクト7の利用アカウントとを、サーバ2に送信する。サーバ2は、クライアント3A~3Cからオブジェクト7のデータを受信して記憶部22に記憶し、且つ、受信したオブジェクト7のデータ及び利用アカウントに基づき、記憶部22に記憶されたオブジェクトテーブルに、利用アカウント、オブジェクト色、及び透過度を格納する。サーバ2は、記憶部22に記憶したオブジェクト7のデータ及びオブジェクトテーブルに基づき、(1)~(4)の条件をすべて満たすように縁取り色を決定する。サーバ2は、記憶部22に記憶されたオブジェクト7のデータと、決定した縁取り色とを、クライアント3A~3Cに送信する。クライアント3A~3Cは、受信したオブジェクト7のデータを記憶部32に記憶する。又、クライアント3A~3Cは、S35の処理を実行する代わりに、受信した縁取り色を縁取り画像テーブルに格納する。
 更にサーバ2は、(a)、(b)の条件に基づき特定される縁取り画像6の太さを、縁取り画像6が表示される縁取り領域として決定してもよい。又、サーバ2は、縁取り画像6の透過性を示す透過度を決定してもよい。サーバ2は、決定した縁取り領域及び透過度を、クライアント3に送信してもよい。クライアント3は、S61の処理を実行する代わりに、受信した縁取り領域を縁取り画像テーブルに格納してもよい。又、クライアント3は、S65の処理を実行する代わりに、受信した透過度を縁取り画像テーブルに格納してもよい。
 上記にて、縁取り画像6が表示される縁取り領域は、オブジェクト7が表示されるオブジェクト領域の周囲をすべて囲むように配置されたが、縁取り領域により囲まれる部分は、オブジェクト領域の周囲のうち一部であってもよい。即ち、オブジェクト領域の周囲には、縁取り画領域により囲まれない部分が含まれていてもよい。
 上記にて、縁取り領域はオブジェクト領域と重複せず、オブジェクト領域の外枠と接していた。これに対し、縁取り領域は、オブジェクト領域と重複せず且つオブジェクト領域の外枠に対して僅かな間隔を空けて配置されてもよい。この場合、オブジェクト領域と縁取り領域との間に隙間が形成されてもよい。又は、縁取り領域のうちオブジェクト領域に近接する側の一部は、オブジェクト領域と重複してもよい。なお、縁取り領域の一部がオブジェクト領域と重複する場合でも、縁取り領域に表示される縁取り画像6の縁取り色が認識できるよう、重複部分の幅が調整されてもよい。
 クライアント3は、アカウント一覧表示アイコン82Aがタッチされた場合、アカウント一覧83を表示すると同時に、アカウント一覧83に含まれる利用アカウントを自動的にすべて選択し、ページ81のすべてのオブジェクト7のそれぞれの縁取り画像6を表示してもよい。
 上記では、アカウント一覧83の利用アカウントが選択されることにより、縁取り画像6が周囲に表示されるオブジェクト7は、利用アカウント毎に選択された。これに対し、例えばページ81のオブジェクト7の少なくとも一部を直接選択する操作が行われた場合、選択されたオブジェクト7の周囲を囲む縁取り画像6のみ表示されてもよい。より具体的には、例えばページ81のオブジェクト71~75のうちオブジェクト71、73を直接選択する操作が行われた場合、オブジェクト71の縁取り画像61A、及び、オブジェクト73の縁取り画像63Bが表示され、オブジェクト72、74、75の縁取り画像62A、64A、65Bは表示されなくてもよい。
 クライアント3は、(1)(2)の条件を少なくとも満たす縁取り色を決定すればよく、(3)(4)の条件のうち少なくとも一方を満たさなくてもよい。例えば縁取り色は、(3)の条件を満たさなくてもよい。つまり、オブジェクト7のオブジェクト色と、オブジェクト7の縁取り画像6の縁取り色とが同一であってもよい。この場合、例えば、オブジェクト領域と縁取り領域との間に隙間が設けられていたり、オブジェクト領域と縁取り領域との間に、オブジェクト色及び縁取り色と異なる色の境界線が表示されたりしてもよい。又、例えば縁取り色は、(4)の条件を満たさなくてもよい。つまり、オブジェクト7のオブジェクト色と、このオブジェクト7の縁取り画像6の縁取り色との組み合わせは一致してもよい。
 クライアント3は、(a)(b)のうち何れか一方に基づいて縁取り画像6の太さを特定し、縁取り領域を決定してもよい。又、クライアント3は、オブジェクト領域の大きさが大きい程、小さな縁取り領域を決定してもよい。又、クライアント3は、倍率が大きい程、大きな縁取り領域を決定してもよい。更に、クライアント3は、縁取り画像6の太さがオブジェクト領域の大きさや倍率に関係なく一律となるように、縁取り領域を決定してもよい。
 クライアント3は、線画のオブジェクト7の透過度よりも大きい値となるように縁取り画像6の透過度を決定してもよい。更に、クライアント3は、線画のオブジェクト7の透過度に関わらず、縁取り画像6の透過度を所定の値に決定してもよい。又、クライアント3は、テキスト、静止画像、及び動画像の何れかのオブジェクト7の縁取り画像6の透過度を、0%よりも大きい値としてもよい。この場合、テキスト、静止画像、及び動画像の何れかのオブジェクト7の縁取り画像6は透けて見えてもよい。
<その他>
 S13、S19の処理は、本発明の「関連付けステップ」の一例である。S35の処理は、本発明の「第1決定ステップ」の一例である。S21、S67、S91の処理は、本発明の「表示ステップ」の一例である。S61、S87の処理は、本発明の「第2決定ステップ」「第3決定ステップ」の一例である。S65の処理は、本発明の「第4決定ステップ」の一例である。
3、3A、3B、3C  :クライアント
31  :CPU
6、6A、6B、61A、62A、63B、64A、65A :縁取り画像
7、71、72、73、74、75  :オブジェクト

Claims (11)

  1.  ディスプレイと前記ディスプレイの表面に設けられたタッチパネルとを備えるコンピュータに実行させるためのプログラムであって、
     前記タッチパネルを介して入力され、且つ前記ディスプレイの画面に表示されるオブジェクトと、前記オブジェクトの入力に関する属性とを関連付ける関連付けステップと、
     前記画面において前記オブジェクトの周囲に表示される縁取り画像の色を示す縁取り色を、前記属性ごとに決定する第1決定ステップと、
     前記画面に表示された前記オブジェクトの前記属性に対応する前記縁取り色で示される前記縁取り画像を、前記画面に表示させる表示ステップと
    を実行させるための表示プログラム。
  2.  前記コンピュータは、前記第1決定ステップでは、互いに異なる複数の前記属性が、複数の前記オブジェクトにそれぞれ関連付けられた場合、前記属性毎に異なる前記縁取り色を決定することを特徴とする請求項1に記載の表示プログラム。
  3.  前記コンピュータは、前記表示ステップでは、前記画面に表示されたすべての前記オブジェクトのそれぞれの周囲に、複数の前記縁取り色で示される複数の前記縁取り画像のそれぞれを表示させることを特徴とする請求項2に記載の表示プログラム。
  4.  前記コンピュータは、
     前記関連付けステップでは、前記オブジェクトが前記画面に表示される場合の色を示すオブジェクト色を、前記オブジェクトに更に関連付け、
     前記第1決定ステップでは、前記縁取り画像の前記縁取り色を、前記オブジェクトの前記オブジェクト色と異なる色に決定することを特徴とする請求項1又は2に記載の表示プログラム。
  5.  前記コンピュータは、
     前記関連付けステップでは、前記オブジェクトが前記画面に表示される場合の色を示すオブジェクト色を、前記オブジェクトに更に関連付け、
     前記第1決定ステップでは、前記縁取り色と前記オブジェクト色との組み合わせが、前記属性毎に異なるように、前記縁取り色を決定することを特徴とする請求項2に記載の表示プログラム。
  6.  前記コンピュータに、
     前記オブジェクトが前記画面に表示される場合の表示領域であるオブジェクト領域に応じて、前記オブジェクトの周囲に表示される前記縁取り画像の表示領域である縁取り領域を決定する第2決定ステップを更に実行させ、
     前記コンピュータは、前記表示ステップでは、前記オブジェクト領域に前記オブジェクトを表示させ、且つ、前記縁取り領域に前記縁取り画像を表示させることを特徴とする請求項1又は2に記載の表示プログラム。
  7.  前記コンピュータは、前記第2決定ステップでは、前記オブジェクト領域が大きい程、大きい前記縁取り領域を決定することを特徴とする請求項6に記載の表示プログラム。
  8.  前記コンピュータに、
      前記オブジェクトが前記画面に表示される場合の倍率に応じて、前記縁取り画像の表示領域である縁取り領域を決定する第3決定ステップを更に実行させ、
     前記コンピュータは、前記表示ステップでは、決定された前記縁取り領域に前記縁取り画像を表示させることを特徴とする請求項1又は2に記載の表示プログラム。
  9.  前記コンピュータは、前記第3決定ステップでは、前記倍率が大きい程、小さい前記縁取り領域を決定することを特徴とする請求項8に記載の表示プログラム。
  10.  前記コンピュータは、前記関連付けステップでは、前記オブジェクトが前記画面に表示される場合の透過性を示す透過度を、前記オブジェクトに更に関連付け、
     前記コンピュータに、
     前記縁取り画像の透過度を、前記オブジェクトの前記透過度よりも大きい値に決定する第4決定ステップを更に実行させ、
     前記コンピュータは、前記表示ステップでは、決定された前記透過度で、前記縁取り画像を表示させることを特徴とする請求項1又は2に記載の表示プログラム。
  11.  ディスプレイの画面に表示されるオブジェクトと、前記オブジェクトの入力に関する属性とを関連付ける関連付けステップと、
     前記画面において前記オブジェクトの周囲に表示される縁取り画像の色を示す縁取り色を、前記属性ごとに決定する第1決定ステップと、
     前記画面に表示された前記オブジェクトの前記属性に対応する前記縁取り色で示される前記縁取り画像を、前記画面に表示させる表示ステップと
    を備えたことを特徴とする表示方法。
PCT/JP2023/035650 2022-10-20 2023-09-29 表示プログラム及び表示方法 WO2024084923A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022168136A JP2024060706A (ja) 2022-10-20 2022-10-20 表示プログラム及び表示方法
JP2022-168136 2022-10-20

Publications (1)

Publication Number Publication Date
WO2024084923A1 true WO2024084923A1 (ja) 2024-04-25

Family

ID=90737708

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/035650 WO2024084923A1 (ja) 2022-10-20 2023-09-29 表示プログラム及び表示方法

Country Status (2)

Country Link
JP (1) JP2024060706A (ja)
WO (1) WO2024084923A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206658A (ja) * 2002-10-29 2004-07-22 Fuji Xerox Co Ltd 表示制御方法、情報表示処理システム、クライアント端末、管理サーバ、プログラム
JP2007193091A (ja) * 2006-01-19 2007-08-02 Taito Corp 文字輪郭色表示方式
JP2021056814A (ja) * 2019-09-30 2021-04-08 シャープ株式会社 表示装置
JP2021082274A (ja) * 2019-11-20 2021-05-27 株式会社リコー 表示装置、表示方法、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206658A (ja) * 2002-10-29 2004-07-22 Fuji Xerox Co Ltd 表示制御方法、情報表示処理システム、クライアント端末、管理サーバ、プログラム
JP2007193091A (ja) * 2006-01-19 2007-08-02 Taito Corp 文字輪郭色表示方式
JP2021056814A (ja) * 2019-09-30 2021-04-08 シャープ株式会社 表示装置
JP2021082274A (ja) * 2019-11-20 2021-05-27 株式会社リコー 表示装置、表示方法、プログラム

Also Published As

Publication number Publication date
JP2024060706A (ja) 2024-05-07

Similar Documents

Publication Publication Date Title
US8635549B2 (en) Directly assigning desktop backgrounds
JP4303311B2 (ja) 操作支援コンピュータプログラム、操作支援コンピュータシステム
US7620906B2 (en) Display apparatus and method for displaying screen where dragging and dropping of object can be executed and program stored in computer-readable storage medium
KR102073848B1 (ko) 웹 브라우저를 위한 몰입 모드
EP1835385A2 (en) Method and device for fast access to application in mobile communication terminal
CN108694012B (zh) 在屏幕上显示对象的方法和***
US10955993B2 (en) Image processing apparatus, method for processing information, and non-transitory computer readable medium storing program for adding comments to image information
US20080244452A1 (en) Method and terminal for implementing preview function
US10908764B2 (en) Inter-context coordination to facilitate synchronized presentation of image content
US10616426B2 (en) Information processing in which setting item list is scrolled when selection gesture is performed on shortcut button
CN105912315A (zh) 信息处理装置、信息处理***、信息处理方法和计算机程序产品
US20130002714A1 (en) Display control apparatus and method for controlling display
WO2024084923A1 (ja) 表示プログラム及び表示方法
JP6693279B2 (ja) 医療情報表示装置、表示制御方法及びプログラム
US20230418466A1 (en) Keyboard mapped graphical user interface systems and methods
JP2014146233A (ja) 資料共有プログラム、端末装置、資料共有方法
JP5232119B2 (ja) コンテンツ画面の色カスタマイズ方法
WO2014112060A1 (ja) プログラマブルコントローラシステム、プログラマブル表示器、支援装置、プログラム
JP6207694B2 (ja) プログラマブル表示器、プログラム
JP7248279B2 (ja) コンピュータシステム、プログラム、及び方法
JPH06251082A (ja) ハイパーメディアシステム
CN112463014B (zh) 输入面板展示方法、相关设备及可读存储介质
JP6954045B2 (ja) 画像処理システム、ユーザインタフェースの提供方法、およびコンピュータプログラム
TW201711015A (zh) 配色圖案畫面顯示裝置
JP2016115127A (ja) 文書管理プログラム、文書管理方法及び文書管理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23879571

Country of ref document: EP

Kind code of ref document: A1