WO2010044457A1 - 通信端末装置、通信方法、および通信プログラム - Google Patents

通信端末装置、通信方法、および通信プログラム Download PDF

Info

Publication number
WO2010044457A1
WO2010044457A1 PCT/JP2009/067896 JP2009067896W WO2010044457A1 WO 2010044457 A1 WO2010044457 A1 WO 2010044457A1 JP 2009067896 W JP2009067896 W JP 2009067896W WO 2010044457 A1 WO2010044457 A1 WO 2010044457A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
information
input
communication
Prior art date
Application number
PCT/JP2009/067896
Other languages
English (en)
French (fr)
Inventor
規 廣嶋
文彦 高木
修治 岡本
真幸 山本
正之 熊谷
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to EP09820635A priority Critical patent/EP2320323A1/en
Priority to CN2009801409253A priority patent/CN102187325A/zh
Priority to US13/057,257 priority patent/US20110134028A1/en
Publication of WO2010044457A1 publication Critical patent/WO2010044457A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00392Other manual input means, e.g. digitisers or writing tablets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/189Arrangements for providing special services to substations for broadcast or conference, e.g. multicast in combination with wireless systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0034Details of the connection, e.g. connector, interface
    • H04N2201/0037Topological details of the connection
    • H04N2201/0039Connection via a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0034Details of the connection, e.g. connector, interface
    • H04N2201/0046Software interface details, e.g. interaction of operating systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0034Details of the connection, e.g. connector, interface
    • H04N2201/0048Type of connection
    • H04N2201/0055By radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0074Arrangements for the control of a still picture apparatus by the connected apparatus
    • H04N2201/0075Arrangements for the control of a still picture apparatus by the connected apparatus by a user operated remote control device, e.g. receiving instructions from a user via a computer terminal or mobile telephone handset

Definitions

  • Patent Document 3 discloses a portable terminal device. According to Japanese Patent Laid-Open No. 2001-333204 (Patent Document 3), a mobile terminal device is input by handwritten data display means capable of color display, handwriting input means provided on the surface of the handwritten data display means, and handwritten input means.
  • the processor transmits the first handwritten information with respect to the handwritten input from the input device to the other terminal via the communication device during the display of the first and second images, Second handwritten information is received from the terminal, and the first and second handwritten images are displayed on the display based on each of the first and second handwritten information during the display of the first and second images.
  • the processor determines whether or not the time during which the first image is displayed has reached the first predetermined time, and the time during which the first image is displayed has reached the first predetermined time.
  • the third image is displayed on the display.
  • FIG. 2 is a sequence diagram showing an outline of the operation in the network system 1.
  • each communication terminal according to the present embodiment needs to exchange (acquire) each other's IP address first in order to perform P2P type data transmission / reception.
  • Each communication terminal after obtaining an IP address, transmits a message, an attached file, etc. to other communication terminals by P2P type data transmission / reception.
  • each of the communication terminals transmits and receives a message and an IP address via the chat room generated in the matching server 400, and then performs P2P communication based on each other's IP address.
  • the second mobile phone 100B When the second mobile phone 100B receives the P2P participation request email, the second mobile phone 100B generates a room name based on the email address of the first mobile phone 100A and the email address of the second mobile phone 100B, or from the participation request email. The room name is acquired, and a message to join the chat room having the room name is transmitted to the matching server 400 (step S008). Second mobile phone 100B may acquire an IP address at the same time, or may access matching server 400 after acquiring an IP address first. At this time, the matching server 400 may delete the chat room.
  • Matching server 400 accepts the message and stores the mail address of second mobile phone 100A in association with the IP address. Then, matching server 400 transmits to first mobile phone 100A the fact that second mobile phone 100B has joined the chat room and the IP address of second mobile phone 100B (step S010). At the same time, matching server 400 transmits to second mobile phone 100B that it has accepted participation in the chat room and the IP address of first mobile phone 100A.
  • first mobile phone 100A transmits a disconnection request message to disconnect P2P communication to second mobile phone 100B (step S030)
  • second mobile phone 100B transmits to first mobile phone 100A.
  • a disconnection approval message indicating that a request for disconnection has been received is transmitted (step S032).
  • FIG. 3A is a first image diagram showing a display state of the first mobile phone 100A during normal P2P communication.
  • FIG. 3B is a first image diagram showing a display state of second mobile phone 100B during normal P2P communication.
  • FIG. 3C is a first image diagram showing a display state of the first mobile phone 100A in the first input mode.
  • FIG. 3D is a first image diagram showing a display state of second mobile phone 100B in the first waiting mode.
  • FIG. 3E is a second image diagram showing a display state of first mobile phone 100A in the first input mode.
  • FIG. 3F is a second image diagram showing a display state of second mobile phone 100B in the first waiting mode.
  • FIG. 3G is a third image diagram showing a display state of first mobile phone 100A in the first input mode.
  • FIG. 3H is a third image diagram illustrating a display state of the second mobile phone 100B in the first waiting mode.
  • FIG. 3I is a first image diagram showing a display state of the first mobile phone 100A in the second waiting mode.
  • FIG. 3J is a first image diagram showing a display state of second mobile phone 100B in the second input mode.
  • the first mobile phone 100A and the second mobile phone 100B display a normal chat screen.
  • first mobile phone 100A shifts to the first input mode (Q_MODE) shown in FIG.
  • the first mobile phone 100A changes the chat frame on the display 107 to the first image.
  • the first image may be, for example, a frame image of a color (for example, red) different from that of a normal P2P mode frame, and the user is in a state where “I should input something by handwriting”. It may be an icon or a comment to be recognized.
  • the first mobile phone 100A shifts to the first input mode, the first mobile phone 100A transmits a message (QST command) notifying the second mobile phone 100B of the shift to the first input mode.
  • first mobile phone 100A displays an image for counting down the remaining time of the first predetermined time at a predetermined position on display 107 until handwriting input is started.
  • the second mobile phone 100B When the second mobile phone 100B receives the QST command, the second mobile phone 100B shifts to the first waiting mode (A_MODE). As shown in FIG. 3D, in the first waiting mode, the second mobile phone 100B changes the chat frame on the display 107 to the second image.
  • the second image may be, for example, a frame image of a color (for example, blue) different from that of a normal P2P mode frame, and the user is in a state where “the other party should input something by handwriting”. It may be an icon or a comment to be recognized.
  • each of first mobile phone 100A and second mobile phone 100B accepts the handwriting corresponding to the handwriting input accepted by first mobile phone 100A.
  • the image and the handwritten image corresponding to the handwritten input accepted by the second mobile phone 100B are sequentially displayed.
  • the first mobile phone 100A in the first input mode does not accept handwriting input for a predetermined time, that is, when a predetermined time elapses after the stylus pen 99 is lifted from the tablet 119, FIG. As shown in I), the first mobile phone 100A shifts to the second waiting mode (A_MODE2).
  • first mobile phone 100A When the first mobile phone 100A shifts to the second waiting mode, the first mobile phone 100A notifies the second mobile phone 100B that the first input mode has ended, that is, shifts to the second waiting mode. (QEND command) is transmitted. In the following second waiting mode, first mobile phone 100A causes display 107 to display an image for counting down the remaining time of the second predetermined time.
  • the first mobile phone 100A and the second mobile phone 100B shift to the normal P2P mode. That is, the display 107 of the first mobile phone 100A and the second mobile phone 100B redisplays the normal P2P mode chat frame.
  • the user can smoothly communicate with the other user.
  • the user of the communication terminal can easily recognize whether “I am in a state to input something by hand” or “I am in a state to input something by hand” , You can easily recognize whether you are holding one of the conversation balls.
  • a configuration for realizing such a function will be described in detail.
  • the mobile phone 100 includes a communication device 101 that transmits / receives data to / from an external network, a GPS 102 that acquires current position information of its own terminal, and a program And a memory 103 that stores various databases, a switch 104 that receives input of various information, a clock 105 that measures time (time), a processor (control unit) 106, a display 107, and a tablet 119.
  • the processor 106 is realized by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and the like, and controls each unit of the mobile phone 100. For example, various commands are received from the user via an input device such as the switch 104 or the tablet 119, and data is transmitted / received to / from an external communication terminal via the communication device 101 or the network.
  • the processor 106 reads out the control program from the memory 103 and executes the control program.
  • the display 107 according to the present embodiment includes an organic EL (electroluminescence), a liquid crystal panel, and a CRT (Cathode Ray Tube).
  • tablet 119 is laid on the upper side (front side) of display 107.
  • the user can input graphic information or the like into the processor 106 via the tablet 119 by using, for example, the stylus pen 99 or a finger. That is, display 107 and tablet 119 according to the present embodiment constitute a so-called touch panel.
  • the display 107 and the tablet 119 may be realized by various types of touch panels, or may be realized by an optical sensor liquid crystal.
  • the memory 103 is, for example, a volatile S-RAM (Static-Random Access Memory), V-RAM (Video Random Access Memory) functioning as a working memory, a non-volatile ROM (Read Only Memory) that stores a control program, etc. ), A non-volatile NV-RAM (Non-Volatile Random Access Memory), a non-volatile HDD (Hard Disk Drive) that stores still image data, moving image data, and the like.
  • the memory 103 stores various variables 1031, a background file 1032, a frame image 1033 for the normal P2P mode, a frame image 1034 for the first input mode, and a frame for the second input mode. An image 1035, an image 1036 that is finally displayed on the display 107, and the like are stored.
  • FIG. 7 is an image diagram showing various variables 1031.
  • a volatile S-RAM hereinafter also referred to as a work memory
  • IMDF is a variable indicating whether or not to use a background image
  • Q_TM is a variable indicating the remaining time (first predetermined time) until the user starts to input information after the question button is pressed. For example, Q_TM stores a value from 0 to 100, where 0.1 seconds is 1.
  • A_TM is a variable indicating the remaining time (second predetermined time) from when the QEND command is transmitted (or received) until the normal P2P mode is restored.
  • A_TM stores a value from 0 to 100, where 1 is 0.1 seconds.
  • PUP_TM is a variable indicating the remaining time (third predetermined time) from when pen-up is performed during the first input mode to when the mode is shifted to the second waiting mode. For example, a value from 0 to 100 is stored in PUP_TM, where 1 is 0.1 seconds.
  • FstInpf is a variable indicating whether or not handwriting input has been performed since the question button was pressed.
  • Dspx is the X coordinate of the display position where the countdown display is performed.
  • Dspy is the Y coordinate of the display position where the countdown display is performed.
  • the background image IMG constituting the background file 1032 includes, for example, a board image used for an othello game, an animation character image, and the like, as shown in an application example described later.
  • FIG. 9 is an image diagram showing frame images 1033, 1034, and 1035. More specifically, FIG. 9A is a normal P2P mode frame image 1033. FIG. 9B shows a frame image 1034 in the first and second input modes. FIG. 9C shows frame images 1035 in the first and second waiting modes. As shown in FIG. 9, for example, the HDD that implements the memory 103 has a normal P2P mode frame image 1033, first and second input mode frame images 1034, and first and second wait mode frame images. 1035 is stored. The processor 106 reads out the frame images 1033, 1034, and 1035 from the HDD to the work memory, and displays the images on the display 107 based on the frame images 1033, 1034, and 1035.
  • the frame images 1034 (first and fourth images) in the first and second input modes have a different color (for example, the frame image 1033 (fifth image) in the normal P2P mode (for example, (Red) frame image.
  • the display contents of the first and second input modes need only be different from the display contents of the normal P2P mode, and are not limited to those in which the line colors of the frames are different.
  • the first and second waiting mode frame images 1035 are the normal P2P mode frame images 1033 (fifth image) and the first and second frames.
  • the frame image 1034 (first and third images) in the second input mode is a frame image having a different color (for example, blue).
  • the display contents of the first and second standby modes need only be different from the display contents of the normal P2P mode and the first and second input modes, and are limited to those having different frame colors. It is not a thing.
  • FIG. 10 is a block diagram showing a functional configuration of mobile phone 100 (communication terminal) according to the present embodiment.
  • the mobile phone 100 includes a communication control unit 1061, a handwriting application 1062, a timer processing unit 1063, a second determination unit 1065, and a first determination unit 1064. , A switching unit 1066 and a display control unit 1067.
  • the mobile phone 100 includes a communication device 101, a clock 105, a display 107, a tablet 119, and a memory 103.
  • the tablet 119 receives handwriting input, software key input, and the like from the user, and stores input information corresponding to the input operation in the memory 103.
  • the tablet 119 and the switch 104 realize an input device that accepts various inputs from the user. For example, the tablet 119 receives a trajectory where the user touches the touch panel as handwritten input, and passes handwritten information corresponding to the handwritten input to the processor 106.
  • the processor 106 stores the handwritten information in the memory 103.
  • Display 107 displays images and text based on data from processor 106. Specifically, the display 107 is based on the data from the processor 106, and the handwritten image corresponding to the handwritten input received by the tablet 119 and the handwritten image corresponding to the handwritten information received by the communication device 101. Are displayed in layers.
  • the communication device 101 is realized by a communication antenna or a signal processing unit (not shown).
  • the communication device 101 transmits handwritten information corresponding to the handwritten input accepted by the tablet 119 to another communication terminal and receives handwritten information from the other communication terminal.
  • the communication device 101 passes the received handwritten information to the processor 106.
  • the processor 106 stores the received handwritten information in the memory 103.
  • the memory 103 is, for example, a work memory (S-RAM or the like) 103A that temporarily (volatilely) stores various variables 1031 or the like, and a display memory (VRAM or the like) 103B that stores an image or the like to be displayed on the display 107. And a non-volatile memory (HDD or the like) 103C for storing the base file 1032, the frame images 1033, 1034, 1035 and the like.
  • the image 1036 displayed on the display 107 includes, for example, a frame plane 1037 indicating the selected frame image, a background plane 1038 indicating the selected background image, and a handwriting plane 1039 indicating the input handwritten image. including.
  • the communication control unit 1061 uses the communication device 101 to perform P2P communication with other communication terminals. More specifically, the communication control unit 1061 uses the communication device 101 to acquire its own IP address and the IP address of another communication terminal from another server device or the like. It starts transmitting / receiving data directly using the IP address.
  • the communication control unit 1061 receives a QST command (first information) from another communication terminal via the communication device 101. Conversely, when the communication control unit 1061 receives a first command via the tablet 119, the communication control unit 1061 transmits a QST command (first information) to another communication terminal via the communication device 101. For example, when the question button of the tablet 119 is pressed, the communication control unit 1061 determines that the first command has been received.
  • the display control unit 1067 displays the frame image 1034 on the display 107 in the first input mode, and displays the frame image 1035 on the display 107 in the first waiting mode.
  • the display control unit 1067 displays the frame image 1034 on the display 107 in the second input mode, and displays the frame image 1035 on the display 107 in the second waiting mode.
  • the display control unit 1067 displays the same frame image 1034 in the first input mode and the second input mode.
  • the display control unit 1067 may display different frame images in the first input mode and the second input mode so that the user can distinguish and recognize the two modes.
  • the display control unit 1067 displays the same frame image 1035 in the first waiting mode and the second waiting mode.
  • the display control unit 1067 may display different frame images in the first input mode and the second input mode so that the user can distinguish and recognize the two modes.
  • the display control unit 1067 displays the frame image 1033 on the display 107 in the normal P2P mode.
  • the display control unit 1067 causes the display 107 to count down and display the difference between the first predetermined time and the suspending time of the first input mode during the first input mode. That is, the display control unit 1067 causes the display 107 to display the remaining time of the first predetermined time during the first input mode.
  • the display control unit 1067 displays a difference between the second predetermined time and the duration of the second waiting mode or the second input mode on the display 107 during the second waiting mode or the second input mode. Is displayed in a countdown. That is, the display control unit 1067 counts down the second predetermined time, the second waiting mode, or the remaining time of the second input mode on the display 107 during the second waiting mode or the second input mode. Let At this time, the display control unit 1067 displays the remaining time at a position on the display 107 where the handwritten image is first drawn.
  • the timer processing unit 1063 measures a predetermined time by referring to the clock 105. For example, the timer processing unit 1063 measures the elapsed time from when the question button is pressed by referring to the clock 105. More specifically, the timer processing unit 1063 measures an elapsed time from when the first input mode is set until handwriting input is performed on the tablet 119.
  • the timer processing unit 1063 refers to the clock 105, and in the first input mode, after the stylus pen 99 or the finger once touches the tablet 119, after the stylus pen 99 or the finger leaves the tablet 119, Measure the elapsed time. In addition, the timer processing unit 1063 refers to the clock 105 to measure the elapsed time since the second waiting mode is entered.
  • the second determination unit 1065 determines whether or not the duration of the first input mode has reached the first predetermined time. More specifically, the second determination unit 1065 determines whether or not the duration of the first input mode has reached the first predetermined time without the tablet 119 receiving handwriting input.
  • the first determination unit 1064 determines whether the duration of the second waiting mode or the second input mode has reached the second predetermined time. More specifically, the first determination unit 1064 determines whether or not the third predetermined time has elapsed since the tablet 119 finished accepting handwriting input, and since the third predetermined time has elapsed. It is determined whether or not the elapsed time of the second predetermined time has elapsed.
  • the switching unit 1066 switches to the first input mode when receiving a first command (a signal indicating that the question button has been pressed) via the tablet 119.
  • the switching unit 1066 determines that the first command has been received, for example, when the question button of the tablet 119 is pressed.
  • the switching unit 1066 switches to the second waiting mode when receiving first information (for example, a QST command) via the communication device 101.
  • the switching unit 1066 switches to the second waiting mode when receiving the second command via the tablet 119. For example, in the first input mode, when the predetermined software keyboard of the tablet 119 is pressed, or when the tablet 119 has not detected the touch of the stylus pen 99 for a third predetermined time or longer, the switching unit 1066 is in the first input mode. It is determined that instruction 2 has been accepted. The switching unit 1066 switches to the second input mode when receiving second information (for example, a QEND command) via the communication device 101.
  • second information for example, a QEND command
  • the switching unit 1066 switches to the normal P2P mode. Switch to.
  • the switching unit 1066 switches to the normal P2P mode when the first determination unit 1064 reaches the second predetermined time in the second waiting mode or the second input mode.
  • processor 106 determines whether a base image (background image) has been designated (step S102). When the background image is designated (YES in step S102), the processor 106 displays the designated background image on the display 107 based on the corresponding background file 1032 (step S104). The processor 106 substitutes 1 for IMDF in the memory 103 (step S106). The processor 106 designates the countdown display position (Dspx, Dspy) based on the base file 1032 (step S108). Then, the processor 106 operates a 0.1 second timer interrupt (SECTIMER) function (step S112).
  • SECTIMER 0.1 second timer interrupt
  • the processor 106 substitutes 0 for IMDF in the memory 103 (step S110). Similarly to the above, the processor 106 operates the 0.1 second timer interrupt (SECTIMER) function (step S112).
  • SECTIMER 0.1 second timer interrupt
  • the processor 106 displays a frame image 1033 for normal P2P communication on the display 107 (step S114).
  • the processor 106 substitutes 0 for Q_TM in the memory 103, substitutes 0 for A_TM, substitutes 0 for PUP_TM, and substitutes 0 for FstInpf (step S116).
  • the processor 106 determines whether or not the question button has been operated by the user via the tablet 119 (step S118). If the question button is operated by the user (YES in step S118), processor 106 shifts to the first input mode (Q_MODE). If the question button has not been operated by the user (NO in step S118), processor 106 determines whether a QST command has been received from the counterpart terminal via communication device 101 (step S120). If the QST command is received from the counterpart terminal (YES in step S120), the processor 106 shifts to the first waiting mode (A_MODE).
  • the processor 106 determines whether or not handwritten information is received from the partner terminal via the communication device 101 (step S128).
  • processor 106 causes display 107 to display a handwritten image based on the received handwritten information (step S130). The processor 106 repeats the process from step S118.
  • the processor 106 repeats the processing from step S118 also when handwritten information is not received from the counterpart terminal (in the case of NO in step S128).
  • FIG. 12 is a flowchart showing a processing procedure of the first input mode in mobile phone 100 according to the present embodiment.
  • processor 106 transmits a QST command to the partner terminal via communication device 101 (step S202). As shown in FIG. 3C, the processor 106 displays the frame image 1034 for the first input mode on the display 107 (step S204). The processor 106 displays a number obtained by dividing the value stored in the Q_TM of the memory 103 by 10 at the position where the question button is displayed on the display 107 (step S206). The processor 106 substitutes 100 for Q_TM in the memory 103 and substitutes 0 for FstInpf in the memory 103 (step S208).
  • the processor 106 determines whether or not the user has operated the handwriting area of the tablet 119 (step S210). That is, the processor 106 determines whether or not a handwritten input is accepted. If the handwriting input is accepted (YES in step S210), the processor 106 transmits handwritten information corresponding to the handwriting input to the partner terminal via the communication device 101 (step S212). As shown in FIGS. 3E and 3G, the processor 106 displays a handwritten image on the display 107 based on the handwritten information (step S214).
  • the processor 106 assigns 10 to the PUP_TM in the memory 103 (step S216).
  • the processor 106 determines whether or not 0 is assigned to FstInpf of the memory 103 (step S218). If 0 is not substituted for FstInpf (NO in step S218), processor 106 repeats the processing from step S210.
  • processor 106 assigns 0 to Q_TM in memory 103 and 1 to FstInpf. At the same time, the processor 106 displays a message “Question” at the position where the question button is displayed on the display 107 (step S220). The processor 106 determines whether or not 0 is assigned to the IMDF of the memory 103 (step S222).
  • the processor 106 repeats the processing from step S210 when 0 is not assigned to the IMDF of the memory 103 (NO in step S222).
  • processor 106 has coordinates in the vicinity of the position where handwritten input is accepted at the set countdown display position (Dspx, Dspy). Is set (step S224). For example, the processor 106 sets the upper right coordinates for one line and two digits of the handwriting input start coordinates as the countdown display position (Dspx, Dspy).
  • the processor 106 repeats the processing from step S210.
  • the processor 106 determines whether or not the Q_TMUP signal is input from the 0.1 second timer interrupt (SECTIMER) function (step S228).
  • the processor 106 shifts to the normal P2P mode (N_MODE). If the Q_TMUP signal has not been input (NO in step S228), processor 106 determines whether or not the QA_CHG signal has been input from the 0.1 second timer interrupt (SECTIMER) function (step S230).
  • step S230 When the QA_CHG signal is input (YES in step S230), the processor 106 transmits a QEND command to the partner terminal (step S231), and then shifts to the second waiting mode (A_MODE2).
  • processor 106 determines whether or not handwritten information is received from the counterpart terminal via communication device 101 (step S232).
  • processor 106 When receiving handwritten information from the counterpart terminal (YES in step S232), processor 106 causes display 107 to display a handwritten image based on the received handwritten information (step S234).
  • the processor 106 repeats the processing from step S210.
  • the processor 106 repeats the processing from step S210 also when handwritten information is not received from the counterpart terminal (NO in step S232).
  • FIG. 13 is a flowchart showing a processing procedure in the first waiting mode in mobile phone 100 according to the present embodiment.
  • processor 106 substitutes 0 for FstInpf of memory 103 (step S302). As shown in FIG. 3D, the processor 106 causes the display 107 to display the first waiting mode frame image 1035 (step S304).
  • the processor 106 determines whether or not the user has operated the handwritten area of the tablet 119 (step S310). That is, the processor 106 determines whether or not handwriting input is accepted.
  • processor 106 When processor 106 accepts handwritten input (YES in step S310), processor 106 transmits handwritten information corresponding to the accepted handwritten input to the partner terminal via communication device 101 (step S312). The processor 106 displays a handwritten image on the display 107 based on the handwritten information (step S314). The processor 106 repeats the process from step S306.
  • processor 106 determines whether or not handwritten information is received from the counterpart terminal via communication device 101 (step S316). If processor 106 has not received handwritten information from the counterpart terminal (NO in step S316), processor 106 repeats the processing from step S306. When receiving handwritten information from the counterpart terminal (YES in step S316), processor 106 causes display 107 to display a handwritten image based on the received handwritten information (step S318).
  • the processor 106 determines whether or not 0 is assigned to FstInpf of the memory 103 (step S320). If 0 is not substituted for FstInpf (if NO in step S320), processor 106 repeats the processing from step S306. If 0 is assigned to FstInpf (YES in step S320), processor 106 assigns 1 to FstInpf (step S322).
  • the processor 106 determines whether or not 0 is assigned to the IMDF of the memory 103 (step S324). If 0 is not assigned to IMDF (NO in step S324), processor 106 repeats the processing from step S306.
  • processor 106 sets the coordinates near the position where handwritten input is accepted as the countdown display position (Dspx, Dspy) (step S326). .
  • the processor 106 repeats the process from step S306.
  • FIG. 14 is a flowchart showing a processing procedure in the second input mode and the second waiting mode in mobile phone 100 according to the present embodiment.
  • processor 106 causes display 107 to display a frame image for the second input mode (here, frame image 1034 for the first input mode) (step 107). S402). Then, the processor 106 causes the display 107 to display a number obtained by dividing the value stored in A_TM of the memory 103 by 10 at the countdown display position (Dspx, Dspy) (step S406).
  • the processor 106 displays the second waiting mode frame image (here, the first waiting mode frame image 1035) on the display 107 (step S404). Similarly, the processor 106 causes the display 107 to display a number obtained by dividing the value stored in A_TM of the memory 103 by 10 on the countdown display position (Dspx, Dspy) (step S406).
  • the processor 106 substitutes 100 for A_TM in the memory 103 (step S408).
  • the processor 106 determines whether or not the question button of the tablet 119 has been operated (step S410).
  • step S410 the processor 106 determines whether or not an A_TMUP signal has been input from the 0.1 second timer interrupt (SECTIMER) function (step S416).
  • SECTIMER 0.1 second timer interrupt
  • N_MODE P2P mode
  • step S416 If the A_TMUP signal is not input from the 0.1 second timer interrupt (SECTIMER) function (NO in step S416), the processor 106 determines whether or not the user has operated the handwritten area of the tablet 119. Judgment is made (step S418). That is, the processor 106 determines whether or not handwriting input is accepted.
  • SECTIMER 0.1 second timer interrupt
  • processor 106 When processor 106 accepts handwritten input (YES in step S418), processor 106 transmits the accepted handwritten information to the partner terminal via communication device 101 (step S420). As shown in FIGS. 4A to 4H, the processor 106 displays a handwritten image on the display 107 based on the handwritten information (step S422). The processor 106 repeats the processing from step S410.
  • step S408 the processor 106 determines whether or not handwritten information is received from the partner terminal via the communication device 101 (step S424). If processor 106 has not received handwritten information from the counterpart terminal (NO in step S424), processor 106 repeats the processing from step S410.
  • Processor 106 displays the handwritten image on display 107 based on the received handwritten information when the handwritten information is received from the partner terminal (YES in step S424) (step S426). Then, the processor 106 repeats the processing from step S410.
  • FIG. 15 is a flowchart showing a processing procedure in a 0.1 second timer interrupt process in mobile phone 100 according to the present embodiment.
  • processor 106 determines whether or not 0 is assigned to Q_TM of memory 103 every time 0.1 second elapses by referring to clock 105 (step S502). If 0 is assigned to Q_TM (YES in step S502), processor 106 repeats the processing from step S512. If 0 is not assigned to Q_TM (NO in step S502), processor 106 decrements Q_TM in memory 103 (step S504).
  • the processor 106 causes the display 107 to display a number obtained by dividing the value stored in Q_TM by 10 at the position where the question button is displayed (step S506).
  • the processor 106 determines whether or not 0 is assigned to Q_TM in the memory 103 (step S508). If 0 is not substituted for Q_TM (NO in step S508), processor 106 repeats the processing from step S512. If 0 is assigned to Q_TM (YES in step S508), processor 106 as the 0.1 second timer interrupt (SECTIMER) function outputs a Q_TMUP signal (step S510).
  • SECTIMER 0.1 second timer interrupt
  • the processor 106 determines whether or not 0 is assigned to A_TM in the memory 103 (step S512). If 0 is assigned to A_TM (YES in step S512), processor 106 repeats the processing from step S524.
  • the processor 106 decrements A_TM in the memory 103 when 0 is not assigned to A_TM (NO in step S512) (step S514). As shown in FIG. 3I, the processor 106 causes the display 107 to display a number obtained by dividing the value stored in A_TM by 10 on the countdown display position (Dspx, Dspy) (step S516).
  • the processor 106 determines whether or not 0 is assigned to A_TM in the memory 103 (step S520). If 0 is not substituted for A_TM (NO in step S520), processor 106 repeats the processing from step S524.
  • the processor 106 as the 0.1 second timer interrupt (SECTIMER) function outputs an A_TMUP signal when 0 is assigned to A_TM (YES in step S520) (step S522).
  • the processor 106 determines whether or not 0 is assigned to the PUP_TM in the memory 103 (step S524). If 0 is assigned to PUP_TM (YES in step S524), processor 106 ends the timer interrupt process and waits until the next 0.1 second elapses. If 0 is not substituted for PUP_TM (NO in step S524), processor 106 decrements PUP_TM (step S526).
  • the processor 106 determines whether or not PUP_TM is 0 (step S528). If PUP_TM is not 0 (NO in step S528), processor 106 ends the timer interrupt process and waits until the next 0.1 second elapses.
  • the processor 106 as the 0.1 second timer interrupt (SECTIMER) function outputs a QA_CHG signal when 0 is assigned to PUP_TM (YES in step S528) (step S530). Then, the processor 106 ends the timer interrupt process and waits until the next 0.1 second elapses.
  • FIGS. 16 to 18 are image diagrams showing transition of display states of the first and second mobile phones 100A and 100B during P2P communication in the application example of the network system 1 according to the present embodiment.
  • the transition of the display state of the first mobile phone 100A and the second mobile phone 100B will be described in particular with reference to FIGS.
  • a case will be described in which an image of a board used for an Othello game is used as a base image.
  • FIG. 16 (A) is a first image diagram showing a display state of first mobile phone 100A during normal P2P communication.
  • FIG. 16B is a first image diagram showing a display state of second mobile phone 100B during normal P2P communication.
  • FIG. 16C is a first image diagram showing a display state of the first mobile phone 100A in the first input mode.
  • FIG. 16D is a first image diagram showing a display state of second mobile phone 100B in the first waiting mode.
  • FIG. 16E is a second image diagram showing a display state of first mobile phone 100A in the first input mode.
  • FIG. 16F is a second image diagram showing a display state of second mobile phone 100B in the first waiting mode.
  • FIG. 16G is a first image diagram showing a display state of first mobile phone 100A in the second waiting mode.
  • FIG. 16H is a first image diagram showing a display state of second mobile phone 100B in the second input mode.
  • FIG. 17A is a first image diagram showing a display state of first mobile phone 100A in the first waiting mode.
  • FIG. 17B is a first image diagram showing a display state of second mobile phone 100B in the first input mode.
  • FIG. 17C is a second image diagram showing a display state of first mobile phone 100A in the first waiting mode.
  • FIG. 17D is a second image diagram showing a display state of second mobile phone 100B in the first input mode.
  • FIG. 17E is a third image diagram showing a display state of first mobile phone 100A in the first waiting mode.
  • FIG. 17F is a third image diagram showing a display state of second mobile phone 100B in the first input mode.
  • FIG. 17G is a fourth image diagram showing a display state of first mobile phone 100A in the second waiting mode.
  • FIG. 17H is a fourth image diagram illustrating a display state of second mobile phone 100B in the second input mode.
  • FIG. 18A is a first image diagram showing a display state of the first mobile phone 100A in the second input mode.
  • FIG. 18B is a first image diagram showing a display state of second mobile phone 100B in the second waiting mode.
  • FIG. 18C is a second image diagram showing a display state of first mobile phone 100A in the second input mode.
  • FIG. 18D is a second image diagram showing a display state of second mobile phone 100B in the second waiting mode.
  • FIG. 18E is a third image diagram showing a display state of first mobile phone 100A in the second input mode.
  • FIG. 18F is a third image diagram showing a display state of second mobile phone 100B in the second waiting mode.
  • the first mobile phone 100A and the second mobile phone 100B have a normal chat screen, that is, a normal P2P mode.
  • Frame image 1033B (see FIG. 9) is displayed.
  • first mobile phone 100A shifts to the first input mode shown in FIG.
  • the first mobile phone 100A changes the chat frame on the display 107 to a frame image 1034B (see FIG. 9).
  • the second mobile phone 100B When the second mobile phone 100B receives the QST command, the second mobile phone 100B shifts to the first waiting mode. As shown in FIG. 16D, in the first waiting mode, the second mobile phone 100B changes the chat frame on the display 107 to a frame image 1035B (see FIG. 9).
  • the first mobile phone 100A and the second mobile phone 100B are provided with a handwritten image corresponding to the handwriting input accepted by the first mobile phone 100A and The handwritten images corresponding to the handwritten input accepted by the second mobile phone 100B are sequentially displayed.
  • the first mobile phone 100A in the first input mode does not accept handwriting input for a predetermined time, that is, when a predetermined time elapses after the stylus pen 99 is lifted from the tablet 119, FIG. As shown in G), the first mobile phone 100A shifts to the second waiting mode.
  • the first mobile phone 100A changes the chat frame on the display 107 to a frame image 1035B.
  • the first mobile phone 100A notifies the second mobile phone 100B that the first input mode has ended, that is, shifts to the second waiting mode. (QEND command) is transmitted.
  • first mobile phone 100A causes display 107 to display an image for counting down the remaining time of the second predetermined time.
  • the second mobile phone 100B When the second mobile phone 100B receives the QEND command, the second mobile phone 100B shifts to the second input mode. As shown in FIG. 16H, in the second input mode, second mobile phone 100B changes the frame for chat on display 107 to frame image 1034. In the second input mode, the second mobile phone 100B also displays an image for counting down the remaining time of the second predetermined time on the display 107.
  • second mobile phone 100B shifts to the first input mode shown in FIG. Similarly to the above, as shown in FIG. 17B, in the first input mode, second mobile phone 100B changes the frame for chat on display 107 to frame image 1034B.
  • the second mobile phone 100B transmits a message (QST command) notifying the first mobile phone 100A that the mode is shifted to the first input mode.
  • second mobile phone 100B displays an image for counting down the remaining time of the first predetermined time on display 107 until handwritten input is accepted.
  • first mobile phone 100A When the first mobile phone 100A receives the QST command, it shifts to the first waiting mode. As shown in FIG. 17A, in the first waiting mode, first mobile phone 100A changes the frame for chat on display 107 to frame image 1035B.
  • the first mobile phone 100A and the second mobile phone 100B are provided with a handwritten image corresponding to the handwritten input accepted by the first mobile phone 100A and The handwritten images corresponding to the handwritten input accepted by the second mobile phone 100B are sequentially displayed.
  • the second mobile phone 100B in the first input mode does not accept handwriting input for a predetermined time, that is, when a predetermined time elapses after the stylus pen 99 is lifted from the tablet 119, FIG. As shown in B), the second mobile phone 100B shifts to the second waiting mode.
  • the second mobile phone 100B changes the chat frame on the display 107 to a frame image 1035B.
  • the first mobile phone 100A notifies the first mobile phone 100A that the first input mode has ended, that is, the shift to the second waiting mode. (QEND command) is transmitted.
  • second mobile phone 100B causes display 107 to display an image for counting down the remaining time of the second predetermined time.
  • first mobile phone 100A When the first mobile phone 100A receives the QEND command, the first mobile phone 100A shifts to the second input mode. As shown in FIG. 18A, in the second input mode, first mobile phone 100A changes the frame for chat on display 107 to frame image 1034B.
  • the first mobile phone 100A and the second mobile phone 100B are provided with a handwritten image corresponding to the handwritten input accepted by the first mobile phone 100A and The handwritten images corresponding to the handwritten input accepted by the second mobile phone 100B are sequentially displayed. During this time, the first mobile phone 100A also displays an image for counting down the remaining time of the second predetermined time on the display 107.
  • the communication terminal according to this application example allows the user to communicate smoothly with the other user.
  • the user of the communication terminal can easily recognize whether “I am in a state to input something by hand” or “I am in a state to input something by hand” , You can easily recognize whether you are holding one of the conversation balls.
  • FIG. 19 is a flowchart showing processing procedures of chat start processing (steps S602 to S614) and end processing (steps S614 to S602) according to this application example.
  • FIG. 20 is an image diagram showing transition of display states of the first and second mobile phones 100A and 100B at the start of chatting in the network system 1 according to this application example. More specifically, FIGS. 20A, 20D, and 20F show screen transitions of touch panel 150A of first mobile phone 100A that receives an invitation for chat communication from second mobile phone 100B. 20B, 20C, 20E, and 20G show screen transitions of touch panel 150B of second mobile phone 100B that invites first mobile phone 100A to chat communication.
  • FIG. 21 is an image diagram showing transition of display states of the first and second mobile phones 100A and 100B at the end of the chat in the network system 1 according to this application example. More specifically, FIGS. 21A, 21C, 21D, and 21F show screen transitions on touch panel 150A of first mobile phone 100A that notifies second mobile phone 100B of the end of chat communication. FIGS. 21B, 21E, and 21G show screen transitions of touch panel 150B of second mobile phone 100B that receives the notification of the end of chat communication from first mobile phone 100A.
  • the processor 106 when not chatting with another mobile phone (first state), causes the touch panel 150 to start an “invite” button 150X (first screen). 1 image) is displayed (step S602).
  • the processor 106 determines whether or not the user has pressed the “invite” button 150X using the stylus pen 99 or the like via the touch panel 150 (step S604).
  • the first image may be an input and a display that can be recognized by the user to start chatting, and may be an icon, a comment, or a changeover switch including a display device.
  • the processor 106 when it is determined that the user has pressed the button (YES in step S604), the processor 106 connects to another mobile phone via the communication device 101.
  • Information for chatting (first information) is transmitted (step S606). More specifically, as shown in FIG. 20E, the processor 106 causes the touch panel 150 to display a chat partner in a selectable manner based on an address book stored in the memory 103 in advance. That is, the processor 106 causes the touch panel 150 to display a list 150Z of partners that can chat.
  • the processor 106 receives a chat partner selection command from the user via the touch panel 150.
  • the chat partner displayed on the touch panel 150 may be displayed so as to be selectable based on the history information of the chat partner.
  • the chat partner history information may be stored in the memory 103 at the start or end of the chat.
  • the processor 106 requests the matching server 400 for IP registration (login) via the communication device 101.
  • matching server 400 stores the mail address of second mobile phone 100B in association with the IP address.
  • matching server 400 generates a room name based on the e-mail address of second mobile phone 100B and the e-mail address of selected first mobile phone 100A, and assigns the room name to second mobile phone 100B.
  • the processor 106 transmits an “invite” mail (first information) including the room name and the address of the matching server 400 to the selected first mobile phone 100A (step S606).
  • the processor 106 includes handwritten information indicating a handwritten image currently displayed on the touch panel 150 in an “invite” mail and transmits the mail via the communication device 101.
  • the first information may be an “invite” mail including the mail address and IP address of the mobile phone 100A to the second mobile phone 100B, and the second mobile phone 100B that has received the first information
  • the chat communication may be performed by sending a “response” mail including the IP address of the mobile phone 100B to the first mobile phone 100A.
  • the mobile phone 100 can perform chat communication with another selected mobile phone.
  • the processor 106 causes the touch panel 150 to display a “disconnect” button 150Y for ending (disconnecting) the chat (step S614).
  • processor 106 determines whether the user has input a handwriting command via touch panel 150 (step S608). .
  • processor 106 causes handwriting image to be displayed on touch panel 150 based on the handwriting command (step S610). The processor 106 repeats the processing from step S604.
  • processor 106 determines whether or not an “invite” mail has been received from another mobile phone via communication device 101 (step S608). S612). If the “invite” mail is not received from another mobile phone (NO in step S612), processor 106 repeats the processing from step S604.
  • processor 106 accesses the room of matching server 400 included in the “invite” mail via communication device 101. To obtain the IP address of another mobile phone. As shown in FIG. 20F, the processor 106 starts chat communication with another mobile phone via the communication device 101 based on the IP address. The processor 106 causes the touch panel 150 to display a “disconnect” button 150Y for ending the chat (step S614). The processor 106 causes the touch panel 150 to display a handwritten image based on the handwritten information included in the “invite” mail.
  • the processor 106 when chatting with another mobile phone (second state), causes the touch panel 150 to end a “disconnect” button 150Y (second). Are displayed) (step S614).
  • the processor 106 determines whether or not the user has pressed the “cut” button 150Y via the touch panel 150 (step S616).
  • the second image may be an input and a display that can be recognized by the user to end the chat, and may be a changeover switch including an icon, a comment, and a display device.
  • the processor 106 when it is determined that the user has pressed the “disconnect” button 150Y (in the case of YES in step S616), the processor 106 performs other processing via the communication device 101.
  • the information (second information) for ending the chat is transmitted to the mobile phone (step S618).
  • the processor 106 may transmit a request message for deleting the room to the matching server 400 via the communication device 101.
  • the mobile phone 100 can end the chat communication.
  • the processor 106 causes the touch panel 150 to display an “invite” button 150X for starting a chat (step S602).
  • processor 106 determines whether the user has input a handwriting command via touch panel 150 (step S620). . As shown in FIGS. 21A and 21B, when the user inputs a handwriting command (YES in step S620), the processor 106 provides other handwritten information corresponding to the handwriting command via the communication device 101. To the mobile phone (step S622). The processor 106 displays a handwritten image on the touch panel 150 based on the handwriting command (step S624). The processor 106 repeats the process from step S616.
  • processor 106 determines whether or not handwritten information has been received from another mobile phone via communication device 101 (step S626). . As shown in FIGS. 21A and 21B, when handwritten information is received from another mobile phone (YES in step S626), processor 106 displays a handwritten image on touch panel 150 based on the handwritten information. It is displayed (step S624). The processor 106 repeats the process from step S616.
  • processor 106 has received information for terminating the chat from the other mobile phone via communication device 101. Is determined (step S628). If the information for ending the chat is not received from another mobile phone (NO in step S628), processor 106 repeats the processing from step S616.
  • the processor 106 performs chat communication via the communication device 101 as shown in FIG. Exit.
  • the processor 106 causes the touch panel 150 to display an “invite” button 150X for starting a chat (step S602).
  • the present invention can also be applied to a case where it is achieved by supplying a program to a system (for example, network system 1 or the like) or an apparatus (for example, mobile phone 100 or the like). Then, a storage medium (for example, the memory 103) storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is supplied. The effect of the present invention can also be enjoyed when the processor) reads out and executes the program code stored in the storage medium.
  • a system for example, network system 1 or the like
  • an apparatus for example, mobile phone 100 or the like
  • a storage medium for example, the memory 103
  • a computer or CPU, MPU, etc.
  • the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
  • a storage medium for supplying the program code for example, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card (IC memory card), ROM (mask ROM, flash) EEPROM, etc.) can be used.
  • the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

 通信端末装置(100)は、画像情報を表示するためのディスプレイ(107)と、ネットワークを介して他の端末との間で情報を送受信するための通信デバイス(101)と、命令情報及び画像情報を入力するための入力デバイス(119)と、第1の画像の表示中に入力デバイスからの第1の命令情報の入力に基づきディスプレイに第2の画像を表示させて、通信デバイスを介して第1の情報を他の端末へ送信する第1の制御と、第2の画像の表示中に入力デバイスからの第2の命令情報の入力に基づきディスプレイに第1の画像を表示させて、通信デバイスを介して第2の情報を他の端末へ送信する第2の制御を行うためのプロセッサ(106)とを備える。

Description

通信端末装置、通信方法、および通信プログラム
 本発明は、ネットワークを介して他の端末と接続可能な通信端末装置、通信方法、および通信プログラムに関し、特に、リアルタイムで他の端末と情報をやり取りする通信端末装置、通信方法、および通信プログラムに関する。
 従来から、各々の通信端末においてユーザが同時に描画することができる手書き通信アプリケーションが知られている。このような手書き通信アプリケーションにおいては、各々の通信端末は、自身が受け付けた手書き入力に基づいて手書き画像を表示するとともに、手書き入力に対応する手書き情報を相手端末へと送信する。そして、各々の通信端末は、相手端末から手書き情報を受信するとともに、当該手書き情報に基づいて手書き画像を表示する。
 そして、たとえば、特開2001-111708号公報(特許文献1)には、携帯型情報通信装置が開示されている。特開2001-111708号公報(特許文献1)によると、携帯型情報通信装置は、液晶ディスプレイ一体型タブレット等の入力手段を用いてユーザが入力した手書きデータの座標情報を、逐次連続して接続先の携帯型情報通信装置に送信するとともに、入力された手書きデータの筆跡を液晶ディスプレイ等表示手段に表示し、同時に、接続先の携帯型情報通信装置から送られてきた手書きデータの座標情報をもとに、受信した手書きデータの筆跡を表示手段に表示できるように構成したことを特徴とするものである。この構成により、携帯型の端末装置を用いて、手書き入力データをリアルタイムで送受信することができ、場所を選ばずいつでも筆談のような会話型のコミュニケーションを実現することができる。
 また、特開2003-234842号公報(特許文献2)には、リアルタイム手書き通信システムが開示されている。特開2003-234842号公報(特許文献2)によると、リアルタイム手書き通信システムは、タッチパネル、タッチペン、データ入力装置、コントローラ装置、データ出力装置および表示装置を有する。手書きデータをタッチペンで入力し、出力データに変換できる。データ入力装置は、別のリアルタイム手書き通信システムから送信された入力データを受信し入力する。コントローラ装置は、タッチパネルおよびデータ入力装置と接続されており、入力データおよび出力データをリアルタイムに処理し、送信する。データ出力装置は、コントローラ装置に接続され、他のリアルタイム手書き通信システムに出力データを送信する。表示装置は入力データおよび出力データを表示する。
 また、特開2001-333204号公報(特許文献3)には、携帯端末装置が開示されている。特開2001-333204号公報(特許文献3)によると、携帯端末装置は、カラー表示可能な手書きデータ表示手段と、手書きデータ表示手段表面に設けた手書き入力手段と、手書き入力手段により入力された手書きデータを含む複数の手書きデータを保持する手書きデータ保持手段と、手書きデータ保持手段に保持されている複数の手書きデータを色分けして合成し同一画面に表示するデータ表示管理手段と、手書き入力手段により入力された手書きデータと相手側端末の手書きデータを保持する手書きデータ保持手段と、手書きデータ保持手段に保持されている自身の手書きデータを相手側端末にリアルタイムに送信し逆に相手側端末から手書きデータを受信し手書きデータ保持手段に書き込むデータ通信手段で構成した。
 また、特開2004-221842号公報(特許文献4)には、コミュニケーションシステムおよびその端末装置が開示されている。特開2004-221842号公報(特許文献4)によると、セッション制御手段は、音声通話、画像および手書きデータ通信を受信側の許可を必要とせずに行う。画像・手書きデータ管理手段では、複数のプレーン(面)を持ち、プレーンのうち一つに該基本となる画像データを表示し、通信中の手書きデータを別のプレーンに表示し、これら複数のプレーンを重ね合わせて表示する。画像データ送信制御手段/受信制御手段では、該基本となる画像データについて、その便宜的な名称やデータ内容を切り替えて送受信する。表示制御手段では、該基本となる画像データと手書きデータの座標系を揃え、手書きデータの指す位置を端末装置間で交換し、該基本となる画像データと手書きデータが表示手段に表示されるようにスクロールして表示する。
 また、特開2004-234594号公報(特許文献5)には、フォトコミュニケーションシステムが開示されている。特開2004-234594号公報(特許文献5)によると、デジタルカメラのメモリーカードなどから画像データを受け取る画像入力手段、画像データなどを記録するデータ記録手段、ユーザからの指示入力を行う入力手段、記録した画像などの表示を行う画像表示手段、記録した画像などのデータを他の端末とやり取りするためのデータ通信手段、端末の実行制御を行う制御手段を備える1対の情報通信端末であって、いずれの情報通信端末においても画像表示手段に表示された画像を見ながら画像表示手段に重畳された入力手段により手書きのグラフィック要素の書き込みを行えば、画像を含めた落書きの結果がリアルタイムに他方の情報通信端末に表示されるように構成する。
特開2001-111708号公報 特開2003-234842号公報 特開2001-333204号公報 特開2004-221842号公報 特開2004-234594号公報
 しかしながら、従来の通信端末においては、それぞれの通信端末のユーザが、相手ユーザとのコミュニケーションが正常に継続しているか否かを認識し難いことがあった。より詳細には、音声通話を行っている場合には、それぞれの通信端末のユーザは相槌を打つことなどによって相手ユーザとの間で円滑なコミュニケーションを行うことができる。しかしながら、チャット通信などを行っている場合には、それぞれの通信端末のユーザが、相手ユーザとのコミュニケーションが正常に継続しているか否かを認識し難い。
 本発明は、かかる問題を解決するためになされたものであり、その目的は、ユーザが現在の状況を把握し易い通信端末装置を提供することである。あるいは、その目的は、ユーザが相手ユーザとの間でより円滑なコミュニケーションを図ることができる通信端末装置を提供することである。
 この発明のある局面に従うと、自己の端末の画像情報を他の端末と送受信する通信端末装置が提供される。通信端末は、画像情報を表示するためのディスプレイと、ネットワークを介して他の端末との間で情報を送受信するための通信デバイスと、命令情報及び画像情報を入力するための入力デバイスと、第1の画像の表示中に入力デバイスからの第1の命令情報の入力に基づきディスプレイに第2の画像を表示させて、通信デバイスを介して第1の情報を他の端末へ送信し、通信デバイスを介して他の端末から第1の情報を受信すると、ディスプレイに第2の画像を表示させる第1の制御と、第2の画像の表示中に入力デバイスからの第2の命令情報の入力に基づきディスプレイに第1の画像を表示させて、通信デバイスを介して第2の情報を他の端末へ送信し、通信デバイスを介して他の端末から第2の情報を受信すると、ディスプレイに第1の画像を表示させる第2の制御を行うためのプロセッサとを含む。
 この発明の別の局面に従うと、自己の端末の画像情報を他の端末と送受信する通信端末装置が提供される。通信端末は、画像情報を表示するためのディスプレイと、ネットワークを介して他の端末との間で情報を送受信するための通信デバイスと、命令情報及び画像情報を入力するための入力デバイスと、第1の画像の表示中に入力デバイスからの第1の命令情報の入力に基づきディスプレイに第2の画像を表示させて、通信デバイスを介して第1の情報を他の端末へ送信する第1の制御と、第2の画像の表示中に入力デバイスからの第2の命令情報の入力に基づきディスプレイに第1の画像を表示させて、通信デバイスを介して第2の情報を他の端末へ送信する第2の制御を行うためのプロセッサとを含む。
 好ましくは、プロセッサは、第1の制御として、入力デバイスを介して入力される第1の命令情報としての他の端末への画像情報を送信するための指示に基づいて、通信デバイスを介して第1の情報を他の端末へ送信するとともに、送信される画像を入力する権限が自端末にあることを示す情報を第2の画像としてディスプレイに表示させる。プロセッサは、第2の制御として、入力デバイスを介して入力される第2の命令情報としての送信される画像を入力する権限を移す指示に基づいて、通信デバイスを介して第2の情報を他の端末へ送信するとともに、送信される画像を入力する権限が他の端末にあることを示す情報を第1の画像としてディスプレイに表示させる。
 好ましくは、プロセッサは、第1および第2の画像の表示中に、通信デバイスを介して入力デバイスからの手書き入力に対する第1の手書き情報を他の端末へ送信し、通信デバイスを介して他の端末から第2の手書き情報を受信し、第1および第2の画像の表示中に、第1および第2の手書き情報のそれぞれに基づいてディスプレイに第1および第2の手書き画像を表示させる。
 好ましくは、プロセッサは、第1の画像が表示されている時間が第1の所定時間に達したか否かを判断し、第1の画像が表示されている時間が第1の所定時間に達したときに、ディスプレイに第3の画像を表示させる。
 好ましくは、プロセッサは、ディスプレイに第1の所定時間と第1の画像が表示されている時間との差分をカウントダウン表示させる。
 好ましくは、プロセッサは、第1の画像の表示中に、入力デバイスに命令が入力されない時間が第2の所定時間に達したか否かを判断し、入力デバイスに命令が入力されない時間が第2の所定時間に達したときに、ディスプレイに第4の画像を表示させる。
 好ましくは、プロセッサは、ディスプレイに第2の所定時間と入力デバイスに命令が入力されない時間との差分をカウントダウン表示させる。
 この発明の別の局面に従うと、自己の端末の画像情報を他の端末と送受信する通信端末装置が提供される。通信端末装置は、画像情報を表示するためのディスプレイと、ネットワークを介して他の端末との間で情報を送受信するための通信デバイスと、第1の画像の表示中に通信デバイスを介して他の端末から第1の情報を受信すると、ディスプレイに第2の画像を表示させる第1の制御と、第2の画像の表示中に通信デバイスを介して他の端末から第2の情報を受信すると、ディスプレイに第1の画像を表示させる第2の制御と行うためのプロセッサとを含む。
 この発明の別の局面に従うと、自己の端末の画像情報を他の端末と送受信する通信端末装置が提供される。通信端末装置は、画像情報を表示するためのディスプレイと、ネットワークを介して他の端末との間で情報を送受信するための通信デバイスと、命令情報及び画像情報を入力するための入力デバイスと、第1の画像の表示中に、入力デバイスを介して第1の画像に対する操作と接続端末の選択とを受け付けることにより、通信デバイスを介して接続端末に第1の情報を送信し、ディスプレイに第2の画像を表示させる第1の制御と、第2の画像の表示中に、入力デバイスを介して第2の画像に対する操作を受け付けることにより、通信デバイスを介して接続端末に第2の情報を送信し、ディスプレイに第1の画像を表示させる第2の制御とを行うためのプロセッサとを含む。
 この発明の別の局面に従うと、ディスプレイと通信デバイスと入力デバイスとプロセッサとを含む通信端末装置における通信方法が提供される。通信方法は、プロセッサが、第1の画像の表示中に入力デバイスからの第1の命令情報の入力に基づきディスプレイに第2の画像を表示させて、通信デバイスを介して第1の情報を他の端末へ送信するステップと、プロセッサが、通信デバイスを介して他の端末から第1の情報を受信すると、ディスプレイに第2の画像を表示させるステップと、プロセッサが、第2の画像の表示中に入力デバイスからの第2の命令情報の入力に基づきディスプレイに第1の画像を表示させて、通信デバイスを介して第2の情報を他の端末へ送信するステップと、プロセッサが、通信デバイスを介して他の端末から第2の情報を受信すると、ディスプレイに第1の画像を表示させるステップとを含む。
 この発明の別の局面に従うと、ディスプレイと通信デバイスと入力デバイスとプロセッサとを含む通信端末装置に通信させるための通信プログラムが提供される。通信プログラムは、プロセッサに、第1の画像の表示中に入力デバイスからの第1の命令情報の入力に基づきディスプレイに第2の画像を表示させて、通信デバイスを介して第1の情報を他の端末へ送信するステップと、通信デバイスを介して他の端末から第1の情報を受信すると、ディスプレイに第2の画像を表示させるステップと、第2の画像の表示中に入力デバイスからの第2の命令情報の入力に基づきディスプレイに第1の画像を表示させて、通信デバイスを介して第2の情報を他の端末へ送信するステップと、通信デバイスを介して他の端末から第2の情報を受信すると、ディスプレイに第1の画像を表示させるステップとを実行させる。
 以上のように、本発明によって、ユーザが現在の状況を把握し易い通信端末装置が提供される。あるいは、ユーザが相手ユーザとの間でより円滑なコミュニケーションを図ることができる通信端末装置が提供される。
本実施の形態に係るネットワークシステムの一例を示す概略図である。 ネットワークシステムにおける動作概要を示すシーケンス図である。 本実施の形態に係る動作概要に沿った第1および第2の携帯電話の表示状態の推移を示した第1のイメージ図である。 本実施の形態に係る動作概要に沿った第1および第2の携帯電話の表示状態の推移を示した第2のイメージ図である。 本施の形態に係る携帯電話の概観を示すイメージ図である。 本施の形態に係る携帯電話のハードウェア構成を示すブロック図である。 各種変数を示すイメージ図である。 下地ファイルのフォーマットを示すイメージ図である。 フレーム画像を示すイメージ図である。 本実施の形態に係る携帯電話(通信端末)の機能構成を示すブロック図である。 本実施の形態に係る携帯電話におけるP2P通信のメイン処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における第1の入力モードの処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における第1の待ちモードの処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における第2の入力モードおよび第2の待ちモードの処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における0.1秒タイマ割込処理における処理手順を示すフローチャートである。 本実施の形態に係るネットワークシステムの第1の応用例におけるP2P通信中の第1および第2の携帯電話の表示状態の推移を示した第1のイメージ図である。 本実施の形態に係るネットワークシステムの第1の応用例におけるP2P通信中の第1および第2の携帯電話の表示状態の推移を示した第2のイメージ図である。 本実施の形態に係るネットワークシステムの第1の応用例におけるP2P通信中の第1および第2の携帯電話の表示状態の推移を示した第3のイメージ図である。 第2の応用例に係るチャットの開始処理および終了処理の処理手順を示すフローチャートである。 本応用例に係るネットワークシステムにおけるチャット開始時の第1および第2の携帯電話の表示状態の推移を示したイメージ図である。 本応用例に係るネットワークシステムにおけるチャット終了時の第1および第2の携帯電話の表示状態の推移を示したイメージ図である。
 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
 また、以下では、携帯電話100を「通信端末」の代表例として説明を行う。ただし、通信端末は、パーソナルコンピュータや、カーナビゲーション装置(Satellite navigation system)や、PND(Personal Navigation Device)や、PDA(Personal Digital Assistance)などのような、他の情報通信機器であってもよい。
 <ネットワークシステム1の全体構成>
 まず、ネットワークシステム1の実施の形態1について説明する。図1は、本実施の形態に係るネットワークシステム1の一例を示す概略図である。図1に示すように、ネットワークシステム1は、携帯電話100A,100Bと、マッチングサーバ400と、インターネット網(第1のネットワーク)500と、キャリア網(第2のネットワーク)700とを含む。また、本実施の形態に係るネットワークシステム1は、車両250に搭載されるカーナビゲーション装置200と、パーソナルコンピュータ(PC;Personal Computer)300とを含む。
 なお、説明の容易化のために、以下では、本実施の形態に係るネットワークシステム1が、第1の携帯電話100Aと、第2の携帯電話100Bとを含む場合について説明する。また、携帯電話100A,100Bの各々に共通の構成や機能を説明する際には、それらを携帯電話100とも総称する。そして、携帯電話100A,100B、カーナビゲーション装置200、パーソナルコンピュータ300の各々に共通の構成や機能を説明する際には、それらを通信端末とも総称する。
 携帯電話100は、キャリア網700に接続可能に構成されている。カーナビゲーション装置200は、インターネット網500に接続可能に構成されている。パーソナルコンピュータ300は、LAN(Local Area Network)350やWAN(Wide Area Network)を介してインターネット網500に接続可能に構成されている。マッチングサーバ400は、インターネット網500に接続可能に構成されている。
 より詳細には、第1の携帯電話100Aと、第2の携帯電話100Bと、カーナビゲーション装置200と、パーソナルコンピュータ300とは、キャリア網700やインターネット網500を介して互いに接続可能であって、互いにデータの送受信が可能である。また、携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300には、自端末を特定するための識別情報(たとえば、メールアドレスやIP(Internet Protocol)アドレスなど)が割り当てられる。すなわち、携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300は、内部の記録媒体に他の通信端末の識別情報を記憶することができ、当該識別情報に基づいてキャリア網700やインターネット網500などを介して当該他の通信端末とデータ送受信を行うことができる。
 なお、本実施の形態に係る携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300とは、各通信端末に割り当てられるIPアドレスを利用して、図示しないメールサーバを介さずに他の通信端末とデータ送受信を行うものである。ここでは、各通信端末がマッチングサーバ400にアクセスする際には、すなわち各通信端末がインターネットにアクセスした際に、マッチングサーバ400あるいは他の図示しないサーバ装置などによってIPアドレスが割り当てられるものとする。IPアドレスの割り当て処理の詳細は公知であるので、ここでは説明を繰り返さない。
 特に、本実施の形態に係る携帯電話100、カーナビゲーション装置200、パーソナルコンピュータ300は、自身に割り当てられたIPアドレスを利用することにより、直接的に相互にネットワークを介してデータ送受信を行うことが可能である。すなわち、本実施の形態に係るネットワークシステム1に含まれる携帯電話100、カーナビゲーション装置200、パーソナルコンピュータ300は、いわゆるP2P(Pear to Pear)型のネットワークを構成することが可能である。
 <ネットワークシステム1の動作概要>
 次に、本実施の形態に係るネットワークシステム1の動作概要について説明する。図2は、ネットワークシステム1における動作概要を示すシーケンス図である。図1および図2に示すように、本実施の形態に係る各通信端末は、P2P型のデータ送受信を行うために、はじめに互いのIPアドレスを交換(取得)する必要がある。そして、各通信端末は、IPアドレスを取得したのちに、P2P型のデータ送受信によってメッセージや添付ファイルなどを他の通信端末に送信する。
 ただし、以下では、通信端末のそれぞれが、マッチングサーバ400に生成されたチャットルームを介してメッセージおよびIPアドレスを送受信し、その後互いのIPアドレスに基づいてP2P通信を行う場合について説明する。
 まず、第1の携帯電話100A(図2において端末A)が、マッチングサーバ400にIP登録(ログイン)を要求する(ステップS002)。第1の携帯電話100Aは、同時にIPアドレスを取得してもよいし、予め他のサーバ装置などからIPアドレスを取得してもよい。より詳細には、第1の携帯電話100Aは、キャリア網700、インターネット網500を介して、マッチングサーバ400に第1の携帯電話100AのメールアドレスとIPアドレスと第2の携帯電話100B(図2において端末B)のメールアドレスと新たなチャットルームの生成を要求するメッセージとを送信する。
 マッチングサーバ400は、その要求に応じて、第1の携帯電話100AのメールアドレスをそのIPアドレスに対応付けて格納する。そして、マッチングサーバ400は、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいてルーム名を生成し、あるいは、メッセージに含まれるルーム名を抽出して、当該ルーム名のチャットルームを生成する。このとき、マッチングサーバ400は、チャットルームを生成が完了した旨を第1の携帯電話100Aに通知してもよい。マッチングサーバ400は、ルーム名と参加中の通信端末のIPアドレスとを対応付けて格納する。
 第1の携帯電話100Aのユーザは、第2の携帯電話100Bのユーザに、新たなチャットルームを生成したことを知らせる、すなわち第2の携帯電話100Bのユーザをチャットルームに招待する。たとえば、第1の携帯電話100Aは、キャリア網700、インターネット網500を介して、P2P参加要請メールを第2の携帯電話100Bに送信する。
 第2の携帯電話100Bは、P2P参加要請メールを受信すると、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいてルーム名を生成し、あるいは参加要請メールからルーム名を取得し、マッチングサーバ400に第2の携帯電話100BのメールアドレスとIPアドレスとそのルーム名を有するチャットルームへ参加する旨のメッセージとを送信する(ステップS008)。第2の携帯電話100Bは、同時にIPアドレスを取得してもよいし、先にIPアドレスを取得してからマッチングサーバ400にアクセスしてもよい。このとき、マッチングサーバ400はチャットルームを削除してもよい。
 マッチングサーバ400は、そのメッセージを受け付けて、第2の携帯電話100AのメールアドレスをIPアドレスに対応付けて格納する。そして、マッチングサーバ400は、第1の携帯電話100Aに、第2の携帯電話100Bがチャットルームに参加した旨と第2の携帯電話100BのIPアドレスとを送信する(ステップS010)。同時に、マッチングサーバ400は、第2の携帯電話100Bに、チャットルームへの参加を受け付けた旨と第1の携帯電話100AのIPアドレスとを送信する。
 第1の携帯電話100Aは、第2の携帯電話100BのIPアドレスに基づいて第2の携帯電話100BにP2P接続要求メッセージ(開始メッセージ)を送信する(ステップS012)。第2の携帯電話100Bは、接続要求メッセージを受信して、第1の携帯電話100AのIPアドレスに基づいて第1の携帯電話100Aに第1の接続承諾メッセージ(返答メッセージ)を送信する(ステップS014)。第1の携帯電話100Aは、第2の携帯電話100Bから第1の接続承諾メッセージを受信して、第2の携帯電話100Bに第2の接続承諾メッセージを送信する(ステップS016)。
 このようにして、第1の携帯電話100Aと第2の携帯電話100Bとは、互いに相手を認証する。認証が完了すると、第1の携帯電話100Aと第2の携帯電話100Bとは、P2P通信を開始する(ステップS018)。
 そして、第1の携帯電話100Aが、第2の携帯電話100BにP2P通信を切断する旨の切断要求メッセージを送信すると(ステップS030)、第2の携帯電話100Bは、第1の携帯電話100Aに切断する要求を受け付けた旨の切断承諾メッセージを送信する(ステップS032)。
 <P2P通信の動作概要>
 以下、本実施の形態に係るネットワークシステム1におけるP2P通信の動作概要について説明する。図3および図4は、本実施の形態に係るP2P通信の動作概要に沿った第1および第2の携帯電話100A,100Bの表示状態の推移を示したイメージ図である。以下では、図3および図4を参照しながら、第1の携帯電話100Aと第2の携帯電話100Bとにおける表示状態の推移について説明する。
 より詳細には、図3(A)は通常のP2P通信中の第1の携帯電話100Aの表示状態を示す第1のイメージ図である。図3(B)は通常のP2P通信中の第2の携帯電話100Bの表示状態を示す第1のイメージ図である。
 図3(C)は第1の入力モード中の第1の携帯電話100Aの表示状態を示す第1のイメージ図である。図3(D)は第1の待ちモード中の第2の携帯電話100Bの表示状態を示す第1のイメージ図である。図3(E)は第1の入力モード中の第1の携帯電話100Aの表示状態を示す第2のイメージ図である。図3(F)は第1の待ちモード中の第2の携帯電話100Bの表示状態を示す第2のイメージ図である。図3(G)は第1の入力モード中の第1の携帯電話100Aの表示状態を示す第3のイメージ図である。図3(H)は第1の待ちモード中の第2の携帯電話100Bの表示状態を示す第3のイメージ図である。
 図3(I)は第2の待ちモード中の第1の携帯電話100Aの表示状態を示す第1のイメージ図である。図3(J)は第2の入力モード中の第2の携帯電話100Bの表示状態を示す第1のイメージ図である。
 図4(A)は第2の待ちモード中の第1の携帯電話100Aの表示状態を示す第2のイメージ図である。図4(B)は第2の入力モード中の第2の携帯電話100Bの表示状態を示す第2のイメージ図である。図4(C)は第2の待ちモード中の第1の携帯電話100Aの表示状態を示す第3のイメージ図である。図4(D)は第2の入力モード中の第2の携帯電話100Bの表示状態を示す第3のイメージ図である。図4(E)は第2の待ちモード中の第1の携帯電話100Aの表示状態を示す第4のイメージ図である。図4(F)は第2の入力モード中の第2の携帯電話100Bの表示状態を示す第4のイメージ図である。図4(G)は第2の待ちモード中の第1の携帯電話100Aの表示状態を示す第5のイメージ図である。図4(H)は第2の入力モード中の第2の携帯電話100Bの表示状態を示す第5のイメージ図である。
 図4(I)は通常のP2P通信中の第1の携帯電話100Aの表示状態を示す第2のイメージ図である。図4(J)は通常のP2P通信中の第2の携帯電話100Bの表示状態を示す第2のイメージ図である。
 まず、図3(A)および図3(B)に示すように、通常のP2Pモードにおいては、第1の携帯電話100Aおよび第2の携帯電話100Bは、通常のチャット画面を表示している。この状態において、第1の携帯電話100Aのユーザがディスプレイ107の質問ボタンを押下すると、第1の携帯電話100Aは図3(C)に示す第1の入力モード(Q_MODE)に移行する。
 図3(C)に示すように、第1の入力モードにおいては、第1の携帯電話100Aはディスプレイ107のチャット用のフレームを第1の画像に変更する。第1の画像とは、たとえば通常のP2Pモードのフレームとは異なる色(たとえば赤色)のフレーム画像であってもよいし、ユーザに「自分が何かを手書き入力すべき状態である」ことを認識させるアイコンやコメントであってもよい。第1の携帯電話100Aは、第1の入力モードに移行する際に、第2の携帯電話100Bに第1の入力モードに移行する旨を通知するメッセージ(QSTコマンド)を送信する。なお、以下の第1の入力モードにおいては、第1の携帯電話100Aは、手書き入力が開始されるまで、ディスプレイ107の所定位置に第1の所定時間の残り時間をカウントダウンするための画像を表示させる。
 第2の携帯電話100Bは、QSTコマンドを受信すると第1の待ちモード(A_MODE)に移行する。図3(D)に示すように、第1の待ちモードにおいては、第2の携帯電話100Bはディスプレイ107のチャット用のフレームを第2の画像に変更する。第2の画像とは、たとえば通常のP2Pモードのフレームとは異なる色(たとえば青色)のフレーム画像であってもよいし、ユーザに「相手が何かを手書き入力すべき状態である」ことを認識させるアイコンやコメントであってもよい。
 その後、図3(E)~図3(H)に示すように、第1の携帯電話100Aおよび第2の携帯電話100Bの各々は、第1の携帯電話100Aが受け付けた手書き入力に対応する手書き画像および第2の携帯電話100Bが受け付けた手書き入力に対応する手書き画像を順次表示していく。そして、第1の入力モードである第1の携帯電話100Aが、所定時間の間、手書き入力を受け付けない場合、すなわちスタイラスペン99がタブレット119から持ち上げられてから所定時間が経過すると、図3(I)に示すように、第1の携帯電話100Aは第2の待ちモード(A_MODE2)に移行する。
 本実施の形態に係る携帯電話100は、第1の入力モード中に、所定時間の間、手書き入力を受け付けない場合に、第2の待ちモードに移行する。しかしながら、携帯電話100は、第1の入力モード中に、所定のボタンやソフトウェアキーボードの押下を受け付けることによって、第2の待ちモードに移行してもよい。
 図3(I)に示すように、第2の待ちモードにおいては、第1の携帯電話100Aはディスプレイ107のチャット用のフレームを第3の画像に変更する。第3の画像とは、たとえば通常のP2Pモードのフレームとは異なる色(たとえば黄色)のフレーム画像であってもよいし、ユーザに「相手が何かを手書き入力すべき状態である」ことを認識させるアイコンやコメントであってもよい。ただし、第3の画像は、第2の画像と同じであってもよい。
 第1の携帯電話100Aは、第2の待ちモードに移行する際に、第2の携帯電話100Bに、第1の入力モードが終了した旨すなわち第2の待ちモードに移行する旨を通知するメッセージ(QENDコマンド)を送信する。なお、以下の第2の待ちモードにおいては、第1の携帯電話100Aは、ディスプレイ107に第2の所定時間の残り時間をカウントダウンするための画像を表示させる。
 第2の携帯電話100Bは、QENDコマンドを受信すると第2の入力モード(Q_MODE)に移行する。図3(J)に示すように、第2の入力モードにおいては、第2の携帯電話100Bはディスプレイ107のチャット用のフレームを第4の画像に変更する。第4の画像とは、たとえば通常のP2Pモードのフレームとは異なる色(たとえば緑色)のフレーム画像であってもよいし、ユーザに「自分が何かを手書き入力すべき状態である」ことを認識させるアイコンやコメントであってもよい。ただし、第4の画像は、第1の画像と同じであってもよい。
 その後、図4(A)~図4(H)に示すように、第1の携帯電話100Aおよび第2の携帯電話100Bの各々は、第1の携帯電話100Aが受け付けた手書き入力に対応する手書き画像および第2の携帯電話100Bが受け付けた手書き入力に対応する手書き画像を順次表示していく。この間、第2の携帯電話100Bもディスプレイ107に第2の所定時間の残り時間をカウントダウンするための画像を表示する。
 そして、第2の所定時間が経過すると、図4(I)および図4(J)に示すように、第1の携帯電話100Aおよび第2の携帯電話100Bは通常のP2Pモードに移行する。すなわち、第1の携帯電話100Aと第2の携帯電話100Bのディスプレイ107は、通常のP2Pモードのチャット用のフレームを表示し直す。
 このように、本実施の形態に係る通信端末は、ユーザが相手ユーザとの円滑なコミュニケーションを図ることができる。換言すれば、通信端末のユーザは、「自分が何かを手書き入力すべき状態である」のか、「相手が何かを手書き入力すべき状態である」のかを容易に認識することができるため、会話のボールをいずれか握っているのかを容易に認識することができる。以下、このような機能を実現するための構成について詳述する。
 <携帯電話100のハードウェア構成>
 本実施の形態に係る携帯電話100のハードウェア構成について説明する。図5は、本施の形態に係る携帯電話100の概観を示すイメージ図である。図6は、本施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。
 図5および図6に示すように、本実施の形態に係る携帯電話100は、外部のネットワークとの間でデータを送受信する通信デバイス101と、自端末の現在位置情報を取得するGPS102と、プログラムや各種データベースを記憶するメモリ103と、各種情報の入力を受け付けるスイッチ104と、時刻(時間)を計測する時計105と、プロセッサ(制御部)106と、ディスプレイ107と、タブレット119とを含む。
 通信デバイス101は、プロセッサ106からの通信データを通信信号に変換し、その通信信号を図示しないアンテナを介して発信する。通信デバイス101は、アンテナを介して受信した通信信号を通信データに変換し、その通信データをプロセッサ106に入力する。
 GPS102は、図示しない測位アンテナを介して衛星などから受信した測位用電波に基づいて、携帯電話100の現在位置を示す現在位置情報を生成し、その現在位置情報をプロセッサ106に入力する。
 スイッチ104は、キー入力操作などによってユーザから情報を受け付ける。たとえば、スイッチ104は、テンキーや決定キーなどを含み、相手先アドレスの選択命令やメール本文の入力などを受け付ける。なお、スイッチ104や後述するタブレット119などを総称して「入力デバイス」ともいう。
 プロセッサ106は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現され、携帯電話100の各部を制御する。たとえば、スイッチ104やタブレット119などの入力デバイスを介してユーザから各種の命令を受け付けて、通信デバイス101やネットワークを介して外部の通信端末とデータの送受信を行う。プロセッサ106は、メモリ103から制御プログラムを読み出して、当該制御プログラムを実行する。
 本実施の形態に係るディスプレイ107は、有機EL(electroluminescence)や液晶パネルやCRT(Cathode Ray Tube)から構成される。そして、本実施の形態に係る携帯電話100においては、ディスプレイ107の上側(表側)にタブレット119が敷設されている。これによって、ユーザは、たとえばスタイラスペン99や指などを用いることによって、タブレット119を介して図形情報などをプロセッサ106に手書き入力することができる。すなわち、本実施の形態に係るディスプレイ107とタブレット119とは、いわゆるタッチパネルを構成する。
 なお、ディスプレイ107やタブレット119とは、各種方式のタッチパネルによって実現されてもよいし、光センサ液晶によって実現されてもよい。
 メモリ103は、たとえば、作業用メモリとして機能する揮発性のS-RAM(Static-Random Access Memory)やV-RAM(Video Random Access Memory)、制御プログラムなどを格納する不揮発性のROM(Read Only Memory)や、不揮発性のNV-RAM(Non-Volatile Random Access Memory)や、静止画像データや動画像データなどを記憶する不揮発性のHDD(Hard Disk Drive)などによって実現される。メモリ103は、後述するように、各種変数1031や、下地ファイル1032や、通常のP2Pモード用のフレーム画像1033や、第1の入力モード用のフレーム画像1034や、第2の入力モード用のフレーム画像1035や、最終的にディスプレイ107に表示される画像1036などを記憶する。
 図7は、各種変数1031を示すイメージ図である。図7に示すように、メモリ103のうちの、作業用メモリとして機能する揮発性のS-RAM(以下、ワークメモリともいう)は、各種変数1031を記憶する。ここで、IMDFは、下地画像を使用するか否かを示す変数である。Q_TMは、質問ボタン押下後にユーザが情報を入力し始めるまでの時間(第1の所定時間)の残り時間を示す変数である。たとえば、Q_TMには、0.1秒を1として、0から100までの値が格納される。A_TMは、QENDコマンドを送信(あるいは受信)してから通常のP2Pモードに戻るまでの時間(第2の所定時間)の残り時間を示す変数である。たとえば、A_TMには、0.1秒を1として、0から100までの値が格納される。PUP_TMは、第1の入力モード中にペンアップされてから第2の待ちモードに移行するまでの時間(第3の所定時間)の残り時間を示す変数である。たとえば、PUP_TMには、0.1秒を1として、0から100までの値が格納される。FstInpfは、質問ボタンが押下されてから、手書き入力がされたか否かを示す変数である。Dspxは、カウントダウン表示がされる表示位置のX座標である。Dspyは、カウントダウン表示がされる表示位置のY座標である。
 図8は、下地ファイル1032のフォーマットを示すイメージ図である。図8に示すように、メモリ103のうちの、たとえばHDDは下地ファイル1032を記憶する。プロセッサ106は、HDDからワークメモリへと下地ファイル1032を読み出して、当該下地ファイル1032に基づいてディスプレイ107に画像を表示させる。下地ファイル1032は、カウントダウン表示X座標Dspx、カウントダウン表示Y座標Dspy、カウントダウン表示用のフキダシ画像DNIMG、下地イメージ画像IMGを含む。
 たとえば、下地ファイル1032を構成する下地イメージ画像IMGは、後述する応用例にて示すように、たとえばオセロゲームに使用する碁盤の画像や、アニメのキャラクタの画像などを含む。
 図9は、フレーム画像1033,1034,1035を示すイメージ図である。より詳細には、図9(A)は、通常のP2Pモードのフレーム画像1033である。図9(B)は第1および第2の入力モードのフレーム画像1034である。図9(C)は第1および第2の待ちモードのフレーム画像1035である。図9に示すように、たとえばメモリ103を実現するHDDは通常のP2Pモードのフレーム画像1033と、第1および第2の入力モードのフレーム画像1034と、第1および第2の待ちモードのフレーム画像1035とを記憶する。プロセッサ106は、HDDからワークメモリへとフレーム画像1033,1034,1035を読み出して、当該フレーム画像1033,1034,1035に基づいて、ディスプレイ107に画像を表示させる。
 なお、本実施の形態に係る第1および第2の入力モードのフレーム画像1034(第1および第4の画像)は、通常のP2Pモードのフレーム画像1033(第5の画像)と異なる色(たとえば赤色)のフレーム画像としている。ただし、第1および第2の入力モードの表示内容と通常のP2Pモードの表示内容とが異なればよく、両者のフレームの線色が異なるものに限定されるものではない。
 また、本実施の形態に係る第1および第2の待ちモードのフレーム画像1035(第2および第4の画像)は、通常のP2Pモードのフレーム画像1033(第5の画像)および第1および第2の入力モードのフレーム画像1034(第1および第3の画像)と異なる色(たとえば青色)のフレーム画像としている。ただし、第1および第2の待ちモードの表示内容と、通常のP2Pモードおよび第1および第2の入力モードの表示内容とが異なればよく、両者のフレームの線色が異なるものに限定されるものではない。
 より詳細には、通常のP2Pモードのフレーム画像1033は、横長のディスプレイに対応したフレーム画像1033Aと、縦長のディスプレイに対応したフレーム画像1033Bとを含む。第1および第2の入力モードのフレーム画像1034は、横長のディスプレイに対応したフレーム画像1034Aと、縦長のディスプレイに対応したフレーム画像1034Bとを含む。第1および第2の待ちモードのフレーム画像1035は、横長のディスプレイに対応したフレーム画像1035Aと、縦長のディスプレイに対応したフレーム画像1035Bとを含む。
 <携帯電話100の機能構成>
 図10は、本実施の形態に係る携帯電話100(通信端末)の機能構成を示すブロック図である。図10に示すように、本実施の形態に係る携帯電話100は、通信制御部1061と、手書きアプリケーション1062と、タイマ処理部1063と、第2の判断部1065と、第1の判断部1064と、切替部1066と、表示制御部1067とを含む。また、図6に示すように、携帯電話100は、通信デバイス101と、時計105と、ディスプレイ107と、タブレット119と、メモリ103とを含む。
 前述したように、タブレット119は、ユーザから手書き入力やソフトウェアキー入力などを受け付けて、入力動作に対応する入力情報をメモリ103に格納する。タブレット119やスイッチ104は、ユーザからの各種入力を受け付ける入力デバイスを実現する。たとえば、タブレット119は、ユーザがタッチパネルに接触した軌跡を手書き入力として受け付けて、手書き入力に対応する手書き情報をプロセッサ106に受け渡す。プロセッサ106は、手書き情報をメモリ103に記憶する。
 ディスプレイ107は、プロセッサ106からのデータに基づいて、画像やテキストを表示する。具体的には、ディスプレイ107は、プロセッサ106からのデータに基づいて、自身のタブレット119にて受け付けた手書き入力に対応する手書き画像と、通信デバイス101にて受信した手書き情報に対応する手書き画像とを重ねて表示する。
 通信デバイス101は、図示しない通信アンテナや信号処理部によって実現される。通信デバイス101は、タブレット119が受け付けた手書き入力に対応する手書き情報を他の通信端末へと送信するとともに、他の通信端末から手書き情報を受信する。通信デバイス101は、受信した手書き情報をプロセッサ106に受け渡す。プロセッサ106は、受信した手書き情報をメモリ103に記憶する。
 メモリ103は、たとえば、各種変数1031などを一時的に(揮発的に)格納するワークメモリ(S-RAMなど)103Aと、ディスプレイ107にて表示する画像などを格納する表示メモリ(VRAMなど)103Bと、下地ファイル1032やフレーム画像1033,1034,1035などを格納する不揮発メモリ(HDDなど)103Cとを含む。なお、ディスプレイ107にて表示される画像1036は、たとえば、選択されたフレーム画像を示すフレームプレーン1037と、選択された下地画像を示す下地プレーン1038と、入力された手書き画像を示す手書きプレーン1039とを含む。
 通信制御部1061と、手書きアプリケーション1062と、タイマ処理部1063と、第2の判断部1065と、第1の判断部1064と、切替部1066と、表示制御部1067とは、プロセッサ106などによって実現される機能である。より詳細には、プロセッサ106が有する各機能は、プロセッサ106がメモリ103などに記憶される制御プログラムを実行して、図6に示される各ハードウェアを制御することによって実現される機能である。たとえば、プロセッサ106は、メモリ103の不揮発メモリ103Cに予め格納されたプログラムを、同じくメモリ103のワークメモリ103Aに読み出して実行することにより、上記の機能ブロックを実現する。
 通信制御部1061は、通信デバイス101を用いて、他の通信端末とP2P通信を行なう。より詳細には、通信制御部1061は、通信デバイス101を用いて他のサーバ装置などから自身のIPアドレスと他の通信端末のIPアドレスとを取得することにより、他の通信端末との間で当該IPアドレスを利用して直接データを送受信し始める。
 通信制御部1061は、通信デバイス101を介して他の通信端末からQSTコマンド(第1の情報)を受信する。逆に、通信制御部1061は、タブレット119を介して第1の命令を受け付けた際に、通信デバイス101を介して他の通信端末へQSTコマンド(第1の情報)を送信する。通信制御部1061は、たとえばタブレット119の質問ボタンが押下された際に、第1の命令を受け付けたと判断する。
 また、通信制御部1061は、通信デバイス101を介して他の通信端末からQENDコマンド(第2の情報)を受信する。通信制御部1061は、タブレット119を介して第2の命令を受け付けた際に、通信デバイス101を介して他の通信端末へQENDコマンド(第2の情報)を送信する。たとえば、第1の入力モードにおいて、タブレット119の所定のソフトウェアキーボードが押下された際、あるいはタブレット119が第3の所定時間以上スタイラスペン99の接触を検知しなかった場合に、通信制御部1061は第2の命令を受け付けたと判断する。
 手書きアプリケーション1062は、タブレット119が受け付けた手書き入力に対応する手書き情報を表示メモリ103Bに記憶するとともに、通信デバイス101が受信した手書き情報を表示メモリ103Bに記憶する。より詳細には、手書きアプリケーション1062は、タブレット119と通信デバイス101からの手書き情報に基づいて、手書きプレーン1039を更新する。
 表示制御部1067は、第1の入力モードにおいてはディスプレイ107にフレーム画像1034を表示させ、第1の待ちモードにおいてはディスプレイ107にフレーム画像1035を表示させる。そして、表示制御部1067は、第2の入力モードにおいてはディスプレイ107にフレーム画像1034を表示させ、第2の待ちモードにおいてはディスプレイ107にフレーム画像1035を表示させる。
 このように、本実施の形態に係る表示制御部1067は、第1の入力モードと第2の入力モードにおいて同様のフレーム画像1034を表示させている。しかしながら、表示制御部1067は、ユーザが2つのモードを区別して認識できるように、第1の入力モードと第2の入力モードにおいて異なるフレーム画像を表示させてもよい。
 また、本実施の形態に係る表示制御部1067は、第1の待ちモードと第2の待ちモードにおいて同様のフレーム画像1035を表示させている。しかしながら、表示制御部1067は、ユーザが2つのモードを区別して認識できるように、第1の入力モードと第2の入力モードにおいて異なるフレーム画像を表示させてもよい。
 なお、表示制御部1067は、通常のP2Pモードにおいては、ディスプレイ107にフレーム画像1033を表示させる。
 そして、表示制御部1067は、第1の入力モード中に、ディスプレイ107に、第1の所定時間と第1の入力モードの係属時間との差異をカウントダウン表示させる。つまり、表示制御部1067は、第1の入力モード中に、第1の所定時間の残り時間をディスプレイ107に表示させる。
 また、表示制御部1067は、第2の待ちモード中あるいは第2の入力モード中に、ディスプレイ107に、第2の所定時間と第2の待ちモードあるいは第2の入力モードの継続時間との差異をカウントダウン表示させる。つまり、表示制御部1067は、第2の待ちモード中あるいは第2の入力モード中に、ディスプレイ107に、第2の所定時間あるいは第2の待ちモードあるいは第2の入力モードの残り時間をカウントダウン表示させる。このとき、表示制御部1067は、ディスプレイ107のうちの、手書き画像が最初に描画された位置に、当該残り時間を表示させる。
 タイマ処理部1063は、時計105を参照することによって、所定の時間を計測する。たとえば、タイマ処理部1063は、時計105を参照することによって、質問ボタンが押下されたときからの経過時間を計測する。より詳細には、タイマ処理部1063は、第1の入力モードになってからタブレット119に手書き入力がされるまで経過時間を計測する。
 また、タイマ処理部1063は、時計105を参照することによって、第1の入力モードにおいて、スタイラスペン99や指などが一旦タブレット119に接触した後に、スタイラスペン99や指がタブレット119から離れてからの経過時間を計測する。加えて、タイマ処理部1063は、時計105を参照することによって、第2の待ちモードになってからの経過時間を計測する。
 第2の判断部1065は、第1の入力モードの継続時間が第1の所定時間に達したか否かを判断する。より詳細には、第2の判断部1065は、タブレット119が手書き入力を受け付けることなく、第1の入力モードの継続時間が第1の所定時間に達したか否かを判断する。
 第1の判断部1064は、第2の待ちモードあるいは第2の入力モードの継続時間が第2の所定時間に達したか否かを判断する。より詳細には、第1の判断部1064は、タブレット119が手書き入力の受け付けを終了したときから第3の所定時間を経過したか否かを判断し、第3の所定時間を経過したときからの経過時間が第2の所定時間を経過したか否かを判断する。
 切替部1066は、タブレット119を介して第1の命令(質問ボタンが押下された旨の信号)を受け付けた際に第1の入力モードに切り替える。切替部1066は、たとえばタブレット119の質問ボタンが押下された際に、第1の命令を受け付けたと判断する。また、切替部1066は、通信デバイス101を介して第1の情報(たとえばQSTコマンドなど)を受信した際に第2の待ちモードに切り替える。
 切替部1066は、タブレット119を介して第2の命令を受け付けた際に第2の待ちモードに切り替える。たとえば、第1の入力モードにおいて、タブレット119の所定のソフトウェアキーボードが押下された際、あるいはタブレット119が第3の所定時間以上スタイラスペン99の接触を検知しなかった場合に、切替部1066は第2の命令を受け付けたと判断する。切替部1066は、通信デバイス101を介して第2の情報(たとえばQENDコマンド)を受信した際に第2の入力モードに切り替える。
 切替部1066は、第2の判断部1065が、タブレット119が手書き入力を受け付けることなく、第1の入力モードの継続時間が第1の所定時間に達したと判断したときに、通常のP2Pモードに切り替える。切替部1066は、第1の判断部1064が、第2の待ちモードあるいは第2の入力モードの継続時間が第2の所定時間に達したときに、通常のP2Pモードに切り替える。
 <P2P通信のメイン処理>
 次に、本実施の形態に係る携帯電話100におけるP2P通信のメイン処理について説明する。図11は、本実施の形態に係る携帯電話100におけるP2P通信のメイン処理の処理手順を示すフローチャートである。
 図11を参照して、プロセッサ106は、下地画像(背景画像)が指定されたか否かを判断する(ステップS102)。下地画像が指定された場合(ステップS102にてYESである場合)、プロセッサ106は、対応する下地ファイル1032に基づいて、ディスプレイ107に指定された下地画像を表示する(ステップS104)。プロセッサ106は、メモリ103のIMDFに1を代入する(ステップS106)。プロセッサ106は、下地ファイル1032に基づいて、カウントダウン表示位置(Dspx,Dspy)を指定する(ステップS108)。そして、プロセッサ106は、0.1秒タイマ割込(SECTIMER)機能を稼働する(ステップS112)。
 一方、下地画像が指定されなかった場合(ステップS102にてNOである場合)、プロセッサ106は、メモリ103のIMDFに0を代入する(ステップS110)。そして上記同様、プロセッサ106は、0.1秒タイマ割込(SECTIMER)機能を稼働する(ステップS112)。
 次に、プロセッサ106は、図3(A)に示すように、通常のP2P通信用のフレーム画像1033をディスプレイ107に表示する(ステップS114)。プロセッサ106は、メモリ103のQ_TMに0を代入し、A_TMに0を代入し、PUP_TMに0を代入し、FstInpfに0を代入する(ステップS116)。
 プロセッサ106は、タブレット119を介して質問ボタンがユーザによって操作されたか否かを判断する(ステップS118)。質問ボタンがユーザによって操作された場合(ステップS118にてYESである場合)、プロセッサ106は、第1の入力モードへ移行する(Q_MODE)。質問ボタンがユーザによって操作されなかった場合(ステップS118にてNOである場合)、プロセッサ106は、通信デバイス101を介して相手端末からQSTコマンドを受信したか否かを判断する(ステップS120)。相手端末からQSTコマンドを受信した場合(ステップS120にてYESである場合)、プロセッサ106は、第1の待ちモードへ移行する(A_MODE)。
 相手端末からQSTコマンドを受信しなかった場合(ステップS120にてNOである場合)、プロセッサ106は、ユーザがタブレット119の手書きエリアに対して操作したか否かを判断する(ステップS122)。すなわち、プロセッサ106は、手書き入力を受け付けたか否かを判断する。プロセッサ106は、手書き入力を受け付けた場合(ステップS122にてYESである場合)、手書き入力に対応する手書き情報を通信デバイス101を介して相手端末に送信する(ステップS124)。プロセッサ106は、手書き情報に基づいてディスプレイ107に手書き画像を表示させる(ステップS126)。プロセッサ106はステップS118からの処理を繰り返す。
 一方、プロセッサ106は、手書き入力を受け付けなかった場合(ステップS122にてNOである場合)、通信デバイス101を介して相手端末から手書き情報を受信したか否かを判断する(ステップS128)。プロセッサ106は、相手端末から手書き情報を受信した場合(ステップS128にてYESである場合)、受信した手書き情報に基づいてディスプレイ107に手書き画像を表示させる(ステップS130)。プロセッサ106は、ステップS118からの処理を繰り返す。
 プロセッサ106は、相手端末から手書き情報を受信しなかった場合(ステップS128にてNOである場合)にも、ステップS118からの処理を繰り返す。
 <第1の入力モード>
 次に本実施の形態に係る携帯電話100における第1の入力モードの処理手順について説明する。図12は、本実施の形態に係る携帯電話100における第1の入力モードの処理手順を示すフローチャートである。
 図12を参照して、プロセッサ106は、通信デバイス101を介してQSTコマンドを相手端末に送信する(ステップS202)。プロセッサ106は、図3(C)に示すように、第1の入力モード用のフレーム画像1034をディスプレイ107に表示させる(ステップS204)。プロセッサ106は、ディスプレイ107の質問ボタンが表示されている位置に、メモリ103のQ_TMに格納されている値を10で除した数字を表示する(ステップS206)。プロセッサ106はメモリ103のQ_TMに100を代入し、メモリ103のFstInpfに0を代入する(ステップS208)。
 プロセッサ106は、ユーザがタブレット119の手書きエリアに対して操作したか否かを判断する(ステップS210)。すなわち、プロセッサ106は、手書き入力を受け付けたか否かを判断する。プロセッサ106は、手書き入力を受け付けた場合(ステップS210にてYESである場合)、通信デバイス101を介して手書き入力に対応する手書き情報を相手端末に送信する(ステップS212)。図3(E)および図3(G)に示すように、プロセッサ106は、手書き情報に基づいてディスプレイ107に手書き画像を表示させる(ステップS214)。
 プロセッサ106は、メモリ103のPUP_TMに10を代入する(ステップS216)。プロセッサ106は、メモリ103のFstInpfに0が代入されているか否かを判断する(ステップS218)。FstInpfに0が代入されていない場合(ステップS218にてNOである場合)、プロセッサ106は、ステップS210からの処理を繰り返す。
 一方、FstInpfに0が代入されている場合(ステップS218にてYESである場合)、プロセッサ106は、メモリ103のQ_TMに0を代入し、FstInpfに1を代入する。同時に、プロセッサ106は、ディスプレイ107の質問ボタンが表示されている位置に「質問」というメッセージを表示する(ステップS220)。プロセッサ106は、メモリ103のIMDFに0が代入されているか否かを判断する(ステップS222)。
 プロセッサ106は、メモリ103のIMDFに0が代入されていない場合(ステップS222にてNOである場合)、ステップS210からの処理を繰り返す。プロセッサ106は、メモリ103のIMDFに0が代入されている場合(ステップS222にてYESである場合)、設定されているカウントダウン表示位置(Dspx,Dspy)に手書き入力を受け付けた位置の近傍の座標を設定する(ステップS224)。たとえば、プロセッサ106は、手書き入力開始座標の1行2桁分右上の座標をカウントダウン表示位置(Dspx,Dspy)として設定する。プロセッサ106は、ステップS210からの処理を繰り返す。
 プロセッサ106は、手書き入力を受け付けなかった場合(ステップS210にてNOである場合)、0.1秒タイマ割込み(SECTIMER)機能からQ_TMUP信号が入力されたか否かを判断する(ステップS228)。プロセッサ106は、Q_TMUP信号が入力された場合(ステップS228にてYESである場合)、通常のP2Pモードへ移行する(N_MODE)。プロセッサ106は、Q_TMUP信号が入力されなかった場合(ステップS228にてNOである場合)、0.1秒タイマ割込み(SECTIMER)機能からQA_CHG信号が入力されたか否かを判断する(ステップS230)。
 プロセッサ106は、QA_CHG信号が入力された場合(ステップS230にてYESである場合)、相手端末へQENDコマンドを送信した上で(ステップS231)、第2の待ちモードに移行する(A_MODE2)。一方、プロセッサ106は、QA_CHG信号が入力されなかった場合(ステップS230にてNOである場合)、通信デバイス101を介して相手端末から手書き情報を受信したか否かを判断する(ステップS232)。プロセッサ106は、相手端末から手書き情報を受信した場合(ステップS232にてYESである場合)、受信した手書き情報に基づいてディスプレイ107に手書き画像を表示させる(ステップS234)。プロセッサ106は、ステップS210からの処理を繰り返す。プロセッサ106は、相手端末から手書き情報を受信しなかった場合(ステップS232にてNOである場合)にも、ステップS210からの処理を繰り返す。
 <第1の待ちモード>
 次に本実施の形態に係る携帯電話100における第1の待ちモードの処理手順について説明する。図13は、本実施の形態に係る携帯電話100における第1の待ちモードの処理手順を示すフローチャートである。
 図13を参照して、プロセッサ106は、メモリ103のFstInpfに0を代入する(ステップS302)。プロセッサ106は、図3(D)に示すように、ディスプレイ107に第1の待ちモード用のフレーム画像1035を表示させる(ステップS304)。
 プロセッサ106は、タブレット119を介して質問ボタンが操作されたか否かを判断する(ステップS306)。タブレット119を介して質問ボタンが操作された場合(ステップS306にてYESである場合)、プロセッサ106は、第1の入力モードへ移行する(Q_MODE)。タブレット119の質問ボタンが操作されなかった場合(ステップS306にてNOである場合)、プロセッサ106は、通信デバイス101を介して相手端末からQENDコマンドを受信したか否かを判断する(ステップS308)。プロセッサ106は、相手端末からQENDコマンドを受信した場合(ステップS308にてYESである場合)、第2の入力モードへと移行する(Q_MODE2)。プロセッサ106は、相手端末からQENDコマンドを受信しなかった場合(ステップS308にてNOである場合)、ユーザがタブレット119の手書きエリアに対して操作したか否かを判断する(ステップS310)。すなわちプロセッサ106は、手書き入力を受け付けたか否かを判断する。
 プロセッサ106は、手書き入力を受け付けた場合(ステップS310にてYESである場合)、受け付けた手書き入力に対応する手書き情報を通信デバイス101を介して相手端末に送信する(ステップS312)。プロセッサ106は、手書き情報に基づいて、ディスプレイ107に手書き画像を表示させる(ステップS314)。プロセッサ106は、ステップS306からの処理を繰り返す。
 一方、プロセッサ106は、手書き入力を受け付けなかった場合(ステップS310にてNO)である場合、通信デバイス101を介して相手端末から手書き情報を受信したか否かを判断する(ステップS316)。プロセッサ106は、相手端末から手書き情報を受信しなかった場合(ステップS316にてNOである場合)、ステップS306からの処理を繰り返す。プロセッサ106は、相手端末から手書き情報を受信した場合(ステップS316にてYESである場合)、受信した手書き情報に基づいて、ディスプレイ107に手書き画像を表示させる(ステップS318)。
 プロセッサ106は、メモリ103のFstInpfに0が代入されているか否かを判断する(ステップS320)。プロセッサ106は、FstInpfに0が代入されていない場合(ステップS320にてNOである場合)、ステップS306からの処理を繰り返す。プロセッサ106は、FstInpfに0が代入されている場合(ステップS320にてYESである場合)、FstInpfに1を代入する(ステップS322)。
 プロセッサ106は、メモリ103のIMDFに0が代入されているか否かを判断する(ステップS324)。プロセッサ106は、IMDFに0が代入されていない場合(ステップS324にてNOである場合)、ステップS306からの処理を繰り返す。
 IMDFに0が代入されている場合(ステップS324にてYESである場合)、プロセッサ106は、カウントダウン表示位置(Dspx,Dspy)に手書き入力を受け付けた位置の近傍の座標を設定する(ステップS326)。プロセッサ106は、ステップS306からの処理を繰り返す。
 <第2の入力モードおよび第2の待ちモード>
 次に、本実施の形態に係る携帯電話100における第2の入力モードおよび第2の待ちモードの処理手順について説明する。図14は、本実施の形態に係る携帯電話100における第2の入力モードおよび第2の待ちモードの処理手順を示すフローチャートである。
 図14を参照して、第2の入力モードにおいては、プロセッサ106は、第2の入力モード用のフレーム画像(ここでは第1の入力モード用のフレーム画像1034)をディスプレイ107に表示させる(ステップS402)。そして、プロセッサ106は、ディスプレイ107に、カウントダウン表示位置(Dspx,Dspy)に、メモリ103のA_TMに格納されている値を10で除した数字を表示させる(ステップS406)。
 一方、第2の待ちモードにおいては、プロセッサ106は、第2の待ちモード用のフレーム画像(ここでは第1の待ちモード用のフレーム画像1035)をディスプレイ107に表示させる(ステップS404)。そして同様に、プロセッサ106は、ディスプレイ107に、カウントダウン表示位置(Dspx,Dspy)に、メモリ103のA_TMに格納されている値を10で除した数字を表示させる(ステップS406)。
 プロセッサ106は、メモリ103のA_TMに100を代入する(ステップS408)。プロセッサ106は、タブレット119の質問ボタンが操作されたか否かを判断する(ステップS410)。
 質問ボタンが操作された場合(ステップS410にてYESである場合)、プロセッサ106は、メモリ103のA_TMに0を代入する(ステップS412)。プロセッサ106は、カウントダウン表示位置(Dspx,Dspy)に表示されているA_TMの値を10で除した数字を消去する(ステップS414)。プロセッサ106は第1の入力モードへと移行する(Q_MODE)。
 質問ボタンが操作されなかった場合(ステップS410にてNOである場合)、プロセッサ106は、0.1秒タイマ割込み(SECTIMER)機能からA_TMUP信号が入力されたか否かを判断する(ステップS416)。0.1秒タイマ割込み(SECTIMER)機能からA_TMUP信号が入力された場合(ステップS416にてYESである場合)、図4(I)および図4(J)に示すように、プロセッサ106は、通常のP2Pモードへと移行する(N_MODE)。
 プロセッサ106は、0.1秒タイマ割込み(SECTIMER)機能からA_TMUP信号が入力されなかった場合(ステップS416にてNOである場合)、ユーザがタブレット119の手書きエリアに対し操作をしたか否かを判断する(ステップS418)。すなわちプロセッサ106は、手書き入力を受け付けたか否かを判断する。
 プロセッサ106は、手書き入力を受け付けた場合(ステップS418にてYESである場合)、受け付けた手書き情報を通信デバイス101を介して相手端末に送信する(ステップS420)。図4(A)~図4(H)に示すように、プロセッサ106は、手書き情報に基づいて、ディスプレイ107に手書き画像を表示させる(ステップS422)。プロセッサ106はステップS410からの処理を繰り返す。
 一方、プロセッサ106は、手書き入力を受け付けなかった場合(ステップS418にてNOである場合)、通信デバイス101を介して相手端末から手書き情報を受信したか否かを判断する(ステップS424)。プロセッサ106は、相手端末から手書き情報を受信しなかった場合(ステップS424にてNOである場合)、ステップS410からの処理を繰り返す。
 プロセッサ106は、相手端末から手書き情報を受信した場合(ステップS424にてYESである場合)、受信した手書き情報に基づいてディスプレイ107に手書き画像を表示させる(ステップS426)。そして、プロセッサ106は、ステップS410からの処理を繰り返す。
 <0.1秒タイマ割込処理>
 次に、本実施の形態に係る携帯電話100における0.1秒タイマ割込処理の処理手順について説明する。図15は、本実施の形態に係る携帯電話100における0.1秒タイマ割込処理における処理手順を示すフローチャートである。
 図15を参照して、プロセッサ106は、時計105を参照することによって0.1秒が経過するたびに、メモリ103のQ_TMに0が代入されているか否かを判断する(ステップS502)。プロセッサ106は、Q_TMに0が代入されている場合(ステップS502にてYESである場合)、ステップS512からの処理を繰り返す。プロセッサ106は、Q_TMに0が代入されていない場合(ステップS502にてNOである場合)、メモリ103のQ_TMをデクリメントする(ステップS504)。
 図3(B)に示すように、プロセッサ106は、ディスプレイ107に、質問ボタンが表示されている位置にQ_TMに格納されている値を10で除した数字を表示させる(ステップS506)。プロセッサ106は、メモリ103のQ_TMに0が代入されているか否かを判断する(ステップS508)。Q_TMに0が代入されていない場合(ステップS508にてNOである場合)、プロセッサ106は、ステップS512からの処理を繰り返す。Q_TMに0が代入されている場合(ステップS508にてYESである場合)、0.1秒タイマ割込み(SECTIMER)機能としてのプロセッサ106は、Q_TMUP信号を出力する(ステップS510)。
 プロセッサ106は、メモリ103のA_TMに0が代入されているか否かを判断する(ステップS512)。プロセッサ106は、A_TMに0が代入されている場合(ステップS512にてYESである場合)、ステップS524からの処理を繰り返す。
 プロセッサ106はA_TMに0が代入されていない場合(ステップS512にてNOである場合)、メモリ103のA_TMをデクリメントする(ステップS514)。図3(I)に示すように、プロセッサ106は、ディスプレイ107に、カウントダウン表示位置(Dspx,Dspy)に、A_TMに格納されている値を10で除した数字を表示させる(ステップS516)。
 プロセッサ106は、メモリ103のA_TMに0が代入されているか否かを判断する(ステップS520)。プロセッサ106は、A_TMに0が代入されていない場合(ステップS520にてNOである場合)、ステップS524からの処理を繰り返す。0.1秒タイマ割込み(SECTIMER)機能としてのプロセッサ106は、A_TMに0が代入されている場合(ステップS520にてYESである場合)、A_TMUP信号を出力する(ステップS522)。
 プロセッサ106は、メモリ103のPUP_TMに0が代入されているか否かを判断する(ステップS524)。プロセッサ106は、PUP_TMに0が代入されている場合(ステップS524にてYESである場合)、タイマ割込処理を終了し、次の0.1秒が経過するまで待機する。プロセッサ106は、PUP_TMに0が代入されていない場合(ステップS524にてNOである場合)、PUP_TMをデクリメントする(ステップS526)。
 プロセッサ106は、PUP_TMが0であるか否かを判断する(ステップS528)。プロセッサ106はPUP_TMが0でない場合(ステップS528にてNOである場合)、タイマ割込処理を終了し、次の0.1秒が経過するまで待機する。0.1秒タイマ割込み(SECTIMER)機能としてのプロセッサ106は、PUP_TMに0が代入されている場合(ステップS528にてYESである場合)、QA_CHG信号を出力する(ステップS530)。そして、プロセッサ106は、タイマ割込処理を終了し、次の0.1秒が経過するまで待機する。
 <第1の応用例>
 以下、本実施の形態に係るネットワークシステム1の第1の応用例について説明する。図16~図18は、本実施の形態に係るネットワークシステム1の応用例におけるP2P通信中の第1および第2の携帯電話100A,100Bの表示状態の推移を示したイメージ図である。以下では、図16~図18を参照しながら、特に、第1の携帯電話100Aと第2の携帯電話100Bの表示状態の推移について説明する。なお、本応用例では、下地画像としてオセロゲームに使用する碁盤の画像を利用する場合について説明する。
 より詳細には、図16(A)は通常のP2P通信中の第1の携帯電話100Aの表示状態を示す第1のイメージ図である。図16(B)は通常のP2P通信中の第2の携帯電話100Bの表示状態を示す第1のイメージ図である。
 図16(C)は第1の入力モード中の第1の携帯電話100Aの表示状態を示す第1のイメージ図である。図16(D)は第1の待ちモード中の第2の携帯電話100Bの表示状態を示す第1のイメージ図である。図16(E)は第1の入力モード中の第1の携帯電話100Aの表示状態を示す第2のイメージ図である。図16(F)は第1の待ちモード中の第2の携帯電話100Bの表示状態を示す第2のイメージ図である。図16(G)は第2の待ちモード中の第1の携帯電話100Aの表示状態を示す第1のイメージ図である。図16(H)は第2の入力モード中の第2の携帯電話100Bの表示状態を示す第1のイメージ図である。
 図17(A)は第1の待ちモード中の第1の携帯電話100Aの表示状態を示す第1のイメージ図である。図17(B)は第1の入力モード中の第2の携帯電話100Bの表示状態を示す第1のイメージ図である。図17(C)は第1の待ちモード中の第1の携帯電話100Aの表示状態を示す第2のイメージ図である。図17(D)は第1の入力モード中の第2の携帯電話100Bの表示状態を示す第2のイメージ図である。図17(E)は第1の待ちモード中の第1の携帯電話100Aの表示状態を示す第3のイメージ図である。図17(F)は第1の入力モード中の第2の携帯電話100Bの表示状態を示す第3のイメージ図である。図17(G)は第2の待ちモード中の第1の携帯電話100Aの表示状態を示す第4のイメージ図である。図17(H)は第2の入力モード中の第2の携帯電話100Bの表示状態を示す第4のイメージ図である。
 図18(A)は第2の入力モード中の第1の携帯電話100Aの表示状態を示す第1のイメージ図である。図18(B)は第2の待ちモード中の第2の携帯電話100Bの表示状態を示す第1のイメージ図である。図18(C)は第2の入力モード中の第1の携帯電話100Aの表示状態を示す第2のイメージ図である。図18(D)は第2の待ちモード中の第2の携帯電話100Bの表示状態を示す第2のイメージ図である。図18(E)は第2の入力モード中の第1の携帯電話100Aの表示状態を示す第3のイメージ図である。図18(F)は第2の待ちモード中の第2の携帯電話100Bの表示状態を示す第3のイメージ図である。
 まず、図16(A)および図16(B)に示すように、通常のP2Pモードにおいては、第1の携帯電話100Aおよび第2の携帯電話100Bは、通常のチャット画面、すなわち通常のP2Pモードのフレーム画像1033B(図9を参照。)を表示している。この状態において、第1の携帯電話100Aのユーザがディスプレイ107の質問ボタンを押下すると、第1の携帯電話100Aは図16(C)に示す第1の入力モードに移行する。
 図16(C)に示すように、第1の入力モードにおいては、第1の携帯電話100Aはディスプレイ107のチャット用のフレームをフレーム画像1034B(図9を参照。)に変更する。
 第2の携帯電話100Bは、QSTコマンドを受信すると第1の待ちモードに移行する。図16(D)に示すように、第1の待ちモードにおいては、第2の携帯電話100Bはディスプレイ107のチャット用のフレームをフレーム画像1035B(図9を参照。)に変更する。
 その後、図16(E)および図16(F)に示すように、第1の携帯電話100Aおよび第2の携帯電話100Bは、第1の携帯電話100Aが受け付けた手書き入力に対応する手書き画像および第2の携帯電話100Bが受け付けた手書き入力に対応する手書き画像を順次表示していく。そして、第1の入力モードである第1の携帯電話100Aが、所定時間の間、手書き入力を受け付けない場合、すなわちスタイラスペン99がタブレット119から持ち上げられてから所定時間が経過すると、図16(G)に示すように、第1の携帯電話100Aは第2の待ちモードに移行する。
 図16(G)に示すように、第2の待ちモードにおいては、第1の携帯電話100Aはディスプレイ107のチャット用のフレームをフレーム画像1035Bに変更する。第1の携帯電話100Aは、第2の待ちモードに移行する際に、第2の携帯電話100Bに、第1の入力モードが終了した旨すなわち第2の待ちモードに移行する旨を通知するメッセージ(QENDコマンド)を送信する。なお、以下の第2の待ちモードにおいては、第1の携帯電話100Aは、ディスプレイ107に第2の所定時間の残り時間をカウントダウンするための画像を表示させる。
 第2の携帯電話100Bは、QENDコマンドを受信すると第2の入力モードに移行する。図16(H)に示すように、第2の入力モードにおいては、第2の携帯電話100Bはディスプレイ107のチャット用のフレームをフレーム画像1034に変更する。第2の入力モードにおいては、第2の携帯電話100Bもディスプレイ107に第2の所定時間の残り時間をカウントダウンするための画像を表示する。
 この状態において、第2の携帯電話100Bのユーザがディスプレイ107の質問ボタンを押下すると、第2の携帯電話100Bは図17(B)に示す第1の入力モードに移行する。上記と同様に、図17(B)に示すように、第1の入力モードにおいては、第2の携帯電話100Bはディスプレイ107のチャット用のフレームをフレーム画像1034Bに変更する。第2の携帯電話100Bは、第1の入力モードに移行する際に、第1の携帯電話100Aに第1の入力モードに移行する旨を通知するメッセージ(QSTコマンド)を送信する。なお、第1の入力モードにおいては、第2の携帯電話100Bは、手書き入力を受け付けるまで、ディスプレイ107に第1の所定時間の残り時間をカウントダウンするための画像を表示させる。
 第1の携帯電話100Aは、QSTコマンドを受信すると第1の待ちモードに移行する。図17(A)に示すように、第1の待ちモードにおいては、第1の携帯電話100Aはディスプレイ107のチャット用のフレームをフレーム画像1035Bに変更する。
 その後、図17(C)~図17(H)に示すように、第1の携帯電話100Aおよび第2の携帯電話100Bは、第1の携帯電話100Aが受け付けた手書き入力に対応する手書き画像および第2の携帯電話100Bが受け付けた手書き入力に対応する手書き画像を順次表示していく。そして、第1の入力モードである第2の携帯電話100Bが、所定時間の間、手書き入力を受け付けない場合、すなわちスタイラスペン99がタブレット119から持ち上げられてから所定時間が経過すると、図18(B)に示すように、第2の携帯電話100Bは第2の待ちモードに移行する。
 図18(B)に示すように、第2の待ちモードにおいては、第2の携帯電話100Bはディスプレイ107のチャット用のフレームをフレーム画像1035Bに変更する。第2の携帯電話100Bは、第2の待ちモードに移行する際に、第1の携帯電話100Aに、第1の入力モードが終了した旨すなわち第2の待ちモードに移行する旨を通知するメッセージ(QENDコマンド)を送信する。なお、第2の待ちモードにおいては、第2の携帯電話100Bは、ディスプレイ107に第2の所定時間の残り時間をカウントダウンするための画像を表示させる。
 第1の携帯電話100Aは、QENDコマンドを受信すると第2の入力モードに移行する。図18(A)に示すように、第2の入力モードにおいては、第1の携帯電話100Aはディスプレイ107のチャット用のフレームをフレーム画像1034Bに変更する。
 その後、図18(C)および図18(D)に示すように、第1の携帯電話100Aおよび第2の携帯電話100Bは、第1の携帯電話100Aが受け付けた手書き入力に対応する手書き画像および第2の携帯電話100Bが受け付けた手書き入力に対応する手書き画像を順次表示していく。この間、第1の携帯電話100Aもディスプレイ107に第2の所定時間の残り時間をカウントダウンするための画像を表示する。
 この状態において、第1の携帯電話100Aのユーザがディスプレイ107の質問ボタンを押下すると、第1の携帯電話100Aは、図18(E)に示すように、再度第1の入力モードに移行する。一方、第2の携帯電話100Bは、図18(F)に示すように、再度第1の待ちモードに移行する。
 このように、本応用例に係る通信端末は、ユーザが相手ユーザとの円滑なコミュニケーションを図ることができる。換言すれば、通信端末のユーザは、「自分が何かを手書き入力すべき状態である」のか、「相手が何かを手書き入力すべき状態である」のかを容易に認識することができるため、会話のボールをいずれか握っているのかを容易に認識することができる。
 <第2の応用例>
 以下、本実施の形態に係るネットワークシステム1の第2の応用例について説明する。図19は、本応用例に係るチャットの開始処理(ステップS602~ステップS614)および終了処理(ステップS614~ステップS602)の処理手順を示すフローチャートである。
 図20は、本応用例に係るネットワークシステム1におけるチャット開始時の第1および第2の携帯電話100A,100Bの表示状態の推移を示したイメージ図である。より詳細には、図20(A)(D)(F)は、第2の携帯電話100Bからチャット通信の誘いを受ける第1の携帯電話100Aのタッチパネル150Aの画面推移を示す。図20(B)(C)(E)(G)は、第1の携帯電話100Aをチャット通信に誘う第2の携帯電話100Bのタッチパネル150Bの画面推移を示す。
 図21は、本応用例に係るネットワークシステム1におけるチャット終了時の第1および第2の携帯電話100A,100Bの表示状態の推移を示したイメージ図である。より詳細には、図21(A)(C)(D)(F)は、第2の携帯電話100Bにチャット通信の終了を通知する第1の携帯電話100Aのタッチパネル150Aの画面推移を示す。図21(B)(E)(G)は、第1の携帯電話100Aからチャット通信の終了の通知を受ける第2の携帯電話100Bのタッチパネル150Bの画面推移を示す。
 以下では、図19~図21を参照しながら、上記の実施の形態に係るネットワークシステム1および携帯電話100に関する技術が、チャットの開始時や終了時においても応用できることを説明する。すなわち、以下では、チャットの開始時(図2のマッチング処理に対応する。)や終了時(図2の切断処理に対応する。)における処理や表示内容について詳しく説明する。
 まず、図20(A)(B)に示すように、プロセッサ106は、他の携帯電話とチャット中でない場合(第1状態)、タッチパネル150にチャットを開始するための「誘う」ボタン150X(第1の画像)を表示させる(ステップS602)。プロセッサ106は、タッチパネル150を介して、ユーザがスタイラスペン99などを用いて「誘う」ボタン150Xを押したか否かを判断する(ステップS604)。第1の画像とは、ユーザにチャットを開始することが認識できる入力と表示を兼ねたものでよく、アイコン、コメントや、表示装置を備えた切替スイッチであってもよい。
 図20(C)~図20(E)に示すように、ユーザがボタンを押したと判断した場合(ステップS604においてYESである場合)、プロセッサ106は、通信デバイス101を介して他の携帯電話にチャットするための情報(第1の情報)を送信する(ステップS606)。より詳細には、図20(E)に示すように、プロセッサ106は、予めメモリ103に格納されているアドレス帳に基づいて、タッチパネル150にチャット相手を選択可能に表示させる。すなわち、プロセッサ106は、タッチパネル150にチャット可能な相手のリスト150Zを表示させる。プロセッサ106は、タッチパネル150を介して、ユーザからチャット相手の選択命令を受け付ける。タッチパネル150に表示させるチャット相手は、チャット相手の履歴情報を基に選択可能に表示させてもよい。チャット相手の履歴情報はチャット開始時点または、終了時点でメモリ103に記憶させてもよい。
 さらに詳細には、図1および図2に示したように、プロセッサ106は、通信デバイス101を介してマッチングサーバ400にIP登録(ログイン)を要求する。マッチングサーバ400は、その要求に応じて、第2の携帯電話100BのメールアドレスをそのIPアドレスに対応付けて格納する。そして、マッチングサーバ400は、第2の携帯電話100Bのメールアドレスと選択された第1の携帯電話100Aのメールアドレスとに基づいてルーム名を生成し、当該ルーム名を第2の携帯電話100Bに送信する。プロセッサ106は、選択された第1の携帯電話100Aに、当該ルーム名とマッチングサーバ400のアドレスとを含む「誘う」メール(第1の情報)を送信する(ステップS606)。なお、本実施の形態においては、プロセッサ106は、現在タッチパネル150に表示される手書き画像を示す手書き情報を「誘う」メールに含めて、通信デバイス101を介して送信する。第1の情報は、第2の携帯電話100Bに携帯電話100AのメールアドレスとIPアドレスを含んだ「誘う」メールを送信してもよく、第1の情報を受信した第2の携帯電話100Bは、第1の携帯電話100Aに携帯電話100BのIPアドレスを含んだ「応答」メールを送信することによりチャット通信を行ってもよい。
 このようにして、図20(G)に示すように、携帯電話100は選択された他の携帯電話とチャット通信を行うことができる。プロセッサ106は、タッチパネル150に、チャットを終了(切断)するための「切断」ボタン150Yを表示させる(ステップS614)。
 一方、ユーザがボタンを押したと判断しなかった場合(ステップS604においてNOである場合)、プロセッサ106は、タッチパネル150を介して、ユーザが手書き命令を入力したか否かを判断する(ステップS608)。ユーザが手書き命令を入力した場合(ステップS608においてYESである場合)、プロセッサ106は、手書き命令に基づいて、タッチパネル150に手書き画像を表示させる(ステップS610)。プロセッサ106は、ステップS604からの処理を繰り返す。
 ユーザが手書き命令を入力しなかった場合(ステップS608においてNOである場合)、プロセッサ106は、通信デバイス101を介して他の携帯電話から「誘う」メールを受信したか否かを判断する(ステップS612)。他の携帯電話から「誘う」メールを受信しなかった(ステップS612においてNOである場合)、プロセッサ106は、ステップS604からの処理を繰り返す。
 一方、他の携帯電話から「誘う」メールを受信した場合(ステップS612においてYESである場合)、プロセッサ106は、通信デバイス101を介して「誘う」メールに含まれるマッチングサーバ400のルームにアクセスして、他の携帯電話のIPアドレスを取得する。図20(F)に示すように、プロセッサ106は、IPアドレスに基づいて、通信デバイス101を介して他の携帯電話とのチャット通信を開始する。プロセッサ106は、タッチパネル150に、チャットを終了するための「切断」ボタン150Yを表示させる(ステップS614)。プロセッサ106は、「誘う」メールに含まれる手書き情報に基づいて、タッチパネル150に手書き画像を表示させる。
 図21(A)(B)に示すように、プロセッサ106は、他の携帯電話とチャット中である場合(第2状態)、タッチパネル150にチャットを終了するための「切断」ボタン150Y(第2の画像)を表示する(ステップS614)。プロセッサ106は、タッチパネル150を介して、ユーザが「切断」ボタン150Yを押したか否かを判断する(ステップS616)。第2の画像とは、ユーザにチャットを終了することが認識できる入力と表示を兼ねたものでよく、アイコン、コメントや、表示装置を備えた切替スイッチであってもよい。
 図21(C)~図21(E)に示すように、ユーザが「切断」ボタン150Yを押したと判断した場合(ステップS616においてYESである場合)、プロセッサ106は、通信デバイス101を介して他の携帯電話にチャットを終了するための情報(第2の情報)を送信する(ステップS618)。このとき、プロセッサ106は、通信デバイス101を介してマッチングサーバ400にルームを削除するための要求メッセージを送信しても良い。
 このようにして、図21(F)に示すように、携帯電話100はチャット通信を終了することができる。プロセッサ106は、タッチパネル150に、チャットを開始するための「誘う」ボタン150Xを表示させる(ステップS602)。
 一方、ユーザがボタンを押したと判断しなかった場合(ステップS616においてNOである場合)、プロセッサ106は、タッチパネル150を介して、ユーザが手書き命令を入力したか否かを判断する(ステップS620)。図21(A)(B)に示すように、ユーザが手書き命令を入力した場合(ステップS620においてYESである場合)、プロセッサ106は、通信デバイス101を介して手書き命令に対応する手書き情報を他の携帯電話に送信する(ステップS622)。プロセッサ106は、手書き命令に基づいて、タッチパネル150に手書き画像を表示させる(ステップS624)。プロセッサ106は、ステップS616からの処理を繰り返す。
 ユーザが手書き命令を入力しなかった場合(ステップS620においてNOである場合)、プロセッサ106は、通信デバイス101を介して他の携帯電話から手書き情報を受信したか否かを判断する(ステップS626)。図21(A)(B)に示すように、他の携帯電話から手書き情報を受信した場合(ステップS626においてYESである場合)、プロセッサ106は、手書き情報に基づいて、タッチパネル150に手書き画像を表示させる(ステップS624)。プロセッサ106は、ステップS616からの処理を繰り返す。
 他の携帯電話から手書き情報を受信しなかった場合(ステップS626においてNOである場合)、プロセッサ106は、通信デバイス101を介して他の携帯電話からチャットを終了するための情報を受信したか否かを判断する(ステップS628)。他の携帯電話からチャットを終了するための情報を受信しなかった場合(ステップS628においてNOである場合)、プロセッサ106は、ステップS616からの処理を繰り返す。
 一方、他の携帯電話からチャットを終了するための情報を受信した場合(ステップS628においてYESである場合)、図21(G)に示すように、プロセッサ106は、通信デバイス101を介してチャット通信を終了する。プロセッサ106は、タッチパネル150に、チャットを開始するための「誘う」ボタン150Xを表示させる(ステップS602)。
 <その他の実施の形態>
 本発明は、システム(たとえば、ネットワークシステム1など。)或いは装置(たとえば、携帯電話100など。)にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(たとえば、メモリ103など。)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPUなどのプロセッサ)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
 この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
 プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード(ICメモリカード)、ROM(マスクROM、フラッシュEEPROMなど)などを用いることができる。
 また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1 ネットワークシステム、99 スタイラスペン、100,100A,100B 携帯電話、101 通信デバイス、102 GPS、103 メモリ1031 各種変数、1032 下地ファイル、1033 通常のP2Pモードのフレーム画像、1034 第1の入力モードのフレーム画像、1035 第1の待ちモードのフレーム画像、103A ワークメモリ、103B 表示メモリ、103C 不揮発メモリ、104 スイッチ、105 時計、106 プロセッサ(制御部)、1061 通信制御部、1062 手書きアプリケーション、1063 タイマ処理部、1064 第1の判断部、1065 第2の判断部、1066 切替部、1067 表示制御部、107 ディスプレイ、109 スピーカ、110 操作部、119 タブレット、150,150A,150B タッチパネル、150X 「誘う」ボタン、150Y 「切断」ボタン、150Z チャット可能端末リスト、200 カーナビゲーション装置、300 パーソナルコンピュータ、400 マッチングサーバ、500 インターネット網、700 キャリア網。

Claims (12)

  1.  自己の端末の画像情報を他の端末と送受信する通信端末装置(100)において、
     画像情報を表示するためのディスプレイ(107)と、
     ネットワークを介して他の端末との間で情報を送受信するための通信デバイス(101)と、
     命令情報及び画像情報を入力するための入力デバイス(119)と、
     第1の画像の表示中に前記入力デバイスからの第1の命令情報の入力に基づき前記ディスプレイに第2の画像を表示させて、前記通信デバイスを介して第1の情報を前記他の端末へ送信し、前記通信デバイスを介して前記他の端末から前記第1の情報を受信すると、前記ディスプレイに前記第2の画像を表示させる第1の制御と、前記第2の画像の表示中に前記入力デバイスからの第2の命令情報の入力に基づき前記ディスプレイに前記第1の画像を表示させて、前記通信デバイスを介して第2の情報を前記他の端末へ送信し、前記通信デバイスを介して前記他の端末から前記第2の情報を受信すると、前記ディスプレイに前記第1の画像を表示させる第2の制御を行うためのプロセッサ(106)とを備える、通信端末装置。
  2.  自己の端末の画像情報を他の端末と送受信する通信端末装置において、
     画像情報を表示するためのディスプレイと、
     ネットワークを介して他の端末との間で情報を送受信するための通信デバイスと、
     命令情報及び画像情報を入力するための入力デバイスと、
     第1の画像の表示中に前記入力デバイスからの第1の命令情報の入力に基づき前記ディスプレイに第2の画像を表示させて、前記通信デバイスを介して第1の情報を前記他の端末へ送信する第1の制御と、前記第2の画像の表示中に前記入力デバイスからの第2の命令情報の入力に基づき前記ディスプレイに前記第1の画像を表示させて、前記通信デバイスを介して第2の情報を前記他の端末へ送信する第2の制御を行うためのプロセッサとを備える、通信端末装置。
  3.  前記プロセッサは、
     前記第1の制御として、前記入力デバイスを介して入力される前記第1の命令情報としての前記他の端末への前記画像情報を送信するための指示に基づいて、前記通信デバイスを介して前記第1の情報を前記他の端末へ送信するとともに、送信される画像を入力する権限が自端末にあることを示す情報を前記第2の画像として前記ディスプレイに表示させ、
     前記第2の制御として、前記入力デバイスを介して入力される前記第2の命令情報としての送信される画像を入力する権限を移す指示に基づいて、前記通信デバイスを介して前記第2の情報を前記他の端末へ送信するとともに、送信される画像を入力する権限が前記他の端末にあることを示す情報を前記第1の画像として前記ディスプレイに表示させる、請求の範囲第2項に記載の通信端末装置。
  4.  前記プロセッサは、
     前記第1および第2の画像の表示中に、前記通信デバイスを介して前記入力デバイスからの手書き入力に対する第1の手書き情報を前記他の端末へ送信し、前記通信デバイスを介して前記他の端末から第2の手書き情報を受信し、
     前記第1および第2の画像の表示中に、前記第1および第2の手書き情報のそれぞれに基づいて前記ディスプレイに第1および第2の手書き画像を表示させる、請求の範囲第3項に記載の通信端末装置。
  5.  前記プロセッサは、
     前記第1の画像が表示されている時間が第1の所定時間に達したか否かを判断し、
     前記第1の画像が表示されている時間が前記第1の所定時間に達したときに、前記ディスプレイに第3の画像を表示させる、請求の範囲第3項または第4項に記載の通信端末装置。
  6.  前記プロセッサは、前記ディスプレイに前記第1の所定時間と前記第1の画像が表示されている時間との差分をカウントダウン表示させる、請求の範囲第5項に記載の通信端末装置。
  7.  前記プロセッサは、
     前記第1の画像の表示中に、前記入力デバイスに前記命令が入力されない時間が第2の所定時間に達したか否かを判断し、
     前記入力デバイスに前記命令が入力されない時間が第2の所定時間に達したときに、前記ディスプレイに第4の画像を表示させる、請求の範囲第3項から第6項のいずれかに記載の通信端末装置。
  8.  前記プロセッサは、前記ディスプレイに前記第2の所定時間と前記入力デバイスに前記命令が入力されない時間との差分をカウントダウン表示させる、請求の範囲第7項に記載の通信端末装置。
  9.  自己の端末の画像情報を他の端末と送受信する通信端末装置において、
     画像情報を表示するためのディスプレイと、
     ネットワークを介して他の端末との間で情報を送受信するための通信デバイスと、
     第1の画像の表示中に前記通信デバイスを介して他の端末から第1の情報を受信すると、前記ディスプレイに第2の画像を表示させる第1の制御と、第2の画像の表示中に前記通信デバイスを介して前記他の端末から前記第2の情報を受信すると、前記ディスプレイに前記第1の画像を表示させる第2の制御と行うためのプロセッサとを備える、通信端末装置。
  10.  自己の端末の画像情報を他の端末と送受信する通信端末装置において、
     画像情報を表示するためのディスプレイと、
     ネットワークを介して他の端末との間で情報を送受信するための通信デバイスと、
     命令情報及び画像情報を入力するための入力デバイスと、
     第1の画像の表示中に、前記入力デバイスを介して前記第1の画像に対する操作と接続端末の選択とを受け付けることにより、前記通信デバイスを介して前記接続端末に第1の情報を送信し、前記ディスプレイに第2の画像を表示させる第1の制御と、第2の画像の表示中に、前記入力デバイスを介して前記第2の画像に対する操作を受け付けることにより、前記通信デバイスを介して前記接続端末に第2の情報を送信し、前記ディスプレイに前記第1の画像を表示させる第2の制御とを行うためのプロセッサとを備える、通信端末装置。
  11.  ディスプレイと通信デバイスと入力デバイスとプロセッサとを含む通信端末装置における通信方法であって、
     前記プロセッサが、第1の画像の表示中に前記入力デバイスからの第1の命令情報の入力に基づき前記ディスプレイに第2の画像を表示させて、前記通信デバイスを介して第1の情報を前記他の端末へ送信するステップと、
     前記プロセッサが、前記通信デバイスを介して前記他の端末から前記第1の情報を受信すると、前記ディスプレイに第2の画像を表示させるステップと、
     前記プロセッサが、前記第2の画像の表示中に前記入力デバイスからの第2の命令情報の入力に基づき前記ディスプレイに前記第1の画像を表示させて、前記通信デバイスを介して第2の情報を前記他の端末へ送信するステップと、
     前記プロセッサが、前記通信デバイスを介して前記他の端末から前記第2の情報を受信すると、前記ディスプレイに前記第1の画像を表示させるステップとを備える、通信方法。
  12.  ディスプレイと通信デバイスと入力デバイスとプロセッサとを含む通信端末装置に通信させるための通信プログラムであって、
     前記通信プログラムは、前記プロセッサに、
     第1の画像の表示中に前記入力デバイスからの第1の命令情報の入力に基づき前記ディスプレイに第2の画像を表示させて、前記通信デバイスを介して第1の情報を前記他の端末へ送信するステップと、
     前記通信デバイスを介して前記他の端末から前記第1の情報を受信すると、前記ディスプレイに前記第2の画像を表示させるステップと、
     前記第2の画像の表示中に前記入力デバイスからの第2の命令情報の入力に基づき前記ディスプレイに前記第1の画像を表示させて、前記通信デバイスを介して第2の情報を前記他の端末へ送信するステップと、
     前記通信デバイスを介して前記他の端末から前記第2の情報を受信すると、前記ディスプレイに前記第1の画像を表示させるステップとを実行させる、通信プログラム。
PCT/JP2009/067896 2008-10-16 2009-10-16 通信端末装置、通信方法、および通信プログラム WO2010044457A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP09820635A EP2320323A1 (en) 2008-10-16 2009-10-16 Communication terminal device, communication method, and communication program
CN2009801409253A CN102187325A (zh) 2008-10-16 2009-10-16 通信终端装置、通信方法以及通信程序
US13/057,257 US20110134028A1 (en) 2008-10-16 2009-10-16 Communication terminal device, communication method, and communication program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-267751 2008-10-16
JP2008267751 2008-10-16
JP2009-238207 2009-10-15
JP2009238207A JP2010118047A (ja) 2008-10-16 2009-10-15 通信端末装置、通信方法、および通信プログラム

Publications (1)

Publication Number Publication Date
WO2010044457A1 true WO2010044457A1 (ja) 2010-04-22

Family

ID=42106621

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/067896 WO2010044457A1 (ja) 2008-10-16 2009-10-16 通信端末装置、通信方法、および通信プログラム

Country Status (6)

Country Link
US (1) US20110134028A1 (ja)
EP (1) EP2320323A1 (ja)
JP (1) JP2010118047A (ja)
KR (1) KR20110063687A (ja)
CN (1) CN102187325A (ja)
WO (1) WO2010044457A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0916234D0 (en) * 2009-09-16 2009-10-28 Agco Gmbh Control unit for display terminal
TWI429308B (zh) * 2011-02-14 2014-03-01 Wistron Corp 建立點對點傳輸的方法及行動通訊系統
JP5599741B2 (ja) 2011-02-21 2014-10-01 シャープ株式会社 電子機器、コンテンツ表示方法、およびコンテンツ表示プログラム
EP2658227B1 (en) * 2012-04-27 2018-12-05 LG Electronics Inc. Exchange of hand-drawings on touch-devices
CN102830904B (zh) * 2012-06-29 2016-08-10 鸿富锦精密工业(深圳)有限公司 电子设备及其图片***方法
KR20140027606A (ko) * 2012-08-01 2014-03-07 삼성전자주식회사 필기 인식을 이용한 단말의 제어 방법 및 그 단말
JP6144550B2 (ja) * 2013-06-26 2017-06-07 京セラ株式会社 ユーザ端末及びプロセッサ
US9271150B2 (en) * 2013-11-12 2016-02-23 Lg Electronics Inc. Mobile terminal and control method thereof
KR20170025400A (ko) * 2015-08-28 2017-03-08 삼성전자주식회사 디스플레이장치 및 그 제어방법
WO2017051595A1 (ja) * 2015-09-25 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020009232A (ja) * 2018-07-10 2020-01-16 京セラドキュメントソリューションズ株式会社 記号入力装置及び記号入力制御方法
WO2022107282A1 (ja) * 2020-11-19 2022-05-27 三菱電機株式会社 端末、入力表示方法および入力表示システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05336288A (ja) * 1992-06-02 1993-12-17 Matsushita Electric Ind Co Ltd 同画表示制御装置
JP2001111708A (ja) 1999-10-14 2001-04-20 Matsushita Electric Ind Co Ltd 携帯型情報通信装置
JP2001333204A (ja) 2000-05-22 2001-11-30 Matsushita Electric Ind Co Ltd 携帯端末装置
JP2003234842A (ja) 2001-10-02 2003-08-22 Ia Link Systems Co Ltd リアルタイム手書き通信システム
JP2004135051A (ja) * 2002-10-10 2004-04-30 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
JP2004221842A (ja) 2003-01-14 2004-08-05 Hitachi Ltd コミュニケーションシステムおよびその端末装置
JP2004234594A (ja) 2003-02-03 2004-08-19 Matsushita Electric Ind Co Ltd フォトコミュニケーションシステムおよび方法ならびに情報記録媒体
JP2005316982A (ja) * 2004-03-31 2005-11-10 Nec Infrontia Corp チャット装置、チャットサーバ、チャット方法及びプログラム
JP2007122361A (ja) * 2005-10-27 2007-05-17 Bank Of Tokyo-Mitsubishi Ufj Ltd ネットワーク会議用サーバ装置およびネットワーク会議システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9143357B2 (en) * 2004-03-31 2015-09-22 Nec Infrontia Corporation Chat apparatus transmitting/receiving information indicating switching of chat

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05336288A (ja) * 1992-06-02 1993-12-17 Matsushita Electric Ind Co Ltd 同画表示制御装置
JP2001111708A (ja) 1999-10-14 2001-04-20 Matsushita Electric Ind Co Ltd 携帯型情報通信装置
JP2001333204A (ja) 2000-05-22 2001-11-30 Matsushita Electric Ind Co Ltd 携帯端末装置
JP2003234842A (ja) 2001-10-02 2003-08-22 Ia Link Systems Co Ltd リアルタイム手書き通信システム
JP2004135051A (ja) * 2002-10-10 2004-04-30 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
JP2004221842A (ja) 2003-01-14 2004-08-05 Hitachi Ltd コミュニケーションシステムおよびその端末装置
JP2004234594A (ja) 2003-02-03 2004-08-19 Matsushita Electric Ind Co Ltd フォトコミュニケーションシステムおよび方法ならびに情報記録媒体
JP2005316982A (ja) * 2004-03-31 2005-11-10 Nec Infrontia Corp チャット装置、チャットサーバ、チャット方法及びプログラム
JP2007122361A (ja) * 2005-10-27 2007-05-17 Bank Of Tokyo-Mitsubishi Ufj Ltd ネットワーク会議用サーバ装置およびネットワーク会議システム

Also Published As

Publication number Publication date
JP2010118047A (ja) 2010-05-27
KR20110063687A (ko) 2011-06-13
US20110134028A1 (en) 2011-06-09
CN102187325A (zh) 2011-09-14
EP2320323A1 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
WO2010044457A1 (ja) 通信端末装置、通信方法、および通信プログラム
US7774505B2 (en) Method for transmitting image data in real-time
JP5369797B2 (ja) 遊戯用撮影装置、遊戯用撮影方法、および遊戯用撮影プログラム
EP2288131A1 (en) Network system, communication terminal, communication method, and communication program
JP2010157098A (ja) 通信端末および通信方法
JP2012176127A (ja) 情報処理システム、情報処理装置、情報処理プログラム、および、情報処理方法
JP2014060552A (ja) 伝送システム、伝送管理システムおよびプログラム
US9826556B2 (en) Apparatus and method for data transmission and reception of a mobile terminal
US20080254813A1 (en) Control Device, Mobile Communication System, and Communication Terminal
WO2010134528A1 (ja) ネットワークシステム、通信端末、通信方法、および通信プログラム
JP5035852B2 (ja) 通信端末、制御方法、および制御プログラム
JP2017068329A (ja) 通信管理システム、通信システム、通信管理方法、及びプログラム
KR100770892B1 (ko) 실시간으로 이미지 데이터를 전송하는 방법
JP5212053B2 (ja) 撮影画像編集装置、画像処理端末、撮影画像編集装置の制御方法、撮影画像編集装置および画像処理端末制御プログラム、およびそれらのコンピュータ読み取り可能な記録媒体
WO2011122267A1 (ja) ネットワークシステム、通信方法、および通信端末
WO2011122266A1 (ja) ネットワークシステム、通信方法、および通信端末
JP5838185B2 (ja) 画像通信プログラム、画像通信方法、および電子機器
JP5299203B2 (ja) 自動写真作成装置
JP2017118442A (ja) 共有端末、通信システム、通信方法、及びプログラム
US20150244813A1 (en) Session control system, communication system, session control method, and recording medium storing session control program
JP6607034B2 (ja) 共有端末、通信システム、通信方法、及びプログラム
JP2018041990A (ja) 通信端末、通信システム、表示制御方法、及びプログラム
JP2014060548A (ja) 伝送システム、伝送端末、伝送管理システムおよびプログラム
JP2010186400A (ja) 通信端末、通信方法、および通信プログラム
JP5137133B2 (ja) 移動通信端末、情報送受信方法、および情報送受信プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980140925.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09820635

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009820635

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13057257

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20117009341

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 3227/CHENP/2011

Country of ref document: IN