WO2001039479A1 - Systeme de communications - Google Patents

Systeme de communications Download PDF

Info

Publication number
WO2001039479A1
WO2001039479A1 PCT/JP2000/008303 JP0008303W WO0139479A1 WO 2001039479 A1 WO2001039479 A1 WO 2001039479A1 JP 0008303 W JP0008303 W JP 0008303W WO 0139479 A1 WO0139479 A1 WO 0139479A1
Authority
WO
WIPO (PCT)
Prior art keywords
communication
group
data
information
communication data
Prior art date
Application number
PCT/JP2000/008303
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Tomoyuki Ohtsuki
Junichi Ishibashi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP00977922A priority Critical patent/EP1146721A4/en
Priority to US09/889,760 priority patent/US6608644B1/en
Priority to JP2001540503A priority patent/JP4487467B2/ja
Publication of WO2001039479A1 publication Critical patent/WO2001039479A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2038Call context notifications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2207/00Type of exchange or network, i.e. telephonic medium, in which the telephonic communication takes place
    • H04M2207/08ISDN systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/563User guidance or feature selection
    • H04M3/564User guidance or feature selection whereby the feature is a sub-conference

Definitions

  • TECHNICAL FIELD The present invention relates to a communication system that performs communication between at least three communication devices. 2. Description of the Related Art Conventionally, in a remote conference system, images and sounds in a plurality of distant conference rooms are mutually communicated via a network.- In each conference room, images and sounds in other conference rooms are presented. This makes it possible to hold a conference as if it were surrounding a single table.
  • a communication system that achieves the above-described object includes an attention degree prediction information acquisition unit that acquires attention degree prediction information for detecting an attention degree for communication data communicated from each of the other communication apparatuses, At least three communication devices having communication data output means for outputting the communication data processed based on the group information to the corresponding presentation device, and the degree of attention based on the attention degree prediction information.
  • An attention level detection device having an attention level detection means for detecting; an attention level output means for outputting an attention level; a grouping means for performing grouping of communication data based on the attention level; and group information indicating a result of the grouping.
  • a grouping device having group information output means for outputting It has processing means for processing communication data transmitted from another communication apparatus for each of the apparatuses based on group information, and processing data output means for outputting communication data processed by the processing means.
  • a communication system that achieves the above-described object includes attention degree prediction information acquisition for acquiring attention degree prediction information for detecting a degree of attention for a communication device that is communicated with another communication apparatus.
  • At least three communication devices having means for outputting communication data processed based on the group information to the corresponding presentation device, and at least three communication devices based on the attention level prediction information.
  • An attention level detection device having an attention level detection means for detecting the degree of attention, and an attention level output means for outputting the attention level; a grouping means for performing a grouping of communication data based on the attention level; and a result of the grouping.
  • a grooving device having group information output means for outputting group information indicating the status of a communication device; And processing means for processing based on the data evening in the group information, by providing a processing apparatus and which have a a processing data output means for outputting the result processed communication data to the processing means, for solving the above problems.
  • the grouping device according to the present invention that achieves the above-mentioned object is used in a communication system including at least three communication devices, and transmits communication data transmitted from each of the communication devices to another communication device.
  • a grooving device that performs grouping of communication data based on a degree of attention of a user corresponding to each of the communication devices with respect to each of communication data from another communication device; Grouping results
  • the above-described problem is solved by providing a group information output unit that outputs group information indicating a result.
  • a grouping method according to the present invention that achieves the above-described object is used in a communication system including at least three communication devices, and each of the communication devices communicates with another communication device from another communication device.
  • a grouping method for performing grouping of communication data based on the degree of attention of each user of the communication device corresponding to each communication data from another communication device.
  • the above-mentioned problem is solved by providing a group information output step of outputting group information indicating a result of grouping by the grooving step.
  • a recording medium on which the grouping program according to the present invention for achieving the above object is recorded is used in a communication system including at least three communication devices, and each of the communication devices is transmitted from another communication device.
  • the grouping program stores communication data from another communication device of a user corresponding to that of the communication device.
  • an information processing apparatus in a communication system having an information processing apparatus and at least three communication apparatuses, wherein a communication data from each of the communication apparatuses is provided.
  • the above-mentioned object is achieved by providing processing means for processing the transmitted communication data, and processing data output means for transmitting the communication data processed by the processing means to the communication device.
  • the receiving unit may receive, instead of the attention level, the user's reaction information transmitted from the communication apparatus, and the user's reaction information corresponding to the user's reaction information.
  • the information processing device solves the above-described problem by further including an attention level detection unit that detects an attention level of communication data based on user reaction information.
  • an information processing method that achieves the above-mentioned object is a data processing method in a communication system having an information processing device and at least three communication devices, wherein communication data from each of the communication devices is transmitted.
  • the processing process to process is solved by providing a processing data output step of transmitting communication data processed by the processing data to that of the communication device.
  • the processing method solves the above-described problem by further including an attention level detection step of detecting an attention level for each of the communication data based on user reaction information.
  • a recording medium on which the information processing program according to the present invention for achieving the above object is recorded stores an information processing program which can be controlled by a computer in a communication system having an information processing device and at least three communication devices.
  • the information processing program receives the communication data from each of the communication devices, and is the attention level transmitted from each of the communication devices, and other communication except for the communication device itself.
  • communication data transmitted from other communication devices except for the communication device itself A processing step of processing the communication data processed by the processing step, Ri by that and a processing data output step of transmitting it to that of the communication device, to solve the problems described above.
  • the recording medium on which the information processing program is recorded is, in the receiving process, instead of the attention level, the reaction information of the user transmitted from each of the communication devices, and the user corresponding to that of the communication device.
  • Anti The response information is received, and the information processing program solves the above-described problem by further including an attention level detection step of detecting an attention degree of each of the communication data based on the user's reaction information.
  • a communication device receives a communication data from another communication device in a communication device having an information processing device and at least three communication devices.
  • a receiving unit for receiving group information indicating a group to which communication data transmitted from the information processing device belongs; an information obtaining unit for obtaining information on a user's reaction to each of the communication data from the communication device; Attention level detection means for detecting the degree of interest in each piece of communication data based on user reaction information; attention level output means for outputting the degree of attention to the information processing apparatus; and communication data based on group information.
  • Processing means for processing the data, and processing data output means for outputting the communication data processed by the processing means to a presentation device. More, to solve the problems described above.
  • a communication method for achieving the above-mentioned object is a communication method in a communication system having an information processing device and at least three communication devices, wherein the first communication device receives communication data from another communication device. Receiving the communication data from the communication device, acquiring the user's reaction information to the communication data from the communication device, and detecting the degree of attention to the communication data based on the user's reaction information.
  • a recording medium on which a communication program according to the present invention for achieving the above object is recorded is a recording medium on which a computer-controllable communication program in a communication system having an information processing device and at least three communication devices is recorded.
  • the communication program includes: a first receiving step of receiving communication data from another communication device; an information obtaining step of obtaining information on a user's reaction to each of the communication data from the communication device; An attention level detection step of detecting the attention level of each of the communication events based on the user's reaction information; an attention level output step of outputting the attention level to the information processing apparatus; A second receiving step of receiving group information indicating a group to which the communication data belongs; and a process of processing the communication data based on the group information.
  • the object described above is solved by providing a processing step and a processing data output step of outputting communication data processed in the processing step to a presentation device.
  • an information processing apparatus that achieves the above-mentioned object is an information processing apparatus in a communication system having an information processing apparatus and at least three communication apparatuses, wherein communication data transmitted from each of the communication apparatuses is provided.
  • the receiving means uses The above-mentioned problem is solved by receiving communication data transmitted from each of the communication devices, and the information processing device further comprising attention level detection means for detecting a user's attention level for each of the communication data. I do.
  • an information processing method that achieves the above-mentioned object is an information processing method in a communication system having an information processing device and at least three communication devices, wherein a communication transmitted from each of the communication devices is provided.
  • the information processing method in the receiving step, instead of the attention level, communication data transmitted from each of the communication devices is received, and the information processing method determines a user's attention level for each of the communication data.
  • the above-described problem is solved by further providing a degree of interest detection step for detecting.
  • a recording medium on which the information processing program according to the present invention for achieving the above object is recorded stores an information processing program which can be controlled by a computer in a communication system having an information processing device and at least three communication devices.
  • the information processing program includes: a receiving step of receiving a degree of interest in the communication data transmitted from the communication device; a grooving step of performing communication data grouping based on the degree of interest; Group information output that outputs group information indicating the result of grooving by the grouping process
  • the recording medium on which the information processing program is recorded in the receiving step, instead of the degree of attention, the communication data transmitted from each of the communication devices is received.
  • the above-described problem is solved by further including an attention level detection step of detecting the user's attention level against the above.
  • a communication device that achieves the above-described object includes, in a communication device in a communication system that performs communication between at least three communication devices, a receiving unit that receives communication data from another communication device; Information acquisition means for acquiring user's reaction information for each of the communication data from the communication device; attention degree detection means for detecting the attention degree for each of the communication data based on the user's reaction information; Grouping means for grouping the communication data based on the degree, processing means for processing each of the communication data based on the group to which the communication data belongs, and communication data processed by the processing means.
  • Information acquisition means for acquiring user's reaction information for each of the communication data from the communication device
  • attention degree detection means for detecting the attention degree for each of the communication data based on the user's reaction information
  • Grouping means for grouping the communication data based on the degree, processing means for processing each of the communication data based on the group to which the communication data belongs, and communication data processed by the processing means
  • a communication method that achieves the above-mentioned object, according to a communication method in a communication system that performs communication between at least three communication devices, includes a receiving step of receiving communication data from another communication device.
  • a recording medium on which a communication program according to the present invention for achieving the above-mentioned object is recorded is a recording medium on which a computer-controllable communication program in a communication system for communicating between at least three communication devices is recorded.
  • the communication program includes a receiving step of receiving communication data from another communication device, an information obtaining step of obtaining user's response information for communication data from the communication device, and a user's response information.
  • An attention level detection step of detecting the attention level of each of the communication data, a grouping step of performing communication data grubbing based on the attention level, and a communication data overnight group based on each group to which the communication data belongs.
  • a processing step to process each of the communication data and communication data processed in this processing step to the presentation device The above-mentioned problem is solved by providing an output process for outputting the processed data.
  • a communication device in a communication system having an information processing device and at least three communication devices, wherein a communication data from the communication device is transmitted to a user corresponding to the communication data.
  • Information obtaining means for obtaining reaction information; receiving communication data from the information processing apparatus; and group information indicating a group to which the communication data belongs, transmitted from the information processing apparatus.
  • Communication means for transmitting to the processing device; processing means for processing the communication data based on the group information; and processed data output means for outputting the communication data processed by the processing means to the presentation device.
  • a communication method that achieves the above-mentioned object, according to a communication method in a communication system having an information processing device and at least three communication devices, comprises: An information acquisition step of acquiring information; a transmission step of transmitting user's reaction information to the information processing apparatus; a communication data from the information processing apparatus; and a group indicating a group to which the communication data transmitted from the information processing apparatus belongs.
  • a recording medium on which a communication program according to the present invention for achieving the above object is recorded is a recording medium on which a computer-controllable communication program in a communication system having an information processing device and at least three communication devices is recorded.
  • the communication program includes: an information acquisition step of acquiring information on a user's response to communication data from the communication device; a transmission step of transmitting the user's response information to the information processing apparatus; A receiving step of receiving communication data from the communication device and group information indicating a group to which the communication data transmitted from the information processing device belongs; a processing step of processing the communication data based on the group information; A processing data output step of outputting the communication data processed in the step to the presentation device.
  • FIG. 2 is a block diagram illustrating a configuration example of one remote conference device that configures the remote conference system.
  • Figure 3 is a diagram used to explain the direction of interest of the conference participants and the information for group determination generated in response to the directions.
  • the information represents the direction in which the conference participants are facing and the duration of that direction.
  • FIG. 4 is a diagram illustrating how the period is detected is shown in the upper part, and how the information indicating that the conference participant is paying attention to the monitor device corresponding to the detected period is shown in the lower part.
  • Fig. 4 is a diagram used to explain the direction of interest of the conference participant and the switch press information, and the information for group determination generated according to the direction.
  • the upper part shows how the period is detected as information indicating the duration
  • the middle part shows the state of the signal obtained by the meeting participant pressing the switch for each detected period, and the switch pressing signal is ⁇ ON ''.
  • the lower part of the figure shows how to generate information indicating that the conference participant is paying attention to the monitor device corresponding to the signal period.
  • FIG. 5 is a block diagram showing a configuration example of a server constituting the remote conference system.
  • FIG. 6 is a diagram showing an attention table in an initial state.
  • FIG. 7 is a diagram showing a group table in an initial state.
  • FIG. 8 is a flowchart showing the flow of the initialization process of the destination table and the group table at the start of communication.
  • FIG. 9 is a flowchart showing a processing flow when the group determination information is generated.
  • FIG. 10 is a diagram showing a target table when the group determination information is reflected.
  • FIG. 11 is a flowchart showing the flow of processing for reflecting the contents of the target table in the group table.
  • FIG. 12 is a diagram showing a group table when the process of step S52 of the flowchart of FIG. 11 is completed for the conference participant HM 1 ( FIG. 13 is a diagram of the conference participant HM 1).
  • 11 is a diagram showing a table of interest when the processing of step S52 of the flowchart of FIG. 11 is completed, and
  • FIG. 14 shows the processing of step S58 of the flowchart of FIG. 11 for the conference participant HM1.
  • C is a diagram showing a group table when the process is completed.
  • FIG. 15 is a diagram showing a target table when the process of step S58 in the flowchart of FIG. 11 is completed for the conference participant HM1.
  • FIG. 16 is a diagram showing a group table when the process of step S52 of the flowchart of Fig. 11 is completed for the conference participant HM2.
  • C Fig. 17 is a diagram showing the conference participant HM2 for Fig. 11.
  • the attention table when the processing in step S52 of the flowchart of FIG. Fig. 18 is a diagram showing a group table when the process of step S58 of the flowchart of Fig. 11 is completed for the conference participant HM3.
  • C Fig. 19 is a diagram showing the conference participant HM3.
  • 11 is a diagram showing a table of interest when the processing of step S58 of the flowchart of FIG. 11 is completed, and FIG. 20 shows step S of the flowchart of FIG.
  • FIG. 52 is a diagram showing a group table when the process of 2 is completed.
  • C FIG. 21 shows a flowchart of FIG. 11 for the conference participant HM4.
  • FIG. 21 is a diagram illustrating a target table when the process of step S52 is completed.
  • Fig. 22 is a diagram showing a group table when the process of step S57 of the flowchart of Fig. 11 is completed for the conference participant HM4.
  • ⁇ Fig. 23 is a diagram of the conference participant HM4.
  • FIG. 21 is a diagram showing a target table when the process of step S57 in the flowchart of FIG.
  • Fig. 24 is a diagram showing a group table when the processing of step S56 of the flowchart of Fig. 11 is completed for the conference participant HM5.
  • FIG. 21 shows a flowchart of FIG. 11 for the conference participant HM4.
  • FIG. 21 shows a diagram illustrating a target table when the process of step S52 is completed.
  • Fig. 22 is a diagram
  • FIG. 25 is a diagram showing the conference participant HM5.
  • FIG. 11 is a diagram showing a target table when the process of step S56 of the flowchart of FIG. 11 is completed.
  • FIG. 26 is a block diagram illustrating a specific configuration example of an information processing unit that performs audio information processing.
  • FIG. 27 is a block diagram illustrating a specific configuration example of a sound processor when performing sound quality control.
  • FIG. 28 is a diagram illustrating frequency characteristics of an input audio signal to the audio processor when performing sound quality control.
  • FIG. 29 is a diagram illustrating frequency control characteristics of the audio processor when performing sound quality control.
  • FIG. 30 is a diagram illustrating frequency characteristics of an audio signal output from the audio processor when performing sound quality control.
  • FIG. 31 is a block diagram illustrating a specific configuration example of an information processing unit that performs image information processing.
  • FIG. 32 is a block diagram illustrating a specific configuration example of an image processing device when performing image quality control.
  • FIG. 33 is a block diagram illustrating a specific configuration example of an information processing unit that performs image and sound information processing.
  • FIG. 34 is a flowchart showing the flow of the gaze detection process.
  • FIG. 35 is a diagram used to explain the detection of the positions of both ends of the eye.
  • FIG. 36 is a diagram used to explain the position detection range of the nostril.
  • FIG. 37 is a diagram used to describe the positions of both ends of the eye, the position of the nostrils, and the center of the eyeball.
  • FIG. 38 is a diagram used to explain the gaze direction detection.
  • FIG. 39 is a diagram used to explain how to find a line that minimizes the second moment of a specific pixel set.
  • FIG. 40 is a flowchart showing the flow of the face direction detection process.
  • FIG. 41 is a diagram showing an original image at the time of face direction detection.
  • FIG. 42 is a diagram showing another original image at the time of face direction detection.
  • FIG. 43 is a diagram used to describe a hair region and a skin region when face orientation is detected.
  • FIG. 44 is a diagram used to explain other hair regions and skin regions when face orientation is detected.
  • FIG. 45 is a diagram used to explain the center of gravity of the hair region and the skin region.
  • FIG. 46 is a diagram used to explain the center of gravity of another hair region and skin region.
  • Fig. 47 is a diagram showing an example of the relationship between the difference value and the angle when detecting the face direction.
  • FIG. 48 is a schematic perspective view of the specific example of the monitor device viewed from the side.
  • FIG. 49 is a schematic front view of the monitor device of the specific example.
  • FIG. 50 is a block diagram showing an example of an actual device configuration for realizing a signal processing device and a server of each remote conference device in the remote conference system.
  • FIG. 51 is a diagram showing, as another example of the teleconference device, a schematic configuration in which an image of a conference participant is displayed on a screen and a sound image is localized by speed.
  • FIG. 52 is a diagram showing, as another example of the remote conference apparatus, a schematic configuration in a case where images of conference participants are displayed on a screen and two conference participants can be present.
  • Fig. 53 shows another example of a teleconferencing device that displays images of conference participants on a screen, enables two conference participants to be present, and uses a headphone to localize the sound image. It is a figure which shows a schematic structure.
  • FIG. 54 is a diagram showing a schematic configuration of another example of the teleconference device when only the voice of the conference participants is communicated.
  • FIG. 55 is a block diagram showing a configuration example of the remote conference system shown as the second embodiment of the present invention.
  • FIG. 56 is a block diagram illustrating a configuration example of one remote conference device that configures the remote conference system.
  • FIG. 57 is a block diagram showing a configuration example of one remote conference device constituting the remote conference system shown as the third embodiment of the present invention, and is a configuration example of a remote conference device functioning as a grooving device. It is a block diagram showing.
  • FIG. 58 is a block diagram illustrating a configuration example of one remote conference device that configures the remote conference system, and is a block diagram illustrating a configuration example of a remote conference device that does not function as a grouping device.
  • FIG. 59 is a block diagram illustrating a configuration example of one remote conference device configuring the remote conference system illustrated as the fourth embodiment of the present invention.
  • FIG. 60 is a block diagram showing a configuration example of a server constituting the remote conference system.
  • FIG. 61 is a block diagram showing a configuration example of a remote conference system shown as a fifth embodiment of the present invention.
  • FIG. 62 is a block diagram showing a configuration example of a server constituting the remote conference system, and showing a configuration example of a server functioning as a grooving device.
  • FIG. 63 is a block diagram showing a configuration example of a server constituting the remote conference system, and is a block diagram showing a configuration example of a server functioning as a processing device.
  • FIG. 64 is a block diagram showing an example of the configuration of one remote conference device constituting the remote conference system shown as the sixth embodiment of the present invention.
  • FIG. FIG. 3 is a block diagram showing an example of the configuration of FIG.
  • FIG. 66 is a block diagram showing a configuration example of a server constituting the remote conference system shown as the seventh embodiment of the present invention, and is a block diagram showing a configuration example of a server functioning as an attention level detection device.
  • FIG. FIG. 67 is a block diagram showing a configuration example of a server constituting the remote conference system, and is a block diagram showing a configuration example of a server functioning as a grooving device.
  • FIG. 68 is a block diagram showing an example of the configuration of one remote conference device constituting the remote conference system shown as the eighth embodiment of the present invention.
  • FIG. FIG. 3 is a block diagram showing an example of the configuration of FIG.
  • FIG. 70 shows a teleconference system according to a ninth embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a configuration example of a server configuring a system, and is a block diagram illustrating a configuration example of a server functioning as an attention level detection device and a grouping device.
  • FIG. 71 is a block diagram illustrating a configuration example of a server configuring the remote conference system, and is a block diagram illustrating a configuration example of a server functioning as a processing device.
  • FIG. 72 is a block diagram illustrating a configuration example of a server configuring the remote conference system illustrated as the tenth embodiment of the present invention, and a block diagram illustrating a configuration example of a server functioning as an attention level detection device.
  • FIG. FIG. 73 is a block diagram illustrating a configuration example of a server configuring the remote conference system, and is a block diagram illustrating a configuration example of a server functioning as a grouping device and a processing device.
  • FIG. 74 is a block diagram showing a configuration example of the remote conference system shown as the eleventh embodiment of the present invention.
  • FIG. 75 is a block diagram showing a configuration example of a server constituting the remote conference system, and is a block diagram showing a configuration example of a server functioning as an attention level detection device.
  • FIG. 76 is a block diagram illustrating a configuration example of a server configuring the remote conference system, and is a block diagram illustrating a configuration example of a server functioning as a grooving device.
  • FIG. 77 is a block diagram illustrating a configuration example of a server configuring the remote conference system, and is a block diagram illustrating a configuration example of a server functioning as a processing device.
  • This embodiment is a teleconferencing system capable of holding a conference by a plurality of conference participants at remote locations.
  • the teleconference system detects a degree of interest of the conference participants, and based on the detection result, each conference participant. Generates group determination information that is used to determine which group topics are participating in the topic, and performs grouping based on the group determination information. It generates group information indicating whether the user belongs to the conference and, based on the group information, performs the desired adjustment processing on the image data and / or audio data corresponding to each of the other conference participants.
  • group information indicating whether the user belongs to the conference and, based on the group information, performs the desired adjustment processing on the image data and / or audio data corresponding to each of the other conference participants.
  • FIG. 1 shows the schematic configuration of the teleconference system.
  • corresponding teleconferencing devices TCD1 to TCDn are assigned to each of the conference participants HM1 to HMn at a plurality of locations (1 to n locations).
  • TCDl to TCDn are connected via a communication network NT such as an integrated services digital network (ISDN).
  • ISDN integrated services digital network
  • each conference participant HM1 to HMn when it is not necessary to individually distinguish each conference participant HM1 to HMn, it is simply referred to as conference participant HM, and similarly, each of the remote conference devices TCD1 to TCDn is similarly described.
  • the teleconference device TCD when it is not necessary to distinguish individually Shall be simply described as the teleconference device TCD.
  • ISDN is taken as an example of the communication network NT. Instead of ISDN, other transmission media such as a cable television network, an in-net network, and a digital satellite communication are used. It is also possible.
  • Each teleconference device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to another remote party via the communication network NT. In addition to transmitting to the conference device TCD, it can receive and present the image data and audio data of the other conference participants HM transmitted from the other teleconferencing device TCD. That is, each teleconference device TCD can monitor images and sounds.
  • Each teleconferencing device TCD in the teleconferencing system has a configuration as shown in FIG. Since each of the teleconferencing devices T CD1 to TCDn has the same configuration, FIG. 2 shows the teleconferencing device T CD1 to TCDn as a representative of the plurality of teleconferencing devices T CD1 to TCDn. 3 shows a detailed configuration example of CD 1.
  • the teleconferencing device TCD1 is connected to the communication network NT, communicates with each of the other teleconferencing devices TCD2 to TCDn in the teleconferencing system, and transmits and receives signals.
  • a signal processor SPD1 that performs signal processing as described below, and image data of conference participants HM2 to HMn transmitted from the other teleconferencing devices TCD2 to TCDn in the teleconferencing system.
  • Each of the teleconferencing devices TCD2 to TCDn is provided with at least monitor devices MD2 to MDn for displaying and / or presenting evening and audio data corresponding to the teleconference devices TCD2 to TCDn.
  • the signal processing device SPD1 in the teleconferencing device TCD1 is an information transmitting and receiving unit T for transmitting and receiving information between the network connection terminal TN1 connected to the communication network NT and the communication network NT.
  • RB 1 and an information processing unit PB 1 that constitutes a processing device that performs information processing described below on signals supplied to each of the monitoring devices MD 2 to MD n, and participates in the same topic during the meeting as described below.
  • the group determination information generation unit JB1 that forms the attention degree detection device that generates group determination information for grouping participants in each conference
  • Switch SW that generates switch press information to be described And an input terminal TS of the signal.
  • each of the monitor devices MD 2 to MD ⁇ The main components are a beaker provided on the front side of the monitor device MD and a screen in a predetermined direction.
  • a display device arranged so as to face the conference participant HM1 is provided.
  • at least one of the monitoring devices MD2 to MD ⁇ includes a microphone around the teleconferencing device TCD1 and a microphone for capturing the sound of speech of the conference participant HM1, and a conference participant HM1.
  • a camera such as a video camera for capturing one image is provided.
  • the monitor device on which the microphone and camera are installed be a monitor device arranged in front of the conference participant HM1, that is, the monitor device MDm in the example of FIG. New
  • the monitor device MDm in the example of FIG. New
  • the microphone and a camera may be installed.
  • the image data captured from the camera and the audio data captured from the microphone are transmitted to each of the teleconferencing devices TCD2 to TCD ⁇ via the signal processing device SPD1 and the communication network NT.
  • the display device of each of the monitor devices MD2 to MD ⁇ displays an image based on the image data transmitted from the corresponding teleconference device TCD2 to TCDn.
  • audio is output based on the audio data transmitted from the corresponding teleconference device TCD2 to TCDn. That is, of the monitor devices MD2 to MDn, the image of the image taken by the camera of the teleconferencing device TCD2 and supplied via the communication network NT is displayed on the screen of the display device of the monitor device MD2. Overnight, that is, an image based on the image data of the conference participants HM2 and the surrounding scenery is displayed, and the speaker of the monitor device MD2 takes in the microphone of the teleconferencing device TCD2 and the communication network.
  • the voice data supplied via the NT that is, voice based on the voice data of the speech of the conference participant HM2 is output.
  • an image based on the image data captured and transmitted by the teleconferencing device TCD3 is displayed on the screen of the display device of the monitoring device MD3, and the teleconferencing device T is transmitted from the speaker. Sound is output based on the sound data captured and transmitted by the microphone of CD3.
  • the image sent from the remote conference device TCD is displayed, and the sound is output.
  • the image data transmitted / received between the teleconferencing devices TCD1 to TCDn via the communication network NT may be a still image data other than the video image data.
  • these monitoring devices MD2 to MDn are connected to a conference participant HM1 in a conference room equipped with a remote conference device TCD1 and another conference participant in another remote location.
  • HM2 to HMn the other conference participants HM2 to HMn displayed on each display device of each monitor device MD2 to MDn
  • the arrangement of the device MD can be such that the conference participant HM and the five monitor devices MD are, for example, regular hexagons.
  • the group determination information generation unit JB in the signal processing device SPD in each teleconference device TCD is used to group each conference participant who is participating in the same topic during the conference, as described below. Generates information for group determination used for In the following, of the group determination information generation units JB1 to JBn corresponding to the respective teleconference devices TCD1 to TCDn, the signal processing device SPD1 of the teleconference device TCD1 is representatively described. The operation of the group determination information generation unit JB1 will be described as an example.
  • the group determination information generation unit JB 1 is configured to output the image supplied from the camera of the monitor device M Dm arranged in front of the conference participant HM 1, for example. Based on the image data, the degree of attention of the conference participant HM1 is detected, and based on the detection result, it is possible to determine which group topic the conference participant HM1 is participating in, as described later. Generates group judgment information used for judgment. Note that the degree of interest in the conference participant HM1 indicates the presence or absence of attention as in the case where the conference participant HM1 is paying attention to one or other of the monitor devices MD2 to MDn. In other words, not only when the presence or absence of attention is digitally represented by 0 and 1, but also when the attention is paid to the monitor devices MD2 to MDn, that is, in an analog or stepwise manner. The case is also included.
  • the group determination information generation unit JB 1 analyzes the image of the conference participant HM 1 supplied from the camera of the monitor device MDm, and analyzes the direction of the conference participant HM 1 Is detected at regular intervals.
  • the group determination information generation unit JB1 first detects the period Ij as information indicating the direction in which the meeting participant HM1 is facing and the duration of the direction, as shown in the upper part of FIG. .
  • j of I j is a value of 2 to n corresponding to each of the other conference participants HM2 to HMn and a value of 0 representing neither of these conference participants HM2 to HMn.
  • the group determination information generation unit JB 1 is a monitor device in which an image of the conference participant HM 2 is displayed.
  • a monitor device in which an image of the conference participant HM 3 is displayed during a period I 2 facing the MD 2.
  • Monitor device displaying the image of conference participant HMm while MD3 is facing I3, image of conference participant HMn-1 while displaying MDm Monitor device MD n—facing towards 1 During the period I n-1, the monitor In which the image of the meeting participant HMn is displayed, the period I n facing the device MD n, and any of the monitor devices MD 2 to MD n Detect period I 0 that is not suitable for
  • the group determination information generation unit JB1 detects a period that lasts more than the time Tcont.
  • j) is generated.
  • j of (H i: A j) is one of the values of 2 to n and 0 corresponding to the other conference participants HM 2 to HMn and others. That is, in the example of FIG.
  • the group determination information generation unit JB1 detects the periods I3, I0, and I2 from each of the periods I2 to In or I0 as a period that lasts for the time Tcont or more In this case, information indicating that the conference participant HM1 is paying attention to the monitor device MD3 corresponding to the detected period I3 (HI: A3) and the conference corresponding to the period I0 (HI: AO) indicating that the person HM1 is not paying attention to any of the monitor devices MD or paying attention to something other than each monitor device MD, and the monitor device MD corresponding to the period I2 2 (HI: A2) indicating that the participant HM1 is paying attention is generated as group determination information.
  • the group determination information generation unit JB 1 performs a switch SW indicating that the conference participant HM 1 is paying attention. Based on the switch press information from the group, group determination information for determining the group may be generated. That is, the group determination information generation unit JB1 in this case detects the period Ij as information indicating the direction in which the conference participant HM1 is facing and the duration of the direction, as shown in the upper part of FIG. For each of the detected periods I2 to 1n or I0, the "ON" signal of the switch press as shown in the middle part of Fig. 4 obtained by the conference participant HM1 pressing the switch SW is output.
  • the information (HI: A j) shown in the lower middle part of Fig. 4 is generated.
  • the group determination information generation unit JB1 determines I3 and I4 from the respective periods I2 to In or I0 as the periods when the switch press signal is turned ON. If detected, information indicating that the conference participant HM 1 is paying attention to the monitoring device MD 3 corresponding to the detected period I 3 (H 1: A 3) and corresponding to the period I 4 Information (HI: A4) indicating that the meeting participant HM1 is paying attention to the monitor device MD4 is generated as group determination information.
  • the conference participant HM 1 it is possible for the conference participant HM 1 to clearly indicate the direction in which the conference participant HM 1 is paying attention. For example, a button corresponding to each of the other conference participants HM2 to HMn and a button corresponding to a case where none of them is focused on are prepared, and these buttons are set to the conference participants HM2. When 1 pushes himself, he designates the other party he is paying attention to. In this case, the press information of these buttons is the group determination information described above.
  • the group determination information generation unit JB1 pays attention to under the behavior and instruction of the conference participant HM1 Is supplied to the information transmitting / receiving unit TRB 1 in the signal processing device SPD 1, and is further transmitted from the communication network NT via the network connection terminal TN 1 to a server to be described later. Sent to SV.
  • the server SV is configured as shown in FIG. 5 and performs grouping based on the information for group determination transmitted from each of the remote conference devices TCD1 to TCD ⁇ , and each conference participant ⁇ It functions as a grooving device that generates group information indicating whether the group belongs to a group.
  • the server SV includes a network connection terminal 11 connected to the communication network ⁇ , an information transmission / reception unit 10 for transmitting / receiving information to / from the communication network NT, and a remote conference device.
  • a group is determined based on the group determination information transmitted from TCD 1 to TCD ⁇ , and a group indicating to which group each conference participant ⁇ belongs is based on the group determination result.
  • a group determining unit GJD for generating information and transmitting the group information to the information processing unit PB of each of the teleconference devices T CD1 to T CDn.
  • the information transmitting / receiving unit 10 receives the group determination information transmitted from each of the remote conference devices TCD1 to TCD ⁇ via the communication network NT, and transmits the group determination information.
  • Group judgment unit Supply to GJD the information transmitting / receiving unit 10 includes a group determining unit GJD Is transmitted to each of the remote conference devices TCD1 to TCDn via the communication network NT.
  • the group determination unit GJD determines whether each conference participant ⁇ 1 to ⁇ participating in the conference via each teleconference device T CD1 to T CD ⁇ Judge and update which topic they belong to, and indicate which group each conference participant ⁇ belongs to based on the group judgment and update results. Generate group information.
  • Each teleconference device TCD1 to TCDn supplies the group information transmitted from the server SV to the information processing unit PB, which will be described later in detail, and the information processing unit PB generates the group information based on the group information. Then, as will be described later, parameters for adjusting the volume, sound quality, image quality, and the like are generated, and the image and sound are adjusted.
  • the group judgment unit GJD uses the "personal number", which is the number corresponding to each conference participant participating in the teleconference system, and the teleconference devices TCD1 to TCDn.
  • HM1 to HMn are the number of the conference participant of the other party that the HM1 to HMn is paying attention to.
  • a "group number” indicating the number of each group existing in the teleconferencing system and a "number of conference participants” belonging to each group are maintained.
  • ”And“ one member ” indicating the conference participants belonging to each group.
  • the group determination unit GJD performs an initialization process at the start of communication as shown in FIG. 8 before receiving the group determination information.
  • the target table shown in FIG. 6 is created and initialized.
  • the numbers corresponding to each conference participant participating in the remote conference system that is, Hl to Hn in the example of FIG.
  • a number that indicates that each conference participant HM1 to HMn using each of the remote conference devices TCD1 to TCDn is not paying attention to any of the destinations as the “destination number”.
  • a 0 is set to all, and “X” indicating that it is not registered in any group is set to all as “registration to group table”.
  • the group determination unit GJD creates and initializes the group table shown in FIG. 7 as the process of step S12.
  • the groups Gl to Gn which are groups of the number of the remote conference devices TCD1 to TCD ⁇ participating in the remote conference system, are set as “group numbers” in the group table shown in FIG. Is set as the number of persons, and 0 is set for all of the groups assuming that nobody participates in any group. Further, the group is composed of any of the groups as the “one member” If there are no members All are emptied.
  • the group determination unit GJD starts processing when the group determination information is generated, as shown in FIG.
  • the group determination unit GJD when the group determination unit GJD receives the group determination information, first, as a process of step S21, the group determination unit GJD actually reflects the group determination information in the attention destination table. That is, as shown in FIG. 10, for example, the reflection of the information for group determination means that the above-mentioned information (H i, A j), that is, the conference participant HM i represented by No.
  • the “destination number” of the entry of the principal number Hi is set to A j.
  • “registration to group table” is all initialized to “X”.
  • FIG. 10 the reflection of the information for group determination means that the above-mentioned information (H i, A j), that is, the conference participant HM i represented by No.
  • A3 corresponding to the conference participant HM3 is set as the “participant's attention number” as a destination to which the conference participant HM1 represented by the “personal number” H1 pays attention, and the “personal number” is set.
  • No. H2 conference participant A0 indicating that HM2 is not paying attention to anyone is set as the "target number”
  • conference participant HM3 is the conference participant.
  • A5 is set in "Target number”
  • conference participant HM4 is set to A2 in "Target number” by focusing on conference participant HM2 . The following description is omitted.
  • the group determination unit GJD sets “number of persons” to all 0 and sets “members” to all empty in the group table as in FIG.
  • the group judgment unit GJD performs these steps S21 and After the setting in S22, as the process of step S23, the contents of the target table are sequentially reflected in the group table for each of H1 to Hn of the "personal number".
  • registration means registration in the group table
  • self entry indicates an entry of one's own in the table of interest
  • subject is The attention destination in the own entry
  • the "entry entry” indicates the entry of the attention destination in the attention table
  • the "own group” indicates the group to which one is registered as a member
  • the “attention destination group” indicates a group in which the attention destination is registered as a member.
  • the registration in the actual operation includes increasing the number of members in the group table by one, adding a corresponding number to the members in the group table, and changing the contents of registration in the group table in the target table from “X” to “ ⁇ ”. It is to make.
  • the requirements for reflecting the entry of the conference participant Hi in the attention table will be described.
  • the requirements for reflecting the entry in the look-ahead table for the conference participant HM i corresponding to the principal number H i are as follows.
  • the principal number H i is registered in the group table, and the entry of the principal number H i in the target table H i
  • the registration in the group table in “” becomes “ ⁇ ”.
  • requirement 1 such a requirement in each teleconferencing device TCD is referred to as requirement 1. If the target number of the principal number Hi is AO, that is, if no other conference participant is focused on, this is the only requirement.
  • the attention destination number is registered in the group table, and the entry content of the attention destination in the attention destination table in the attention destination table becomes “ ⁇ ⁇ ”.
  • a requirement is that they be registered in a group.
  • such a requirement for each teleconference device TCD is referred to as a requirement 2.
  • the group determination unit GJD determines whether the registration in the group table is “ ⁇ ” in the own entry of the principal number Hi in the attention destination table as the process in step S31. Is determined. If the “registration” of the self entry is “ ⁇ ” in step S31, registration in the group table is also guaranteed, so that requirement 1 has already been satisfied. Therefore, if Y ES is determined in step S31, the group determination unit GJD does not perform the work of registering the principal number Hi in the group table, and proceeds to the processing in step S33. On the other hand, since “registration” is “X” in its own entry, the group determination unit GJD shifts to the process of step S32 if it determines N0 in step S31.
  • step S32 the group determination unit GJD registers itself in the group having the smallest number of 0 in the group table, that is, registers the personal number, and thereafter, proceeds to step S33. Move to the processing of.
  • step S33 the group determination unit GJD checks whether the target number is A0. Here, if the target number is A0, it means that all the requirements have already been satisfied.Therefore, when the group determination unit GJD determines NO in this step S33, End a series of processing. On the other hand, if the attention destination number is not AO and YES is determined in step S33, the processing of the group determination unit GJD shifts to step S34 to satisfy the requirement 2.
  • the group determination unit G JD determines whether or not the content of the entry in the group table in the entry of interest is “ ⁇ ”.
  • step S34 if the entry in the target entry is “X”, it is certain that the target entry is not registered in the group table, so the group judgment unit GJD proceeds to step S34. If NO is determined in step S38, the process proceeds to step S38, where the target of interest is registered in the same group as the user, that is, the own group, and further registered in the group table of the target entry of the target table of interest. The content is “ ⁇ ”. Since the requirement 2 is surely satisfied by the processing in step S38, the group determination unit G JD ends the series of processing.
  • step S34 if the entry at the entry of interest is “ ⁇ ” and the entry of interest is already registered, the remaining requirement is the principal number H i in the second half of requirement 2. The only guarantee is that the and the target are in the same group. Therefore, if the group determination unit GJD determines YES in the determination in step S34, the next step S35 searches for a target group with reference to the group table. In addition, in step S36, it is confirmed whether or not the principal number Hi and the target are in the same group.
  • step S36 If it is already confirmed in step S36 that the group is the same, since requirement 2 has already been satisfied, the group judgment unit GJD returns a series of Ends the process of.
  • step S36 the group to which the principal number Hi and the attention destination belong must be the same, and the group determination unit GJD performs the processing in step S37. And merge the two groups to which they belong. That is, of the two groups, the larger number is merged with the smaller number, more specifically, the larger number is added to the smaller number, and the larger member is added to the smaller member.
  • the number of members on the big side is 0, and the member on the big side is empty. As a result, the requirement 2 is satisfied and all the requirements are satisfied, so that the group determination unit G JD ends the series of processing.
  • the group judgment unit G JD completes the check on the requirements for reflecting the entry of the meeting participant Hi in the table of interest.
  • the entry of the principal number Hi-1 is reflected along with the reflection of the entry of the principal number Hi. Requirements.
  • the reflection of the entry of the principal number H1 since other entries have not been reflected before that, only the entry of the principal number H1 needs to be reflected.
  • the operations to be performed are new registration in the group table, merging of two groups in the group table, and “ ⁇ ” of the registration contents in the group table in the target table. This is a change to.
  • the registered number is deleted according to the entry up to the principal number H i—1 immediately before the principal number H i, and the registration in the group table does not become “X”.
  • two numbers that belonged to the same group are not divided. Therefore, the reflection process for the principal number H i does not prevent the requirement satisfied in the processing up to the preceding principal number H i-1 from being satisfied. Therefore, for all the principal numbers H i, the requirements for all the principal numbers H 1 to H i are satisfied after the processing shown in FIG. 11 for the entry of the principal number H i is completed. You can see that.
  • changes in the contents of the attention table and the group table when the processing of the flowchart shown in FIG. 11 is performed will be described with reference to specific examples.
  • the group table is in the state as shown in FIG. 7, and the target table when the group determination information is reflected is as shown in FIG.
  • the attention table and group table change will be described.
  • the registration content in the group table is “X”
  • the determination is NO in step S31 in FIG. Done.
  • the group table becomes as shown in FIG.
  • the number of persons becomes 1 for the group number G1, which is a group of small numbers, and a personal number H1 representing oneself is registered for each member.
  • the attention destination table as shown in FIG. 13, the registered content of the principal number H1 in the group table is “ ⁇ ”.
  • step S33 when it is determined as YES in the determination processing of step S33, and the attention destination number A3 representing the conference participant HM3 is obtained as the attention destination, as shown in FIG. Since the entry content in the group table of the entry is “X”, it is determined as N 0 in the determination processing in step S34, and as a result, in step S38, the principal number H 3 Is registered in its own group, Group G1. As a result, as shown in FIG. 14, in the group table, the number of people is 2 for group G1, and its members are HI and H3. Further, as shown in FIG. 15, in the attention destination table, the registered contents of the principal number H1 and the principal number H3 in the group table are “ ⁇ ”.
  • step S32 of the above registration of the personal number H2 to the entry is performed.
  • the number of members becomes 1 for the group number G2, which is the group next to the smallest number, as shown in FIG. First, a personal number H2 representing the self is registered.
  • the attention table as shown in FIG. 17, the registered content of the personal number H2 in the group table is “ ⁇ ”. Further, as shown in the example of FIG. 17, when the attention destination number for the principal number H2 is, for example, A0, the entry reflection processing ends at this point.
  • step S38 the principal number H5 of the attention destination is registered in the group G1 which is the own group for the principal number H3.
  • the group table the number of people is updated to 3 for the group G1, and the members are updated to HI, H3, and H5.
  • the registered content of the principal number H5 in the group table is updated to “ ⁇ ”. This completes the entry of the entry for the conference participant HM3 (Personal Number H3).
  • the content registered in the group table at this point is ⁇ X '', so it is determined as N0 in step S31 in Fig. 11.
  • the personal number H4 is registered in the entry.
  • the number of persons in the group number G3 which is the group next to the already set groups G1 and G2 is 1 as shown in FIG.
  • the member is registered with a personal number H4 representing himself.
  • the registered content of the personal number H4 in the group table is “ ⁇ ”.
  • the attention destination table at this time is as shown in FIG.
  • the registered content of the personal number H2, which is the attention destination, in the group table is " ⁇ "
  • step S35 a group number is searched for the principal number H2 of the target, thereby obtaining a group number G2 of the principal number H2 of the target.
  • step S36 the group number of the principal number H4 at the current time is G3, while the group number G2 of the principal number H2 of interest is set to NO.
  • step S37 the group number G3 of the principal number H4 is merged with the group number G2 of the target principal number H2, which is a smaller number.
  • the group table becomes as shown in FIG. Is updated to 2 and its members are updated to H2 and H4.
  • the attention table is updated as shown in Fig. 23. That is, the table of interest remains the same as shown in Figure 21.
  • step S in FIG. 11 is performed. 31, it is determined to be YES. Further, if the conference participant HM5 having the principal number H5 pays attention to the conference participant HM3, for example, it is determined to be YES in step S33. At this point, as shown in FIG. 23, the content registered in the group table for the personal number H 3 of the attention destination is “ ⁇ ”. Therefore, in step S 34 in FIG. 11, YE S Is determined.
  • step S35 a group number is searched for the principal number H3 of the target, whereby the group number G1 of the principal number H3 of the target is obtained. Then, in the next step S36, the group number G1 of the principal number H3 of interest is set as the group number G1, and since the principal number H5 is already registered in this group number G1, YE It is determined to be S and the process ends.
  • the group table is updated as shown in FIG. 24, and the target table is updated as shown in FIG. That is, the group table remains as shown in FIG. 22, and the target table remains as shown in FIG.
  • the “registration to the group table” of the target table becomes “ ⁇ ”, and Will be registered as members of any one group in the group table.
  • the group determination unit GJD described above uses the information of the target table and the group table when all such information reflection is completed as described above to determine which group each conference participant HM belongs to. That is, it is generated as group information indicating which topic is participating.
  • this group information is transmitted from the server SV to each teleconference device TCD, and the transmission contents and the transmission destination at this time include, for example, all the configurations of the group in which the number of persons in the group table is not 0. It is possible to transmit to the teleconferencing device TCD at all points, or to transmit the configuration of the group to which the conference participant HM belongs at that point to the teleconferencing device TCD at each point.
  • the operation of the teleconferencing device TCD that receives the image data and audio data transmitted from each teleconferencing device TCD and the above-described group information from the server SV will be described.
  • the operation of the remote conference device TCD1 shown in FIG. 2 as a representative of the remote conference devices TCD1 to TCDn will be described as an example.
  • the information transmitting and receiving unit TRB 1 of the teleconferencing device TCD 1 When the information transmitting / receiving unit TRB 1 of the teleconferencing device TCD 1 receives a signal transmitted through the communication network NT, the information transmitting and receiving unit TRB 1 responds to this signal to each of the teleconferencing devices TCD 2 to TCDn. Image data and audio data to be separated The extracted image data and audio data are supplied to the information processing unit PB1 and the extracted group information is also supplied to the information processing unit PB1.
  • the information processing unit PB1 performs, based on the group information, the parameters used when processing the image data and / or audio data corresponding to each of the remote conference devices TCD2 to TCD ⁇ based on the group information. Is calculated, and further based on the parameters obtained by this calculation, the image data and / or audio data separated into each of the remote conference devices TCD2 to TCD ⁇ correspondingly. A desired adjustment process is performed on each of the image data and the audio data after the adjustment process, and each of the monitor devices MD2 to MD provided corresponding to each of the teleconference devices TCD2 to TCD ⁇ . supply for n.
  • FIG. 26 shows, as a first specific example of this adjustment processing, an information processing section PB in the teleconferencing apparatus T CD 1 in a case where the audio data is amplified based on the parameters generated from the group information.
  • the schematic structure of the main part of 1 is shown.
  • the terminal 21 of the information processing unit PB1 in the teleconferencing device TCD1 has a voice corresponding to each of the teleconferencing devices TCD2 to TCDn separated by the above-described broadcast transmission / reception unit TRB1. De overnight supplied Then, the group information is supplied to the terminal 22 from the information transmitting / receiving unit TRB1.
  • the image data is passed through the information processing section PB1 as it is and supplied to the corresponding monitor devices MD2 to MDn. The route is omitted.
  • the audio data corresponding to each of the teleconferencing devices T CD2 to T CD ⁇ is supplied to audio processors AP 2 to AP n provided corresponding to each of the monitoring devices MD 2 to MD ⁇ .
  • the audio processor AP will be simply described.
  • the voice processing parameter overnight calculation unit 20 determines to which group the conference participant HM1 of the remote conference device TCD1 belongs, ie, participates in which topic Then, only the volume of the voice corresponding to the group to which the conference participant HM1 belongs is raised, and a parameter for lowering the volume of the other voices is generated. That is, the voice processing parameter overnight calculation unit 20 amplifies the voice of the speech of the conference participant HM in the group to which the conference participant HM 1 belongs, and attenuates the voice of the speech of the other conference participant HM. As a parameter to perform this, the audio amplification factor is calculated.
  • the information on the audio amplification factors individually output from the audio processing parameter processing section 20 in correspondence with each of the monitor devices MD2 to MDn is provided in correspondence with each of these monitor devices MD2 to MDn. Are supplied to the audio processors AP2 to APn.
  • each of the audio processors AP 2 to ⁇ ⁇ ⁇ amplifies or supplies the individually supplied audio data based on the audio amplification factor information. Performs an adjustment process for attenuating.
  • the audio data after the adjustment processing is performed by each of these audio processors AP2 to APn is output from the corresponding output terminal AO2 to AOn, and the signal processing shown in FIG. 2 is performed. It is supplied to the corresponding output terminals T02-T0n in the device SPD1.
  • the audio data output from the output terminals TO2 to TOn of the signal processing device SPD1 is supplied to the corresponding speakers of the monitor devices MD2 to MDn.
  • the volume of the sound generated by the speaker device of the monitoring device MD corresponding to the group to which the conference participant HM 1 belongs, that is, the group participating in the topic becomes loud and easy to hear.
  • the volume of the sound generated from the speaker of the monitor device MD corresponding to the group to which the person HM1 does not belong, that is, the group not participating in the topic, is reduced.
  • the reason for trying to amplify only the sound corresponding to the group to which the conference participant HM1 belongs, as described above, is as follows. .
  • a teleconferencing device to hold a conference, such as a teleconferencing system using a communication network
  • a communication network for example, if multiple topics simultaneously exist, one's own
  • the sound of the topic you want to hear is disturbed by the sounds of other topics, making it difficult to hear.
  • each conference participant participating in the same topic is grouped, and the volume of the speech of the conference participants belonging to that group is reduced even if they are not paying attention. This is done so that only the volume of the speech of the group participating in another topic is reduced.
  • the voice of the self that is, in this case, the voice of each conference participant participating in the same topic as the conference participant HM 1 becomes easy to hear, while The voice of the topic different from that of the user is reduced so that it does not hinder the speech of each conference participant who is participating in the same topic as the user.
  • the voice processing parameter overnight calculation unit 20 illustrated in FIG. A participant in the meeting HM2 to HMn calculates the filter parameters for adjusting the frequency characteristics of the voices of the voices spoken individually, and calculates the filter parameters in the voice processor AP. 2 to AP n.
  • Fig. 27 shows an example of the configuration of a speech processor AP in the case of performing a process to adjust the frequency characteristics of speech based on the parameters generated from group information as a second specific example of this adjustment process. Show.
  • the filter parameter K (t) of the frequency control characteristic as shown in FIG. 29 supplied from the voice processing parameter calculator 20 is input.
  • F max shown in FIG. 29 is the maximum frequency of the input voice that is a fixed value.
  • the audio data via terminal 3 2 and the filter parameter K (t) via terminal 3 1 are input to the LPF (mouth-path filter), which is a main component of the voice processor AP. Is done.
  • the LPF shuts off K (t) Fmax as shown in Fig. 29 input from terminal 31 for the audio data with the characteristics shown in Fig. 28 supplied from terminal 32. Perform low-pass filter processing with frequency. ⁇ With this, the output audio data with the characteristics shown in Fig. 30 is obtained from the LPF.
  • This output audio data is supplied to the monitor device MD from the terminal 33 via the corresponding output terminal AO.
  • the sound output from the speaker is subjected to frequency characteristic control so that the group to which the conference participant HM1 belongs can be easily heard.
  • the voice of the self that is, in this case, each conference participant participating in the same topic as the conference participant HM 1 becomes easy to hear, while Conference on topics different from self Participants' voices do not interfere with the speech of each conference participant participating in the same topic.
  • the image data and the audio data transmitted from the other teleconferencing devices TCD2 to TCDn to the teleconferencing device TCD1 are particularly transmitted.
  • An example is a process of adjusting based on a parameter generated from group information.
  • Figure 31 shows, as a third specific example of the adjustment process, the main part of the information processing unit PB1 in the teleconference device TCD1 when image data is adjusted based on parameters generated from group information.
  • the schematic configuration of the unit is shown.
  • the terminal 24 of the information processing unit PB1 of the teleconference device TCD1 receives image data corresponding to each of the remote conference devices TCD2 to TCD ⁇ separated by the information transmitting / receiving unit TRB1.
  • the group information is supplied to the terminal 25 from the information transmitting / receiving unit TRB1.
  • the audio data passes through the information processing unit ⁇ ⁇ 1 as it is and is supplied to the corresponding monitor devices MD 2 to ⁇ D ⁇ . Is omitted.
  • the image data corresponding to each of the teleconference devices TCD2 to TCDn is supplied to image processors VP2 to VPn provided corresponding to each of the monitor devices MD2 to MDn. Further, the group information is supplied to the image processing parameter overnight calculation unit 23.
  • the image processing parameter overnight calculation unit 23 determines to which group the conference participant HM 1 of the remote conference device TCD 1 belongs. HM1 is recognized, and the level of brightness and color of the image corresponding to the group to which HM1 belongs is raised, and the images of other conference participants are recognized. Generate parameters for adjusting image quality to lower the brightness and color levels of the image. That is, the image processing parameter calculation unit 23 increases the brightness and color level of the image of the conference participant HM in the group to which the conference participant HM 1 belongs, and performs other conference participation. Calculates the image quality adjustment value by calculation as a parameter to attenuate the brightness and color level of the image for the HM.
  • the image quality adjustment values individually output from the image processing parameter processing unit 23 in correspondence with each of the monitor devices MD2 to MDn are provided in correspondence with each of these monitor devices MD2 to MDn. Are supplied to the image processing units VP2 to VPn.
  • each of the image processors VP2 to VPn performs an adjustment process for amplifying or attenuating the level of the brightness and color of the image data supplied individually for each of the image processors VP2 to VPn.
  • the image data after the adjustment processing is performed by each of these image processing devices VP2 to VPn is output from the corresponding output terminal VO2 to VOn, and the signal shown in FIG. Supplied to corresponding output terminals T02-TOn in processor SPD1.
  • the image data output from each of the output terminals # 02 to # ⁇ in the signal processing device SPD1 is supplied to the corresponding display device of the monitor devices MD2 to MDn.
  • the image displayed on the display device of the monitor device MD corresponding to the group to which the conference participant HM 1 belongs that is, the group participating in the topic, becomes bright and easy to see. 1 does not belong
  • the image of the self that is, in this case, each conference participant participating in the same topic as the conference participant HM1 becomes easy to see, while the self This makes it difficult to see the images of conference participants with topics different from the above, making it possible to see each conference participant participating in the same topic as yourself more clearly.
  • FIG. 32 shows, as a third specific example of the adjustment processing, a configuration example of the image processor VP when performing image quality adjustment processing of an image based on parameters generated from group information.
  • the image processing a process of adjusting the gain of each primary color of R (red), G (green), and B (blue) is exemplified.
  • the primary color data of R, G, and B supplied from the information transmitting / receiving unit TRB 1 via the terminal 24 are input to the terminals 35, 36, and 37, and the image is input to the terminal 34.
  • the image quality adjustment value V (t) supplied from the processing parameter calculation unit 23 is input.
  • the primary color data of R, G, and B via terminals 35, 36, and 37 and the image quality adjustment value V (t) via terminal 34 are input to the image processor VP.
  • the image processor VP performs image processing on the R, G, and B primary color data input from the terminals 35, 36, and 37 using the image quality adjustment value V (t) input from the terminal.
  • the image processor VP outputs data in which the R, G, and B primary color data are level-adjusted by the image quality adjustment value V (t).
  • the R, G, B data after these image processings are output from the corresponding terminals 38, 39, 40, respectively.
  • the signals are supplied to the corresponding output terminals T 02 to T On of the signal processing device SPD 1 shown in FIG. 2 via the output terminals VO 2 to VOn.
  • the image data and the audio data transmitted from the other teleconferencing devices TCD2 to TCDn to the teleconferencing device TCD1 are as follows. It is also possible to perform the adjustment processing based on the parameters generated from the group information. That is, in the fourth specific example of the adjustment processing, as the information processing processing according to the group information, the adjustment of the volume, the sound quality, and the image quality is not performed individually, but is performed by combining those adjustments. .
  • FIG. 33 shows, as a fourth specific example of this adjustment processing, a teleconference device in which both image data and audio data are adjusted based on parameters generated from group information.
  • the schematic configuration of the main part of the information processing section PB1 in TCD1 is shown.
  • the terminal 28 of the information processing unit PB1 in the teleconference device TCD1 has image data corresponding to each of the remote conference devices TCD2 to TCD ⁇ separated by the information transmitting / receiving unit TRB1. And voice data are supplied, and the group information is supplied to the terminal 29 from the information transmitting / receiving unit TRB1.
  • the image data corresponding to each teleconferencing device TCD2 to TCD ⁇ is supplied to an image processing device 26, and the audio data corresponding to each teleconferencing device TCD2 to TCDn is an audio processing device 27.
  • the group information is supplied to the image processing device 26 and the audio processing device 27.
  • the image processing device 26 includes image processors VP2 to VPn as shown in FIG. Therefore, the image data corresponding to each of the teleconferencing devices TCD2 to TCDn is supplied to each of the image processors VP2 to VPn, as in the case of FIG.
  • the group information input to the image processing device 26 is supplied to the image processing parameter overnight calculation unit 23 shown in FIG.
  • the audio processing device 27 includes audio processors A P 2 to AP n as shown in FIG. Therefore, the audio data corresponding to each of the teleconference devices TCD2 to TCDn is supplied to each of the audio processors AP2 to APn, as in the case of FIG. In addition, the group information input to the audio processing device 27 is supplied to the audio processing parameter overnight calculator 20 shown in FIG.
  • the output audio data is supplied to the corresponding output terminals T02 to T0n of the signal processing device SPD1 shown in FIG. 2 via the corresponding output terminals S02 to SOn.
  • the image data and the audio data output from the output terminals TO 2 to T On of the signal processing device SPD 1 are supplied to the display devices and speakers of the corresponding monitor devices MD 2 to MDn.
  • the image displayed on the display device of the monitor device MD corresponding to the group to which the conference participant HM 1 belongs that is, the group participating in the topic, is easy to see, and the sound is heard. It will be easier.
  • the group HM 1 does not belong to, That is, the image displayed on the display device of the monitor device MD corresponding to the group that does not participate in the topic becomes dark and its sound is unobtrusive.
  • the image of the self that is, in this case, each conference participant who participates in the same topic as the conference participant HM 1 becomes easy to see and the voice becomes easy to hear.
  • the images of conference participants with topics that are different from their own are difficult to see, and their voices are not in the way.
  • examples of lowering the audio volume of conference participants who do not belong to the same group or lowering the maximum frequency in audio by using a low-pass filter there are examples of changing both the volume and the frequency.
  • the information processing for voice is not the method of instantly changing the volume or the maximum frequency when the conference participants who were in the same group are no longer in the same group, and when there is a reverse transition.
  • examples of information processing for images include not only reducing the brightness of the images of conference participants who do not belong to the same group, but also converting the images of conference participants who do not belong to the same group to achromatic or color.
  • Examples are to reduce the brightness, to process both luminance and color, and to adjust the image resolution / sharpness.
  • the brightness and color of the image are changed instantaneously.
  • the time is gradually changed with a specific time constant.
  • the sound and the image are gradually changed with a specific time constant as described above, an example in which the control is performed in synchronization with the sound and the image, an example in which one of the changes is delayed by a certain time, An example of changing the time constant between the two is conceivable.
  • the group determination information generation unit JB 1 shown in FIG. 2 based on the image data supplied from the camera of the monitor device MD m arranged in front of the conference participant HM 1, for example, A description will be given of a specific example of a process for detecting the direction that the person HM1 is paying attention to, that is, any one of the monitor devices MD2 to MDn or the other direction.
  • the line of sight of the conference participant HM1 Direction detection that is, gaze detection.
  • FIG. 34 shows the flow of processing when gaze detection is performed by the group determination information generation unit JB1.
  • the group determination information generation unit JB1 is provided, for example, in the monitor device MDm arranged in front of the conference participant HM1 as the process of step S41.
  • the outline of both eyes in the face image of the conference participant HM1 is detected using the color information of the supplied image as a process of the next step S42. . That is, the group determination information generation unit JB 1
  • the group determination information generation unit JB 1 By extracting the color gamut such as skin, white eye, and black eye from the color information of the supplied image and finding the boundary of the extracted color region, for example, as shown in FIG.
  • the contour E and the contour E of the left eye are detected.
  • FIG. 35 shows only one eye.
  • the group determination information generation unit JB1 performs the right and left end points F1, F2 of the right eye based on the contours E of both eyes obtained in step S42. And the left and right end points F 1, F 2 of the left eye are found, and the positions of the left and right end points F 1, F 2 of the right and left eyes are used as references to search for a nostril as shown in FIG. 36.
  • the search range NE is determined, and the position of the nostril NH is detected from within the search range NE. That is, as shown in FIG.
  • the group determination information generating unit JB 1 calculates the center of gravity Q of the pixel set constituting the eye contour E and the pixel set constituting the eye contour E for the left and right eyes, as shown in FIG. Find the line M that minimizes the second moment (inertia with respect to the line), and from the set of pixels constituting the contour E of the eye, the distance from the center of gravity Q in the direction of the line M is the maximum distance L 1, L Pixels at position 2 are obtained one by one from the center of gravity Q in the left-right direction, and these pixel positions are obtained as left and right end points F 1 and F 2. Next, as shown in FIG.
  • the group determination information generation unit JB1 determines the positions of the left and right end points F1, F2 obtained as described above and the left and right end points F1, F2. With reference to the position, a search range NE for searching for a nostril is determined below each of the left and right end points F l and F 2. Here, since the image of the nostril NH part appears darker than the images of the other parts, the group determination information generation unit JB1 detects the image part with low brightness within the search range NE as the position of the nostril NH. I do. Next, as a process of step S44, the group determination information generation unit JB1 performs the processing of step S44, as shown in FIG.
  • the center position EC of the eyeball EB and the radius r of the eyeball EB are estimated based on the geometric positional relationship between the position of F2 and the position of the nostril NH.
  • the group determination information generation unit JB 1 uses the luminance information of the image in the outline E of the right eye and the outline E of the left eye as the processing in step S45, as shown in FIG. Detect center position EAC o
  • step S46 the group determination information generation unit JB1 performs a process in step S46, as shown in FIG. 38, in which the center position EC of the eyeball EB detected in step S44 and the detection in step S45.
  • a vector EV connecting the center position E AC of the obtained pupil EA and the AC is calculated, and the obtained vector EV is used as a line of sight, and the vector EV determines which of the monitor devices MD2 to MDn. Determines the direction of facing.
  • the group determination information generation unit JB1 detects the line of sight of the conference participant HM1.
  • the line M that minimizes the second-order moment of a specific pixel set such as the contour E can be obtained by, for example, the following operation. ⁇ Here, as shown in FIG.
  • the straight line M represented by (1) is taken as an example.
  • the second moment m about the straight line M can be expressed as the following equation (2). That is, the straight line M that minimizes the second moment is the straight line M that minimizes m in the above equation (2).
  • FIG. 40 shows the flow of processing when the face direction is detected by the group determination information generation unit JB1.
  • the group determination information generation unit JB 1 performs the processing of step S 51 by using the camera provided in the mobile device MDm arranged in front of the conference participant HM 1 as the processing of step S 51.
  • the skin area and the skin region are used by using the color information of the supplied face image.
  • Detect hair area That is, the group determination information generation unit JB 1 extracts, for example, skin and hair color regions from the supplied color information of the face image and uses the extracted color regions as shown in FIGS. 43 and 44. Then, the skin area se and the hair area he are detected.
  • the information generation unit for group determination JB1 performs the processing of step S53, as shown in FIG. 45 and FIG.
  • Set the frame for detecting the center of gravity fq of the sum area fe ( se + he) with the center of gravity sq of the skin area se.
  • the setting of the frame is performed by, for example, specifying a range in the vertical direction of the image. More specifically, this range is specified based on, for example, the upper end re of the sum area fe of the hair area he and the skin area se, and a section below the upper end re of this reference. a + const — Make the range between b.
  • the information generation unit for group determination JB1 performs the processing of step S54, in the range of the frame set in step S53, within the range of the frame set in step S53, the centroid fq of the sum area fe of the hair area he and the skin area se. And the center of gravity sq of the skin region se. Note that these centers of gravity may be used in the subsequent processing when both the horizontal component and the vertical component are used, or when either the horizontal component or the vertical component is used. An example in which only the horizontal component is used will be described.
  • step S54 When the group determination information generation unit JB1 obtains the center of gravity fq of the sum area fe of the hair area he and the skin area se and the center of gravity sq of the skin area se in step S54, the processing in step S55 Then, a difference value is obtained by subtracting the value of the center of gravity fq of the sum area fe of the hair area he and the skin area se from the value of the center of gravity sq of the skin area se.
  • the group determination information generation unit JB1 detects the face direction from the difference value obtained in step S55.
  • the processing for detecting the face direction from the difference value for example, one of the following two methods is used.
  • the difference value is represented by X and the face orientation angle is represented by Y.
  • the angle when 1 is facing the camera of the monitor device MDm is defined as 0 degree.
  • statistics regarding the difference value X and the face direction angle Y are obtained in advance, and the value of the face direction angle Y with respect to the difference value X is set as an average value, for example. 47, a graph of the correspondence is prepared as shown in FIG.
  • step S55 the difference value X obtained in step S55 is used, and the following equation is used.
  • the face direction angle Y is obtained by (8).
  • the group determination information generation unit J B1 detects the face orientation of the meeting participant HM1.
  • FIG. 48 is a schematic perspective view of the side surface of the monitor device MD
  • FIG. 49 is a schematic front view of the monitor device MD. As shown in FIGS.
  • each of the monitor devices MD2 to MDn includes, as main components, a housing 50 and a front surface of the housing 50, that is, a speaker provided on the front side of the monitor device MD. 53, a display device 55 arranged such that the screen 54 faces in a predetermined direction, that is, in the examples of FIGS. 48 and 49, and light emitted from the screen 54 of the display device 55 is shown in FIG.
  • the half-mirror 52 which reflects the light as shown by the dashed-dotted line BO and guides it to the front side of the monitor device MD, and transmits the light incident from the front side of the monitor device MD as shown by the dashed-dotted line BI in FIG.
  • a camera 56 such as a video camera, for example, is provided behind the half mirror 52 so as to be supported by the support portion 58.
  • a microphone 51 supported by a support portion 57 is provided on, for example, the upper surface of the housing 50 of the monitor device MD.
  • the microphone 51 is provided only in the monitor device MD2 to MDn, for example, only in the monitor device MD Dm arranged in front of the conference participant HM1, that is, in the example of FIG. You may do it.
  • each camera 56 in each of the monitor devices MD2 to MDn captures incident light transmitted through the half mirror 52, such as an optical image of the conference participant HM1, and performs image decoding. Convert to overnight.
  • the image data output from each of these cameras 56 is supplied to the information transmission / reception unit TRB1 in the signal processing device SPD1 and transmitted to each of the teleconference devices TCD2 to TCDn via the communication network NT. .
  • the image data output from the camera 56 of the monitor device MDm arranged, for example, in front of the conference participant HM1 is output to the signal processing device SPD1.
  • Guru The information is also supplied to the group determination information generation unit JB1 and, as described above, is used for gaze detection or face direction detection at the time of group determination information generation.
  • Each of the microphones 51 in each of the monitor devices MD2 to MDn converts sounds around the remote conference device TCD1 and speeches of the conference participant HM1 into audio data.
  • the audio data output from each of the microphones 51 is supplied to an information transmission / reception unit TRB1 in the signal processing device SPD1, and is transmitted to each of the teleconference devices TCD2 to TCDn via the communication network NT. Sent to.
  • a teleconference device TCD2 is provided corresponding to the conference participant HM1 in the remote conference device TCD2.
  • Image data captured by the camera 56 of the MD1 device MD1 and supplied via the communication network NT that is, images based on the image data of the conference participants HM2 and the surrounding scenery are displayed.
  • the microphone 53 of the monitor device MD 1 provided for the conference participant HM 1 in the remote conference device TCD 2 is picked up from the speaker 53 of the monitor device MD 2 in the remote conference device T CD 1.
  • the voice data supplied via the communication network NT ie, voice based on the voice data of the conference participant HM 2 is output.
  • an image is taken by the camera 56 of the monitor device MD1 provided for the conference participant HM1 in the teleconference device TCD3.
  • An image based on the transmitted image data is displayed.
  • the conference participants HM 1 A sound based on the sound data captured and transmitted by the microphone 51 of the monitoring device MD1 provided accordingly is output.
  • the other monitor devices MD in which the images transmitted from the corresponding teleconferencing device TCD are displayed and sound is output.
  • the light emitted from the screen 54 of the display device 55 is reflected by the half mirror 52 in the direction indicated by the one-dot chain line B0 in FIG. And is configured to proceed to the conference participant HM 1 side, the face image of the other party HM displayed on the screen 54 of the display device 55 is reflected by the half mirror 52. It is a mirror image that can be seen in its original correct state.
  • RV is an image obtained by reflecting the mirror image of the other party's conference participant HM displayed on the screen 54 of the display device 55 by the half mirror 52, that is, the face of the other party's conference participant HM. It is a virtual image of.
  • the mirror image of the other party is displayed on the screen 54 of the display device 55 on the monitor device MD
  • the mirror image is optically conjugate with the eye position of the mirror image via the half mirror 52.
  • the display is performed so that the positions of the eyes of the virtual image substantially coincide with the principal points of the lens of the camera 56, so that the line of sight of the conference participant HM1 matches the line of sight of the other party's conference participant HM.
  • the conference participant HM1 looks at the monitor device MDm and looks at the image of the conference participant HMm. Let's say you are looking at the image of HM 1 Will be explained.
  • what is displayed on the screen 54 of the display device 55 of the monitor device MDm of the teleconferencing device T CD 1 is a mirror image of the face of the conference participant H Mm and the camera 56 of the monitor device MDm. Then, an image of the conference participant HM1 facing the monitor device MDm is captured, and the image data is transmitted to the remote conference device TCDm or the like.
  • the teleconferencing device T CD 1 displays the mirror image of the other party H Mm on the screen 54 of the display device 55 of the monitor device MDm when the mirror image of the mirror
  • the display is performed so that the position of the eye of the virtual image optically conjugate to the position of the eye substantially coincides with the principal point of the lens of the camera 56, and at the same time, the monitor device MD on the remote conference device T CDm side
  • the position of the virtual image that is optically conjugate to the position of the mirror image is determined by the main lens of the camera 56.
  • the line of sight of the conference participant HMl and the line of sight of the virtual image of the partner conference participant H Mm match on the side of the teleconference device TCD1.
  • the teleconference device T CDm Who HMm and the line of sight and the virtual image of the line of sight of the counterparty conference participants HM 1 comes to that Itasu over.
  • the conference participants can directly see the image displayed on the screen of the display device, that is, the real image, instead of the virtual image by the half mirror, and the camera is, for example, the top, bottom, left, right, It will be located in any vicinity. Therefore, in the case of a general conventional teleconference system, the line of sight of a conference participant is directed to an image (real image) displayed on the screen of the display device, and is directed away from the lens of the power camera. Will be. For this reason, the line of sight of the other conference participant displayed on the screen of the display device does not appear to be facing himself, and the line of sight of each other as in the present embodiment is not seen. It is not possible to have a conversation with the same.
  • the monitoring device MD in each teleconferencing device TCD is configured as shown in FIGS.
  • the monitoring device MD in each teleconferencing device TCD is configured as shown in FIGS.
  • the conference participants HM2 to CD ⁇ ⁇ of the teleconferencing devices TCD2 to TCD ⁇ are connected to a plurality of monitoring devices MD in the teleconference device TCD.
  • the conference participants HM2 to CD ⁇ ⁇ of the teleconferencing devices TCD2 to TCD ⁇ are connected to a plurality of monitoring devices MD in the teleconference device TCD.
  • the relative positional relationship between conference participants HM2 to HMn at each point of each teleconferencing device TCD2 to TCDn is preserved.
  • the meeting participant HM 1 and the other party's meeting participant achieve the same gaze as described above, but also other meeting participants It will also be possible to confirm who the HM is facing.
  • Figure 50 shows the actual implementation of the signal processing device SPD and server SV of each teleconferencing device TCD in the teleconferencing system.
  • An example of the device configuration is shown below. These devices can be realized by, for example, a personal computer or the like.
  • the configuration shown in FIG. 50 includes a CPU 60 that controls each unit, a ROM 61 that stores, for example, BIOS (Basic Input Output Systems) and various initial values, various program data, and a calculation process.
  • RAM 62 that temporarily stores data, etc.
  • HDD hard disk drive
  • a rim loaded with various removable media 66 such as CD-ROM, CD-R, CD-RWs, DVD-ROM, DVD-RAM, DVD-R, DVD-RW, removable hard disk and semiconductor memory.
  • Bubble media drive 65 is connected to the external communication network (communication network NT) such as the above-mentioned ISDN, general telephone line, cable TV line, digital communication satellite line, etc. It has an external bus such as E1394 standard or USB, a communication interface (I / F) section 63 for connecting to various external connection terminals, and the like.
  • the configuration shown in FIG. 50 can further include, for example, an input operation device such as a mouse and a keyboard operated by a user, a monitor for displaying information, and the like.
  • the function of the signal processing device SPD in the teleconferencing system especially the direction detection and group determination in the group determination information generation unit JB
  • the application program for realizing the information generation function, the information processing function in the information processing unit PB, or the group determination processing and the group information generation function in the server SV is stored in advance in the hard disk or the R in the HDD 64. It is stored in the OM 61 or the like, provided by the removable medium 66, or provided by communication via the communication interface section 63.
  • the application programs provided by the removable media 66 and the communication interface 63 are stored in the hard disk in the HDD 64, read from the hard disk of the HDD 64, and temporarily stored in the RAM 62.
  • the CPU 60 executes various operations in the remote conference system as described above according to the application program temporarily stored in the RAM 62.
  • FIG. 51 another configuration example of the teleconference device TCD1 is shown in FIG.
  • the display means for displaying the images of the conference participants ⁇ 2 to ⁇ of the other teleconferencing devices T CD 2 to TCD ⁇ another configuration as shown in FIG.
  • the monitoring devices MD2 to MDn corresponding to those of the other conference participants HM2 to HMn
  • providing one curved screen 71 An image is displayed on the screen # 1 by, for example, a projector.
  • each of the other conference participants HM2 to HMn together with the conference participant HM1 is displayed on the screen 71 as if they had a conference surrounding one table.
  • the images of the conference participants HM 2 to HMn are displayed.
  • the camera 74 and the microphone 75 are arranged, for example, in front of the conference participant HM1.
  • the image data of the conference participant HM1 captured by the camera 74 and the audio data of the conference participant HM1 collected by the microphone 75 are transmitted via the communication network NT to each of the other remote conference devices TCD2. ⁇ T CD ⁇ .
  • the image of the conference participant HM1 captured by the camera 74 is also supplied to the group determination information generation unit J # 1 in the signal processing device SPD1. .
  • the audio data of each conference participant HM2 to HMn transmitted from each of the other teleconferencing devices TCD2 to TCDn is transmitted to each conference participant whose individual sound image is displayed on the screen 71.
  • the audio data of each conference participant HM2 to HMn transmitted from each of the other teleconferencing devices TCD2 to TCDn is transmitted to each conference participant whose individual sound image is displayed on the screen 71.
  • it is supplied to and output from speakers 72, 73 arranged on the left and right of the screen 71.
  • the image position of each conference participant HM2 to HMn displayed on the screen 71 and the position where the speech (voice) of each conference participant HM2 to HMn is heard substantially coincide with each other. become.
  • FIG. 52 as in the configuration example of FIG. 51, one curved screen 81 is provided, and two conference participants HM 1 a and HM 1 b can be seated together.
  • An example of the configuration of the teleconference device TCD 1 is shown.
  • the camera 84 and the microphone 86 are arranged, for example, in front of the conference participant HM1a.
  • the image data of the conference participant HM la captured by the camera 84 and the audio data of the conference participant HM 1a collected by the microphone 86 are transmitted to each remote conference device T CD via the communication network NT. 2 to T CD n.
  • the camera 85 and the microphone 87 are arranged, for example, in front of the conference participant HM1b.
  • the image data of the conference participant HM 1 b captured by the camera 85 and the audio data of the conference participant HM 1 b collected by the microphone 87 are transmitted to each teleconferencing device TCD 2 through the communication network NT. Sent to TCD ⁇ .
  • the image data of the conference participant HM1a captured by the camera 84 and the image data of the conference participant HM1b captured by the camera 85 are combined in the signal processing device SPD1. It is also supplied to the group determination information generator JB1.
  • the group determination information generation unit JB1 detects the directions in which these conference participants HM1a and HM1b pay attention, and the conference participants HMla and HM1.
  • the group determination information described above is generated from the average value of the detection results in the directions in which b is focused. Therefore, in this case, the server SV generates the above-described group information from the group determination information obtained from the average value of the direction detection results.
  • the meeting participants HM1a and HM1b do not take the average of the detection results in the directions of interest, but the meeting participants HM1a and HMlb detect the detection results in the directions of interest. From the server SV and sends it to the server SV. It is also possible to generate individual group information from loop determination information. In this case, the information processing section PB independently calculates parameters such as volume, sound quality, image quality, etc. of each of the meeting participants HM la and HM 1b from this group information, and adjusts the image and sound when adjusting. For each conference participant HM2 to HMn, the average value of the parameters for the conference participants HMla and HMlb is used.
  • the audio data of each conference participant HM2 to HMn transmitted from each of the other teleconferencing devices TCD2 to TCDn is transmitted to the individual conference participant HM2 whose individual sound image is displayed on the screen 81.
  • the audio data of each conference participant HM2 to HMn transmitted from each of the other teleconferencing devices TCD2 to TCDn is transmitted to the individual conference participant HM2 whose individual sound image is displayed on the screen 81.
  • it is supplied to and output from speakers 82 and 83 arranged on the left and right of the screen 81.
  • the image position of each conference participant HM2 to HMn displayed on the screen 81 and the position where the speech (voice) of each conference participant HM2 to HMn is heard almost coincide with each other. Become.
  • FIG. 52 shows a case where headphones 92 and 93 are provided individually for conference participants HM la and HM lb instead of the speeds 82 and 83 in the configuration example of FIG.
  • two conference participants HM1a and HMlb who are present, together with each of the other conference participants HM2 to HMn have the same appearance as if they had a single table.
  • the images of the other conference participants HM2 to HMn are displayed on the screen 91.
  • the camera 94 and the microphone 96 are arranged, for example, in front of the conference participant HM1a.
  • the image data of the conference participant HM1a captured by the camera 94 and the audio data of the conference participant HM1a collected by the microphone 96 are transmitted to the teleconferencing devices TCD2 to TCD via the communication network NT. Sent to CD ⁇ .
  • the camera 95 and the microphone 97 are arranged, for example, in front of the conference participant ⁇ ⁇ 1b.
  • the image data of the conference participant HM 1 b captured by the camera 95 and the audio data of the conference participant HM 1 b collected by the microphone 97 are transmitted to the remote conference device T via the communication network NT. Sent to CD2 to TCDn.
  • the audio data of each conference participant HM2 to HMn transmitted from each of the other teleconferencing devices TCD2 to TCDn is the individual conference participant HM2 whose individual sound image is displayed on the screen 91.
  • the conference participants HM1a and HM1b are supplied to the headphones 92 and 93 that are individually worn and output.
  • the image positions of the conference participants HM2 to HMn displayed on the screen 91 substantially coincide with the positions at which the speeches (voices) of the conference participants HM2 to HMn are heard. Will be.
  • the image data of the conference participant HM1a captured by the camera 94 and the image data of the conference participant HM1b captured by the camera 95 are transmitted to the signal processing device SPD. It is also supplied to the group determination information generation unit JB1 in 1.
  • the group determination information generation unit JB1 detects the directions that these conference participants HM1a and HM1b pay attention to, and Meeting participants HM 1a and HM 1b are notable
  • the above-described group determination information is generated from the average value of the detection results of the directions to be changed. Therefore, the server SV generates the above-described group information from the group determination information obtained from the average value of the direction detection results. In the example shown in Fig.
  • the conference participants HM1a and HM1b do not take the average of the detection results in the directions of interest, but the conference participants HM1a and HM1b vary. It is also possible to generate group judgment information individually from the detection results in the direction of interest and send it to the server SV, and the server SV can generate individual group information from the individual group judgment information. is there.
  • the information processing unit PB independently calculates parameters such as volume, sound quality, image quality, etc. of the conference participants HM1a, HM1b and the like from the group information, and when adjusting the image, Participants in the conference Participants related to HM1a and HM1b Create an image that is shared by both using the average value of the night, and create separate voices for the audio using independent parameters for the conference. HM 1a, HM 1b to each headphone. It is also possible to use a special screen to create and present separate images to the meeting participants HM1a and HM1b based on independent parameters.
  • the image data of the conference participants HM2 to HMn of the other teleconferencing devices TCD2 to TCDn are not communicated, and only the audio data is communicated.
  • each of the other conference participants HM2 to HMn together with the conference participant HM1, each of the other conference participants HM2 to HMn performs the other conference participant as if they had a conference around one table.
  • H Speakers SK2 to SKn for individually outputting the sounds of M2 to HMn are arranged.
  • each conference participant ⁇ 2 to ⁇ such as a photo PT2 to PTn or an illustration, is displayed. The symbolic thing is arranged.
  • the camera 101 and the microphone 102 are arranged, for example, in front of the conference participant # 1.
  • the audio data of the conference participant HM1 collected by the microphone 102 is transmitted to each of the other teleconferencing devices TCD2 to TCDn via the communication network NT.
  • the image data of the conference participant HM1 captured by the camera 101 is supplied to the group determination information generation unit JB1 in the signal processing device SPD1.
  • the audio data of each conference participant HM2 to HMn individually transmitted from the teleconferencing devices TCD2 to TCDn is output from the corresponding speakers SK2 to SKn.
  • the attention level of the conference participant HM is detected by the group determination information generation unit JB in the remote conference device TCD.
  • group determination information that is used for determining which group topic each conference participant HM is participating in is generated, and the server SV generates the group determination information. Grouping is performed based on the group, and group information indicating which group each conference participant HM belongs to is generated.
  • the teleconferencing system uses the information processing unit PB of the remote conference device TCD to transmit the corresponding image data to each of the other remote conference devices TCD based on the group information.
  • a desired adjustment process is performed on evening and / or audio data. Therefore, in the remote conference system, it is possible to make the speech of each conference participant participating in the same topic particularly easy to hear and to see.
  • This teleconferencing system has the same basic configuration as the teleconferencing system shown as the first embodiment, but does not have the server SV functioning as the above-described grouping device, as shown in FIG.
  • the function of the grouping device is realized in each teleconferencing device TCD. Therefore, components corresponding to those of the remote conference system shown in the first embodiment are denoted by the same reference numerals, and detailed description is omitted.
  • each of the conference participants HM1 to HMn at a plurality of locations (1 to n locations) is assigned a corresponding teleconferencing device TCD1 to TCDn.
  • Each of the teleconferencing devices TCD1 to TCDn is connected via a communication network NT such as an ISDN.
  • Each teleconferencing device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM via the communication network NT. Of the other conference participant HM transmitted from the other teleconferencing device TCD as well as transmitting to the remote conferencing device TCD.
  • Each teleconferencing device TCD in this teleconferencing system has a configuration as shown in FIG.
  • the remote conference device T CD 1 will be described.
  • the teleconference device TCD1 includes at least the signal processing device SPD1 and the monitor devices MD2 to MDn.
  • the signal processing device SPD1 in the teleconferencing device TCD1 includes the network connection terminal TN1, the information transmitting / receiving unit TRB1, the information processing unit PB1, and the information generation unit JB for group determination. 1, output terminals TO 2 to T On, input terminals TI 2 to TI ⁇ , and input terminal ⁇ S, and a group determination unit GJD 1 corresponding to the group determination unit GJD in the server SV described above. ing.
  • Each of the monitor devices MD 2 to MD n has the same configuration as that shown in FIGS. 48 and 49, respectively.
  • Image data captured from a camera provided in at least one of the monitor devices MD2 to MDn and audio data captured from a microphone provided in at least one of the monitor devices MD are also defined as follows.
  • the signals are transmitted to the remote conference devices TCD2 to TCDn via the signal processing device SPD1 and the communication network NT.
  • the display device of each of the monitor devices MD2 to MDn displays an image based on the image data transmitted from the corresponding remote conference device TCD2 to TCDn, and Output the audio based on the audio data transmitted from the corresponding teleconferencing devices TCD2 to TCDn.
  • the glue in the signal processor SPD 1 in the teleconferencing device T CD 1 The group determination information generation unit JB1 generates group determination information as described above.
  • the group determination information generation unit j B 1 includes, for example, the image data supplied from the camera of the monitor device MDm disposed in front of the conference participant HM 1 and the above-described image data.
  • the attention level of the conference participant HM1 is detected based on the switch press information from the switch SW, and the above-described group determination information is generated based on the detection result.
  • the group determination information generation unit J B1 performs the above-described direction detection processing.
  • the group determination information generated by the group determination information generation unit jB1 is supplied to the information transmission / reception unit TRB1 in the signal processing device SPD1 and is transmitted to each of the teleconference devices TCD2 to TCD2 through the communication network NT. Sent to TCDn. Further, the group judgment information generated by the group judgment information generation unit JB1 is supplied to the group judgment unit GJD1 which replaces the server SV described above.
  • the group determination unit GJD1 in the signal processing device SPD1 in the teleconferencing device TCD1 is similar to the group determination unit GJD in the server SV described above. Instead of collectively generating group information for each conference participant based on each group determination information from CDn, the group determination information supplied from the group determination information generation unit JB 1 A group determination is performed based on the group determination information transmitted from each of the teleconferencing devices TCD2 to TCDn, and the conference participant HM1 belongs to any group based on the group determination result.
  • the teleconferencing device T CD 1 That is, in this case, the group determination information regarding the conference participant HM1 is received from the group determination information generation unit JB1, and the group determination information regarding the other conference participants HM2 to HMn is transmitted to the communication network NT.
  • the information is received from the information transmitting / receiving unit TRB1 which receives signals transmitted from each of the remote conference devices TCD2 to TCDn via the remote conference device TRB1.
  • the group determination unit G JD1 holds the attention table shown in FIG. 6 and the group table shown in FIG. 7, and includes the group determination information generation unit JB1 and each remote conference device TB.
  • the initialization processing at the start of communication shown in Fig. 8 is performed.
  • the group determination unit GJD1 receives the group determination information shown in FIG. Perform processing.
  • the group determination unit G JD1 supplies the generated group information to the information processing unit PB1 in the signal processing device SPD1.
  • each remote conference apparatus T CD 2 ⁇ T c such teleconference system supplied to each monitor device MD 2 ⁇ MD n provided corresponding to the CD n is in the remote conference apparatus T CD G
  • the loop determination information generation unit JB detects the degree of attention of the conference participants HM, and based on the detection result, determines which group topic each conference participant HM is participating in. Generates information for group determination to be used, and performs grouping based on the information for group determination by the group determination unit GJD in the teleconference device TCD, and indicates which group each conference participant HM belongs to Generate group information.
  • the teleconferencing system uses the information processing unit PB in the teleconferencing device TCD to perform desired adjustment processing on the corresponding image data and / or audio data on each of the other teleconferencing devices TCD based on the group information. .
  • the function of the grouping device can be realized in each remote conference device TCD, and the function is generated by each remote conference device TCD.
  • the teleconferencing system does not need to have a server as a backyard, and enables teleconferencing with a simple configuration.
  • the signal processing device SPD of each remote conference device TCD in the remote conference system can be realized by a device such as a personal convenience device shown in FIG. 50, for example.
  • Each of the remote conference devices TCD may have the configuration shown in FIGS. 51 to 54.
  • This teleconferencing system has the same basic configuration as the teleconference system shown in the second embodiment shown in FIG. 55 except that the server SV functioning as the above-described grouping device is not provided.
  • This function is realized in one teleconferencing device TCD, and the other teleconferencing device TCD does not have the function of a grouping device. Therefore, components corresponding to those of the remote conference system shown as the second embodiment are denoted by the same reference numerals, and detailed description is omitted.
  • each teleconferencing device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to the communication network NT.
  • the image data and the audio data of the other conference participants HM transmitted from the other teleconferencing device TCD can be transmitted and transmitted to the other teleconferencing device TCD via the.
  • the teleconferencing device TCD1 has a function of a grooving device.
  • the teleconference device TCD1 includes at least a signal processing device SPD1 and monitor devices MD2 to MDn.
  • the signal processing device SPD1 in the teleconferencing device TCD1 includes a network connection terminal TN1, a key information transmitting / receiving unit TRB1, an information processing unit PB1, and a group determination information generating unit. It has JB1, a group determination unit GJD1, output terminals TO2 to TOn, input terminals ⁇ I2 to TI ⁇ , and an input terminal TS.
  • Each monitor device MD2 to MD ⁇ is shown in Fig. 48 and Fig. 49, respectively. It has the same configuration as that shown.
  • the image data captured from the camera provided in at least one of the monitor devices MD2 to MDn and the audio data captured from the microphone provided in at least one of the monitor devices MD are also: As described above, the signals are transmitted to the remote conference devices TCD2 to TCDn via the signal processing device SPD1 and the communication network NT.
  • the display device of each of the monitor devices MD2 to MDn displays an image based on the image data transmitted from the corresponding remote conference device TCD2 to TCDn, and Output the audio based on the audio data transmitted from the corresponding teleconferencing devices TCD2 to TCDn.
  • the group determination information generation unit JB1 in the signal processing device SPD1 in the teleconference device TCD1 generates the group determination information as described above.
  • the group determination information generation unit JB 1 performs the image data supplied from the camera of the monitor device MDm arranged in front of the conference participant HM 1 and the above-described image data.
  • the attention level of the conference participant HM1 is detected based on the switch press information from the switch SW thus generated, and the above-described group determination information is generated based on the detection result.
  • the group determination information generation unit J B1 performs the above-described direction detection processing.
  • the group determination information generated by the group determination information generation unit JB1 is supplied to the group determination unit GJD1. That is, the group determination information generation unit jB1 is different from the group determination information generation unit JB1 in the teleconference system shown as the second embodiment. However, the generated group judgment information is supplied only to the group judgment unit GJD1.
  • the group determination unit G JD 1 in the signal processing device SPD 1 in the teleconferencing device T CD 1 includes the group determination information supplied from the group determination information generation unit JB 1 and each of the tele conference devices TCD 2 to TCDn. Group determination is performed based on the group determination information transmitted from the above, and group information indicating which group each conference participant HM belongs to is generated based on the group determination result, that is,
  • the teleconference device TCD1 receives the group determination information relating to itself, that is, in this case, the conference participant HM1 from the group determination information generation unit JB1 and the other conference participants HM2 to HMn. Is received from the information transmission / reception unit TRB1 that receives signals transmitted from the remote conference devices TCD2 to TCDn via the communication network NT.
  • the group determination unit G JD1 holds the attention table shown in FIG. 6 and the group table shown in FIG. 7, and includes the group determination information generation unit JB1 and each teleconference device TCD. 2 to perform the initialization process at the start of communication shown in Fig. 8 as a stage before receiving the group determination information from TCD n. Further, upon receiving the group determination information from the group determination information generation unit JB1 and each of the teleconference devices TCD2 to TCD ⁇ , the group determination unit GJD1 generates the group determination information shown in FIG. Is performed. The group information generated by the group determination unit G JD 1 is supplied to the information processing unit PB 1 in the signal processing device SPD 1 and is transmitted from the information transmission / reception unit TRB 1 to each remote unit via the communication network.
  • the group determination unit GJD1 uses the generated group information not only for the information processing unit PB1 but also for each remote unit. Transmit to the conference devices T CD2 to T CD ⁇ .
  • CD2 to TCDn have the configuration shown in Figure 58, respectively. That. Since each of the teleconferencing devices TCD2 to TCDn has the same configuration, FIG. 58 shows the remote conferencing devices TCD2 to TCDn as representatives of the plurality of teleconference devices TCD2 to TCDn. 3 shows a detailed configuration example of a conference device TCD2. The following describes this teleconferencing device TCD2.
  • the teleconferencing device TCD2 includes at least a signal processing device SPD2 and monitoring devices MD1, MD3 to MDn.
  • the signal processing device SPD 2 in the teleconference device TCD 2 Work connection terminal TN2, information transmission / reception section TRB2, information processing section PB2, group determination information generation section JB2, output terminals TO1, T03 to TOn, and input terminals ⁇ II, ⁇ ⁇ 3 ⁇ ⁇ ⁇ and an input terminal ⁇ S.
  • Each of the monitor devices MD 1, MD 3 to MDn has the same configuration as that shown in FIGS. 48 and 49, respectively.
  • One night, as described above, is transmitted to each of the teleconferencing devices TCD1, TCD3 to TCDn via the signal processing device SPD2 and the communication network NT.
  • the display devices of the respective monitor devices MD1, MD3 to MDn are based on the image data transmitted from the corresponding remote conference devices TCD1, TCD3 to TCDn.
  • the image is displayed, and the speaker outputs audio based on the audio data transmitted from the corresponding teleconference device TCD1, TCD3 to TCDn.
  • the group determination information generation unit JB2 in the signal processing device SPD2 in the teleconference device TCD2 generates the group determination information as described above.
  • the group determination information generation unit JB 2 is configured to execute the image data supplied from the camera of the monitor device MDm arranged in front of the conference participant HM 2 and the above-described image data. Attention of the meeting participants HM 2 based on the switch press information from the switch SW The degree is detected, and the above-described information for group determination is generated based on the detection result. At this time, the group determination information generation unit JB2 performs the direction detection processing described above.
  • the group determining information generated by the group determining information generating unit jB2 is supplied to the information transmitting / receiving unit TRB2 in the signal processing device SPD2.
  • the information processing unit PB2 in the signal processing device SPD2 in the teleconferencing device TCD2 is based on the group information transmitted from the teleconferencing device TCD1 and received by the information transmitting and receiving unit TRB2 as described above.
  • the parameters used when processing information corresponding to the image data and / or audio data corresponding to each of the teleconference devices TCD1, TCD3 to TCDn are calculated. Based on the parameters obtained by the calculation, the desired adjustment processing is performed for the image data and audio or audio data separated corresponding to each of the teleconference devices TCD1, TCD3 to TCDn.
  • the image data after the adjustment processing is applied to each of the monitor devices MD 1, MD 3 to MDn provided corresponding to each of the teleconference devices TCD 1, TCD 3 to T CDn. Supply.
  • the attention level of the conference participant HM is detected by the group determination information generation unit JB in all the teleconference devices TCD, and based on the detection result, each conference participant HM is detected. Generates group determination information that is used to determine which group topic is participating in the topic, and based on the group determination information by the group determination unit G JD1 in the teleconferencing device TCD1. Into which group each meeting participant HM belongs to Is generated. Then, the teleconferencing system uses the information processing unit PB in all the teleconferencing devices TCD to transmit the corresponding image data and / or audio data to each of the other teleconferencing devices TCD based on the group information. A desired adjustment process is performed in the evening.
  • the function of the grouping device can be realized in one teleconference device TCD.
  • the teleconferencing system does not need to have a server as a backyard, and enables teleconferencing with a simple configuration.
  • the teleconferencing system can be configured at low cost because it only needs to have one teleconferencing device TCD that functions as a grouping device.
  • the signal processing device SPD of each remote conference device TCD in the remote conference system can be realized by a device such as a personal computer shown in FIG. 50, for example.
  • Each of the remote conference devices TCD may have the configuration shown in FIGS. 51 to 54.
  • This teleconferencing system has the same basic configuration as the teleconferencing system shown as the first embodiment shown in FIG. 2 in that the server SV is provided, but the grouping device and the information processing described above are used.
  • Department The functions of the processing equipment that is provided are realized by one server SV, and the remote conference equipment TCD does not have the functions of the grouping equipment and the processing equipment. Therefore, components corresponding to those of the remote conference system shown as the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.
  • each teleconferencing device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to a communication network. While transmitting to other teleconferencing device TCD via work NT, it can also receive and present image data and voice data of other conference participants HM transmitted from other teleconferencing device TCD. .
  • Each teleconferencing device TCD in the teleconferencing system has a configuration as shown in FIG. Since each of the teleconferencing devices TCD1 to TCDn has the same configuration, FIG. 59 shows the teleconference device TCD1 to TCDn as a representative of the plurality of teleconference devices TCD1 to TCDn. 1 shows a detailed configuration example. Hereinafter, the remote conference device T CD 1 will be described.
  • the teleconference device TCD1 includes at least the signal processing device SPD1 and the monitor devices MD2 to MDn.
  • the signal processing device SPD1 in the teleconferencing device TCD1 has a network connection terminal TN1, an information transmission / reception unit TRB1, a group determination information generation unit JB1, an output terminal TO2 to TOn, and an input terminal. ⁇ ⁇ 2 to ⁇ ⁇ and an input terminal TS. That is, the signal processing device SPD1 in the teleconference device TCD1 does not include the information processing unit PB1 and the group determination unit GJD1 described above.
  • Each of the monitor devices MD2 to MDn has the same configuration as that shown in FIGS. Image data captured from a camera provided in at least one of the monitor devices MD2 to MDn and audio data captured from a microphone provided in at least one of the monitor devices MD are also included. As described above, the signal is transmitted to each of the remote conference devices TCD2 to TCDn via the signal processing device SPD1 and the communication network NT.
  • the display device of each of the monitor devices MD2 to MDn displays an image based on the image data transmitted from the corresponding remote conference device TCD2 to TCDn, and Outputs audio based on the audio data transmitted from the corresponding teleconferencing devices TCD2 to TCDn.
  • the group determination information generation unit JB1 in the signal processing device SPD1 in the teleconference device TCD1 generates the group determination information as described above.
  • the group determination information generation unit j B 1 outputs the image data supplied from the camera of the monitor device M Dm arranged in front of the conference participant HM 1 and the above-described image data.
  • the attention level of the meeting participant HM1 is detected based on the switch press information from the switch SW, and the above-described group determination information is generated based on the detection result.
  • the group determination information generation unit J B1 performs the above-described direction detection processing.
  • the group determination information generated by the group determination information generation unit jB1 is supplied to the information transmission / reception unit TRB1 of the signal processing device SPD1, and further, is connected to the communication network via the network connection terminal TN1. Sent from Network NT to Super SV.
  • the server SV is configured as shown in FIG. 60, and performs grouping based on the group determination information transmitted from each of the remote conference devices TCD1 to TCD ⁇ , and each conference participant ⁇ It functions as a grooving device that generates group information that indicates whether the group belongs to a group. Further, the server SV functions as a processing device for performing information processing on image data and Z or audio data corresponding to each of the remote conference devices TCD1 to TCDn based on the generated group information.
  • the server SV includes the above-described network connection terminal 11 and the information transmission / reception unit 10, and also includes a group determination unit GJD and an information processing unit PB.
  • the information transmitting / receiving unit 10 receives the group determination information transmitted from each of the remote conference devices TCD1 to TCDn via the communication network NT, and stores the group determination information in a group. Judgment unit Supply to GJD.
  • the information transmitting / receiving unit 10 separates the corresponding video data and audio data from the signal into each of the remote conference devices TCD1 to TCDn. Then, the separated image data and audio data are supplied to the information processing unit PB. Further, the information transmitting and receiving unit 10 transmits each image data and each audio data adjusted by the information processing unit PB to each of the remote conference devices TCD1 to TCDn via the communication network NT.
  • the group determination unit GJD performs the group determination based on each group determination information, and determines the group determination result. Then, group information indicating which group each meeting participant HM belongs to is generated based on.
  • the group determination unit GJD holds the look-ahead table shown in FIG. 6 and the group table shown in FIG. 7, and outputs group determination information from each of the remote conference devices T CD1 to T CD n. As the stage before receiving, the initialization process at the start of communication shown in Fig. 8 is performed. Further, upon receiving the group determination information from each of the teleconferencing devices TCD1 to TCDn, the group determination unit GJD performs the processing when the group determination information is generated as shown in FIG. The group determination unit GJD supplies the generated group information to the information processing unit PB.
  • the information processing unit PB performs information processing on the corresponding image data and / or audio data in each of the teleconference devices TCD1 to TCDn based on the group information supplied from the group determination unit GJD.
  • the parameters used when performing the calculation are calculated, and based on the parameters obtained by this calculation, the image data and the image data separated corresponding to each of the teleconference devices TCD1 to TCDn are calculated.
  • And / or perform desired adjustment processing on the audio data and send the adjusted image data and audio data from the communication network NT via the information transmitting / receiving unit 10 and the network connection terminal 11 to each of them.
  • the message is transmitted to each of the monitoring devices MD1 to MDn provided corresponding to the remote conference devices TCD1 to TCDn.
  • the attention level of the conference participants HM is detected by the group determination information generation unit JB in all the teleconference devices TCD, and each conference participant HM is determined based on the detection result.
  • Group used to determine which group topic they are participating in Generate only loop determination information.
  • the remote conference system uses the group determination unit GJD in the server SV to perform grouping based on the information for group determination, and generates group information indicating to which group each conference participant HM belongs.
  • the information processing unit PB in the server SV performs a desired adjustment process on the corresponding image data and / or audio data on each remote conference device TCD.
  • the functions of the grooving device and the processing device can be realized in one server SV. Therefore, the teleconferencing system can reduce the processing load of each teleconferencing device TCD, and the configuration can be simplified.
  • TCD processing load of each teleconferencing device
  • each teleconferencing device TCD in the teleconferencing system can be realized by a device such as a personal computer shown in FIG. 50, for example. Further, each of the remote conference devices TCD may have the configuration shown in FIGS. 51 to 54.
  • This teleconference system has the same basic configuration as the teleconference system shown in the fourth embodiment in that the teleconference device TCD does not have the functions of a grouping device and a processing device. As shown in the schematic configuration, the functions of the grouping device and It is realized by two servers SV1 and SV2. Therefore, the same reference numerals are given to the configuration corresponding to the remote conference system shown as the fourth embodiment, and the detailed description will be omitted.
  • each teleconferencing device TCD captures the corresponding image data and audio data of the conference participant HM, and transmits the image data and audio data of the conference participant HM to the communication network. While transmitting to other teleconferencing device TCD via work NT, it can also receive and present image data and voice data of other conference participants HM transmitted from other teleconferencing device TCD. .
  • Each teleconferencing device TCD in the teleconferencing system has a configuration as shown in FIG. That is, each remote conference device TCD includes a group determination information generation unit JB in the signal processing device SPD, and generates group determination information as described above.
  • the group determination information generated by the group determination information generation unit JB is transmitted to the server SV1 via the communication network NT.
  • the server SVI is configured as shown in FIG. 62, and performs grouping based on the information for group determination transmitted from each of the remote conference devices TCD1 to TCD ⁇ , and each conference participant ⁇ It functions as a grouping device that generates group information indicating whether it belongs to a group.
  • the server SVI includes the above-described network connection terminal 11i, an information transmission / reception unit 10, and a group determination unit GJD.
  • Each remote meeting via the communication network NT It receives the information for group determination transmitted from the conference devices TCD1 to TCDn, and supplies the information for group determination to the group determination unit GJD. Further, the information transmitting / receiving unit 10! Transmits the group information generated by the group determination unit GJD to the server SV2 via the network connection terminal 11 and the communication network NT.
  • the group determination unit GJD performs a group determination based on each group determination information, and a group indicating which group each conference participant HM belongs to based on the group determination result. Generate information.
  • the group determination unit GJD holds the look-ahead table shown in FIG. 6 and the group table shown in FIG. 7, and obtains group determination information from each of the remote conference devices T CD1 to T CD ⁇ . As the stage before receiving, the initialization process at the start of communication shown in Fig. 8 is performed. Further, upon receiving the group determination information from each of the teleconferencing devices TCD1 to TCDn, the group determination unit GJD performs the processing when the group determination information is generated as shown in FIG. The group determination unit G JD supplies the generated group information to the information transmission / reception unit 10i.
  • the server SV2 is configured as shown in FIG. 63, and based on the group information transmitted from the server SV1, the image data and / or corresponding to each of the teleconference devices TCD1 to TCD ⁇ are provided. It functions as a processing device that processes information on audio data.
  • the server SV2 includes a network connection terminal 1 1 2 described above, with and an information transmitting and receiving unit 10 2, and a data processing unit Robeta.
  • Information transmitting and receiving unit 10 2 via the communication network NT, the server S The group information transmitted from V1 is received, and the group information is supplied to the information processing unit PB.
  • the information transmitting and receiving unit 10 2 via the communication Ne Uz network NT when receiving the signal transmitted from the remote conference apparatus T CD 1 ⁇ T CD n, each remote conference apparatus T CD. 1 to this signal
  • the image data and audio data corresponding to T CD ⁇ are separated, and the separated image data and audio data are supplied to the information adding unit.
  • the information transmitting and receiving unit 10 2 that sends it to the remote conference apparatus T CD 1 ⁇ T CD ⁇ through each image data communication network NT to the audio data adjusting process by the information processing unit [rho beta.
  • Information processing unit PB based on the group information supplied from the information transceiver unit 10 2, image data and or information to audio de Isseki it to it corresponding to the remote conference apparatus T CD 1 ⁇ T CD n
  • the parameters used for processing are calculated, and based on the parameters obtained by this calculation, the image data separated corresponding to each of the teleconferencing devices TCD1 to TCDn.
  • the attention level of the conference participant HM is detected by the group determination information generation unit JB in all the teleconference devices TCD, and based on the detection result, each conference participant HM is detected.
  • Group used to determine which group topics are participating in the topic Generate only loop determination information.
  • the teleconference system uses the group determination unit GJD in the server SV1 to perform grouping based on the group determination information, and generates group information indicating which group each conference participant HM belongs to.
  • the information processing unit PB in the server SV2 performs a desired adjustment process on the image data and the Z or audio data corresponding to each teleconference device TCD based on the group information.
  • the functions of the grouping device and the processing device can be realized by the two servers SV1 and SV2 respectively. Therefore, the teleconferencing system can be configured with a simple configuration by reducing the processing burden on each teleconferencing device TCD, and by reducing the processing load on the servers SV1 and SV2. Can be simplified.
  • TCD processing burden on each teleconferencing device
  • SV1 and SV2 processing load on the servers SV1 and SV2.
  • each remote conference device TCD in the remote conference system can be realized by a device such as a personal computer shown in FIG. 50, for example.
  • Each of the teleconference devices TCD may have the configuration shown in FIGS. 51 to 54.
  • This teleconferencing system is different from the teleconferencing system shown in FIG. 2 in the first embodiment in that the server SV is provided.
  • the functions of the attention detection device and the grouping device having the group determination information generation unit described above are realized in one server SV, and the teleconference device TCD has the attention detection device and the grouping function. It does not have the function of the bing device. Therefore, the same reference numerals are given to the configuration corresponding to the remote conference system shown as the first embodiment, and the detailed description is omitted.
  • each teleconferencing device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to the communication network NT. , And image data and audio data of other conference participants HM transmitted from the other teleconferencing device TCD can be received and presented.
  • Each teleconferencing device TCD in this teleconferencing system has a configuration as shown in FIG. Since each of the teleconferencing devices TCD1 to TCDn has the same configuration, FIG. 64 shows the teleconference device TCD1 to TCDn as a representative of the plurality of teleconference devices TCD1 to TCDn. 1 shows a detailed configuration example. Hereinafter, the remote conference device T CD 1 will be described.
  • the teleconference device TCD1 includes at least the signal processing device SPD1 and the monitor devices MD2 to MDn.
  • the signal processing device SPD1 in the teleconference device TCD1 has a network connection terminal TN1, an information transmission / reception unit TRB1, a key information processing unit PB1, an output terminal T ⁇ 2 to T0n, Input terminals TI 2 to TI n and an input terminal TS are provided. That is, the signal processing device SPD1 in the teleconferencing device TCD1 generates the group determination information described above. It does not have the section JB 1 and the group judgment section GJD 1.
  • Each of the monitor devices MD2 to MDn has the same configuration as that shown in FIGS.
  • the image data captured from the camera provided in at least one of the monitor devices MD2 to MDn and the audio data captured from the microphone provided in at least one of the monitor devices MD are also described above.
  • the signals are transmitted to the remote conference devices TCD2 to TCD ⁇ via the signal processing device SPD1 and the communication network NT.
  • the display devices of the respective monitor devices MD2 to MD ⁇ display images based on the image data transmitted from the corresponding remote conference devices TCD2 to TCDn, and the speed is increased.
  • the power outputs a voice based on the voice data transmitted from the corresponding teleconferencing devices TCD2 to TCDn.
  • the information transmission / reception unit TRB1 in the signal processing device SPD1 in the teleconferencing device TCD1 receives the group information transmitted from the server SV, and supplies the group information to the information processing unit PB1.
  • the information transmitting / receiving section TRB 1 separates the corresponding video data and audio data from the signal into the respective teleconferencing devices TCD2 to TCDn. Then, each of the separated image data and each audio data is supplied to the information processing unit PB1. Further, the information transmission / reception unit TRB 1 transmits image data supplied from the camera of the monitoring device MDm arranged in front of the conference participant HM 1 and switch pressing information from the above-mentioned switch SW to the network.
  • the information processing unit PB1 in the signal processing device SPD1 in the teleconference device TCD1 receives the group information transmitted from the server SV via the communication network NT and received by the information transmitting / receiving unit TRB1. Based on each of the teleconference devices TCD2 to TCD ⁇ , a parameter used when processing information corresponding to the image data and / or audio data is calculated, and furthermore, this calculation is performed. Based on the parameters obtained by the above, based on the evening, each of the teleconference devices TCD2 to TCDn is subjected to the desired adjustment processing for the separated image data and / or audio data, and the adjustment processing is performed. Subsequent image data and audio data are supplied to the respective modem devices MD2 to MDn provided corresponding to the respective teleconference devices TCD2 to TCDn.
  • the server SV is configured as shown in Fig. 65 and functions as an attention level detection device that generates group determination information for grouping each conference participant who is participating in the same topic during the conference. I do.
  • the server SV performs grouping based on the group determination information transmitted from each of the teleconference devices TCD1 to TCDn, and indicates to which group each conference participant HM belongs. It functions as a grouping device that generates group information.
  • the server SV includes the above-described network connection terminal 11 and the information transmitting / receiving unit 10, and also includes a group determination information generation unit JB and a group determination unit G JD.
  • the information transmission / reception unit 10 is connected to each conference participant HM transmitted from each of the remote conference devices TCD1 to TCD ⁇ via the communication network NT, for example, from a camera of a monitor device MD arranged at the front.
  • the supplied image data switch information is received, and these image data and The switch press information is supplied to the group determination information generation unit JB.
  • the information transmitting / receiving unit 10 transmits the group information generated by the group determination unit GJD to each of the teleconference devices TCD1 to TCDn via the network connection terminal 11 and the communication network NT.
  • the group determination information generation unit JB generates the group determination information as described above.
  • the group determination information generation unit JB is configured to transmit the image data supplied from the camera of the monitor device MD m arranged in front of the conference participant HM and the above-described processing.
  • the degree of attention of each conference participant HM is detected based on the switch press information from the switch SW, and the above-described group determination information is generated based on the detection result.
  • the group determination information generation unit JB performs the above-described direction detection processing.
  • the group determination information generated by the group determination information generation unit JB is supplied to the group determination unit GJD.
  • the group determination unit GJD performs a group determination based on each group determination information, and indicates to which group each conference participant HM belongs based on the group determination result. Generate information.
  • the group determination unit GJD holds the target table shown in FIG. 6 and the group table shown in FIG.
  • the initialization processing at the start of communication shown in Fig. 8 is performed. Further, upon receiving the group determination information from the group determination information generation unit JB, the group determination unit GJD performs the processing at the time of generation of the group determination information shown in FIG. glue
  • the group determining unit GJD supplies the generated group information to the information transmitting / receiving unit 10.
  • the attention level of the conference participant HM is detected by the groove determination information generating unit JB in the server SV, and based on the detection result, each conference participant HM Group judgment information used to judge whether a participant is participating in a topic is generated, and group judgment is performed by the group judgment unit GJD in the server SV based on the group judgment information. Generates group information that indicates which group belongs to. Then, the teleconferencing system uses the information processing unit PB in all the teleconferencing devices TCD to perform desired adjustment processing on image data and / or audio data corresponding to each teleconferencing device TCD based on the group information. Is applied.
  • the functions of the attention level detection device and the grooving device can be realized in one server SV. Therefore, the teleconferencing system can reduce the processing load of each teleconferencing device TCD, and can simplify the configuration.
  • the remote conference system it is possible to make the remarks of each conference participant participating in the same topic particularly easy to hear and to see.
  • each teleconferencing device TCD in the teleconferencing system can be realized by a device such as a personal computer shown in FIG. 50, for example. Further, the configuration of each teleconference device TCD shown in FIGS. 51 to 54 may be employed. Next, a remote conference system shown as a seventh embodiment to which the present invention is applied will be described.
  • This teleconference system has the same basic configuration as the teleconference system shown in the sixth embodiment in that the teleconference device TCD does not have the functions of the attention level detection device and the grouping device, but Attention level
  • the functions of the detection device and the grouping device are realized by two servers SV 1 and SV 2 respectively. Therefore, the same reference numerals are given to the components corresponding to those of the remote conference system shown as the sixth embodiment, and detailed description will be omitted.
  • each teleconferencing device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to the communication network NT. , And can receive and present the image data and audio data of the other conference participants HM transmitted from the other teleconferencing device TCD via the other teleconferencing device TCD. .
  • each teleconferencing device TCD in this teleconferencing system has a configuration as shown in FIG. That is, each teleconference device TCD includes an information processing unit PB in the signal processing device SPD, and is transmitted from the server SV2 via the communication network NT and transmitted by the information transmitting / receiving unit TRB. Based on the received group information, the parameters used when processing the image data and / or audio data corresponding to each of the teleconference devices TCD1 to TCD ⁇ are calculated based on the received group information. Further, based on the parameters obtained by this operation, the desired image data and / or audio data separated corresponding to each of the teleconference devices TCDl to TCDn are obtained. Is adjusted.
  • each teleconferencing device TCD receives the image data supplied from the camera of the monitor device MD arranged at the front of the conference participant HM and the switch press information from the switch SW described above, for example. Transmission is made from the communication network NT to the server SV1 via the network connection terminal TN1.
  • the server SV 1 is configured as shown in FIG. 66, and functions as an attention level detection device that generates group determination information for grouping each conference participant participating in the same topic during the conference.
  • the server SVI includes a network connection terminal 11 described above and an information transmitting / receiving unit 10! And a group determination information generation unit JB.
  • the information transmitting / receiving unit 10 includes a camera of a monitor device MD arranged at the front of each conference participant HM transmitted from each of the remote conference devices TCD1 to TCD ⁇ via the communication network NT. It receives the image data switch switch information supplied from the server and supplies these image data and switch switch information to the group determination information generation unit JB. Also, the information transmitting / receiving unit 10 transmits the group determination information generated by the group determination information generation unit JB to the network connection terminal 11! And to the server SV2 via the communication network NT.
  • the group determination information generation unit JB generates the group determination information as described above.
  • the group determination information generation unit JB performs the image data supplied from the camera of the monitor device MDm disposed in front of the conference participant HM or the switch described above, for example. Based on the switch press information from the SW, the degree of attention of each conference participant HM Then, the above-described group determination information is generated based on the detection result. At this time, the group determination information generation unit JB performs the above-described direction detection processing.
  • the group determination information generation section JB supplies the generated group determination information to the information transmission / reception section 10i.
  • the server SV2 is configured as shown in FIG. 67, performs grouping based on the group determination information transmitted from each of the remote conference devices TCD1 to TCD ⁇ , and each conference participant ⁇ It functions as a grooving device that generates group information indicating which group it belongs to.
  • the server SV2 includes a network connection terminal 1 1 2 described above, with and an information transmitting and receiving unit 10 2, and a group judgment unit GJD.
  • Information transmitting and receiving unit 10 2 via the communication network NT receives each group determination information transmitted from the server SV 1, supplies each of these groups determination information to the group determining unit GJD.
  • the information transmitting and receiving unit 10 2 transmits the group information generated by the group determination unit GJD via the communication network NT to the remote conference apparatus T CD 1 ⁇ T CD ⁇ .
  • the group determination unit GJD performs a group determination based on each group determination information, and a group indicating which group each conference participant HM belongs to based on the group determination result. Generate information.
  • the group determination unit GJD holds the target table shown in FIG. 6 and the group table shown in FIG. The initialization process at the start of communication shown in FIG. Further, upon receiving the group determination information from the server SVI, the group determination unit GJD performs the processing when the group determination information shown in FIG. 9 is generated. Group determining unit GJD from the generated communication network NT to through the information transmitting and receiving unit 10 2 and the network connection terminal 1 12 Group information is transmitted to each remote conference apparatus T CD 1 ⁇ TCD n.
  • the attention level of the conference participant HM is detected by the group determination information generation unit JB in the server SV1, and based on the detection result, each conference participant HM talks in any group.
  • Group information that is used to determine whether a participant participates in the subject and is further divided by the group determination unit GJD in the server SV 2 based on the group determination information.
  • the teleconferencing system uses the information processing unit PB in all the teleconferencing devices TCD to transmit the corresponding image data and / or audio data to each teleconferencing device TCD based on the group information. Perform desired adjustment processing.
  • the functions of the attention level detection device and the grooving device can be realized by the two servers SV1 and SV2.
  • the teleconferencing system can simplify the configuration by reducing the processing load of the individual teleconferencing device TCD and simplify the configuration by reducing the processing load of the servers SV1 and SV2. It can be assumed.
  • TCD processing load of the individual teleconferencing device
  • each remote conference device TCD in the remote conference system can be realized by a device such as a personal computer shown in FIG. 50, for example.
  • Each of the teleconference devices TCD may have the configuration shown in FIGS. 51 to 54.
  • This teleconferencing system has the same basic configuration as the teleconference system shown as the first embodiment shown in FIG. 2 in that the server SV is provided as described above. And the functions of the processing equipment are realized in one server SV, and the teleconferencing device TCD does not have the functions of the attention detection device, the grouping device and the processing device. Therefore, components corresponding to those of the remote conference system shown as the first embodiment are denoted by the same reference numerals, and detailed description is omitted.
  • each teleconferencing device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to the communication network NT.
  • the image data and voice data of the other conference participants HM transmitted from the other teleconferencing device TCD can be received and presented.
  • Each teleconference device TCD in the teleconference system has a configuration as shown in FIG.
  • the remote conference device T CD 1 will be described.
  • the teleconference device TCD1 includes at least the signal processing device SPD1 and the monitor devices MD2 to MDn.
  • the signal processing device SPD1 in the teleconferencing device TCD1 has a network connection terminal TN1, an information transmission / reception unit TRB1, output terminals TO2 to T0n, input terminals TI2 to TI ⁇ , and an input terminal.
  • Terminal TS is provided. That is, the signal processing device SPD1 in the teleconferencing device TCD1 does not include the above-described group determination information generation unit JB1, information processing unit PB1, and group determination unit GJD1.
  • Each of the monitor devices MD2 to MDn has the same configuration as that shown in FIGS.
  • Image data captured from a camera provided in at least one of the monitor devices MD2 to MDn, and audio data captured from a microphone provided in at least one of the monitor devices MD2. Is transmitted to the remote conference devices TCD2 to TCDn via the signal processing device SPD1 and the communication network NT as described above.
  • the display devices of the respective monitor devices MD2 to MDn display images based on the image data transmitted from the corresponding remote conference devices TCD2 to TCDn, respectively. From the beeker, audio is output based on the audio data transmitted from the corresponding teleconferencing devices TCD2 to TCDn.
  • the receiving unit TRB 1 transmits the image data supplied from the camera of the monitor device MDm arranged in front of the conference participant HM 1 and the switch press information from the switch SW described above to the network connection terminal TN. From the communication network NT via 1 to the server SV.
  • the server SV is configured as shown in Fig. 69 and functions as an attention level detection device that generates group determination information for grouping each conference participant who is participating in the same topic during the conference. I do. Also, the server SV performs grouping based on the group determination information transmitted from each of the remote conference devices TCD1 to TCDn, and indicates to which group each conference participant HM belongs. It functions as a grouping device that generates group information. Further, the server SV functions as a processing device that processes information on image data and / or audio data corresponding to each of the remote conference devices TCD1 to TCD ⁇ based on the generated group information.
  • the server SV includes the above-described network connection terminal 11 and the information transmission / reception unit 10, and includes a group determination information generation unit J #, a group determination unit GJD, and an information processing unit PB. Have.
  • the information transmission / reception unit 10 is connected to each conference participant HM transmitted from each of the remote conference devices TCD1 to TCD ⁇ via the communication network NT, for example, from a camera of a monitor device MD arranged at the front.
  • the supplied image data switch switch information is received, and the image data and the switch press information are supplied to the group determination information generation unit JB.
  • the information transmitting / receiving unit 10 receives a signal transmitted through the communication network NT
  • the information transmitting / receiving unit 10 receives the signal from each of the teleconference devices TCD 1 to TCD 1 to
  • the image data and audio data corresponding to TCD n are separated, and the separated image data and audio data are supplied to the information processing unit PB.
  • the information transmitting / receiving unit 10 transmits each image data and each audio data adjusted by the information processing unit PB to each of the teleconference devices TCD1 to TCDn via the communication network NT. I do.
  • the group determination information generation unit JB generates the group determination information as described above.
  • the group determination information generation unit jB includes image data supplied from the camera of the monitor device MDm arranged in front of the conference participant HM, and the above-described switch SW. Based on the switch press information from the server, the degree of attention of each conference participant HM is detected, and the above-described group determination information is generated based on the detection result. At this time, the group determination information generation unit JB performs the above-described direction detection processing.
  • the group determination information generated by the group determination information generation unit JB is supplied to the group determination unit GJD.
  • the group determination unit GJD performs a group determination based on each group determination information, and a group indicating which group each conference participant HM belongs to based on the group determination result. Generate information.
  • the group determination unit GJD holds the target table shown in FIG. 6 and the group table shown in FIG.
  • the initialization processing at the start of communication shown in Fig. 8 is performed.
  • the group judgment unit GJD receives the group judgment information from the group judgment information generation unit JB. Then, the processing at the time of generation of the group determination information shown in FIG. 9 is performed.
  • the group determination unit GJD supplies the generated group information to the information processing unit PB.
  • the information processing unit PB performs information processing on the image data and / or audio data corresponding to each of the teleconference devices TCD1 to TCD ⁇ based on the group information supplied from the group determination unit GJD.
  • the parameters used for performing the calculation are calculated, and based on the parameters obtained by this calculation, the image data and / or corresponding to each of the teleconferencing devices TCD1 to TCDn are separated.
  • the desired adjustment processing is performed on the audio data, and each image data and each audio data after the adjustment processing are transmitted from the communication network NT via the information transmitting / receiving unit 10 and the network connection terminal 11 to each remote conference. It transmits to each of the monitor devices MD1 to MDn provided corresponding to the devices TCDl to TCDn.
  • the attention level of the conference participant HM is detected by the group determination information generation unit JB in the server SV, and based on the detection result, each conference participant HM determines which group Generates group judgment information used to judge whether a participant is participating in a topic.Furthermore, the group judgment unit GJD in the server SV performs grouping based on the group judgment information, and participates in each conference. HM generates group information indicating which group the HM belongs to, and furthermore, the information processing unit PB in the server SV generates an image corresponding to each teleconference device TCD based on the group information. A desired adjustment process is performed on the data and / or audio data.
  • the remote control shown as the eighth embodiment to which the present invention is applied the functions of the attention level detection device, the grouping device, and the processing device can be realized by one server SV. Therefore, the teleconferencing system can reduce the processing load of each teleconferencing device TCD, and can simplify the configuration. Of course, in a teleconferencing system, it is possible to make the remarks of each conference participant participating in the same topic particularly easy to hear and to see.
  • each remote conference device TCD in the remote conference system can be realized by a device such as a personal computer shown in FIG. 50, for example.
  • Each of the remote conference devices TCD may have the configuration shown in FIGS. 51 to 54.
  • This teleconferencing system is similar to the teleconferencing system whose basic configuration is shown as the eighth embodiment in that the teleconferencing device TCD does not have the functions of the attention detection device, the grooving device and the processing device.
  • the functions of the attention level detection device, the grouping device, and the processing device are realized by the two servers SV 1 and SV 2 respectively. Therefore, components corresponding to those of the remote conference system shown as the eighth embodiment are denoted by the same reference numerals, and detailed description is omitted.
  • each teleconferencing device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to a communication network. While transmitting to other teleconferencing device TCD via work NT, it can also receive and present image data and audio data of other conference participants HM transmitted from other teleconferencing device TCD. .
  • Each teleconferencing device TCD in this teleconferencing system has a configuration as shown in FIG. That is, each teleconference device TCD receives the image data supplied from the camera of the monitor device MD disposed, for example, in front of the conference participant HM and the switch press information from the switch SW described above. Sends to server SV1 from communication network NT via network connection terminal TN1.
  • the server SV1 is configured as shown in FIG. 70, and functions as an attention level detection device that generates group determination information for grouping conference participants who are participating in the same topic during the conference. Further, the server SV1 performs grouping based on the group determination information transmitted from each of the remote conference devices TCDl to TCDn, and a group indicating which group each conference participant HM belongs to. It functions as a grouping device that generates information.
  • the server SV 1 is connected to the network connection terminal 11! And an information transmission / reception unit 10, and also includes a group determination information generation unit JB and a group determination unit GJD.
  • the information transmission / reception unit 1 receives, for example, from a camera of a monitor device MD disposed at the front of each conference participant HM transmitted from each of the remote conference devices TCD1 to TCD ⁇ via the communication network NT.
  • the supplied image data switch switch information is received, and the image data and switch press information are supplied to the group determination information generation unit JB.
  • Ma The information transmitting / receiving unit 10 i transmits the group information generated by the group determination unit GJD to the network connection terminal 11! And to the server SV2 via the communication network NT.
  • the group determination information generation unit JB generates the group determination information as described above.
  • the group determination information generation unit JB receives the image data supplied from the camera of the monitor device MDm arranged in front of the conference participant HM or the switch SW described above.
  • the degree of interest of each conference participant HM is detected on the basis of the switch press information, and the above-described group determination information is generated based on the detection result.
  • the group determination information generation unit JB performs the above-described direction detection processing.
  • the group determination information generation unit jB supplies the generated group determination information to the group determination unit GJD.
  • the group determination unit GJD performs a group determination based on each group determination information, and a group indicating which group each conference participant HM belongs to based on the group determination result. Generate information.
  • the group determination unit GJD holds the target table shown in FIG. 6 and the group table shown in FIG.
  • the initialization processing at the start of communication shown in Fig. 8 is performed. Further, upon receiving the group determination information from the group determination information generation unit JB, the group determination unit GJD performs the processing at the time of generation of the group determination information shown in FIG.
  • the group judgment unit GJD sends the generated group information to the information Network connection terminal 1 1! To the server SV2 from the communication network N via the Internet.
  • the server SV2 is configured as shown in FIG. 71, and based on the group information transmitted from the server SV1, the image data and / or corresponding to each of the teleconference devices TCD1 to TCD ⁇ are provided. Alternatively, it functions as a processing device that performs information processing on audio data.
  • the server SV 2 includes a network connection terminal 1 1 2 described above, with and an information transmitting and receiving unit 10 2, and a data processing unit [rho beta.
  • Information transmitting and receiving unit 10 2 via the communication network NT, and receives the group information transmitted from the server SV 1, and supplies the group information to the information processing unit PB.
  • the information transmitting and receiving unit 10 2 the communication Netw When network NT receiving a signal transmitted through it which corresponding image data and audio to each remote conference apparatus T CD 1 ⁇ T CD ⁇ from the signal The data is separated, and the separated image data and sound data are supplied to the information processing unit. Further, the information transmitting / receiving unit 102 transmits each image data and each audio data adjusted by the information processing unit 2 to each of the teleconference devices TCD1 to TCDn via the communication network NT.
  • Information processing unit PB based on the group information supplied from the information transceiver unit 10 2 performs information processing with respect to each remote conference apparatus T CD 1 to T CDn corresponding image data and / or audio data
  • the parameters used in the calculation are calculated, and based on the parameters obtained by this calculation, the image data and / or images corresponding to the respective teleconferencing devices TCD1 to TCDn are separated.
  • the attention level of the conference participant HM is detected by the group determination information generation unit JB in the server SV1, and based on the detection result, each conference participant HM talks in any group.
  • Group judgment information used to judge whether or not they participate in the subject, and the group judgment unit GJD in the server SV 1 performs grouping based on the group judgment information, and each conference participant HM It generates group information indicating which group it belongs to.
  • the teleconferencing system uses the information adding unit PB in the server SV2 to perform a desired adjustment process on the corresponding video data and / or audio data for each teleconferencing device TCD based on the group information based on the group information. Apply.
  • the functions of the attention level detection device, the grouping device, and the processing device are respectively performed by the two servers SV 1 and SV 2. It can be realized. Therefore, the teleconferencing system can simplify the configuration by reducing the processing load of the individual teleconferencing device TCD and simplify the configuration by reducing the processing load of the servers SV1 and SV2. It can be. Of course, in a teleconferencing system, it is possible to make the remarks of each conference participant participating in the same topic particularly easy to hear and to see.
  • the signal processing device SPD of each teleconferencing device TCD and the servers SV1 and SV2 in the teleconferencing system can be realized by a device such as a personal computer shown in FIG. 50, for example.
  • Each of the teleconferencing devices TCD may have the configuration shown in FIGS. 51 to 54.
  • This teleconferencing system is similar to the teleconferencing system whose basic configuration is shown as the eighth embodiment in that the teleconferencing device TCD does not have the functions of the attention detection device, the grouping device, and the processing device.
  • the functions of the attention level detection device, and the grouping device and the processing device are realized by two servers SV 1 and SV 2 respectively. Therefore, components corresponding to those of the remote conference system shown as the eighth embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.
  • each teleconferencing device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to the communication network NT.
  • the image data and the voice data of the other conference participants HM transmitted from the other teleconferencing device TCD can be received and presented while transmitting to the other teleconferencing device TCD via the other teleconferencing device TCD.
  • Each teleconferencing device TCD in this teleconferencing system has a configuration as shown in FIG. That is, each of the remote conference devices TCD is provided with the image data supplied from the camera of the monitor device MD arranged, for example, in front of the conference participant HM, or the above-described image data.
  • the switch depression information from the switch SW is transmitted from the communication network NT to the server SV1 via the network connection terminal TN1.
  • the server SV1 is configured as shown in FIG. 72, and functions as an attention level detection device that generates group determination information for grouping conference participants who are participating in the same topic during the conference.
  • the server SVI includes the above-described network connection terminal 11, a message transmission / reception unit 10, and also includes a group determination information generation unit JB.
  • the information transmitting and receiving unit 10 is, for example, a camera of a monitor device MD disposed at the front of each conference participant HM transmitted from each of the remote conference devices TCD1 to TCDn via the communication network NT. It receives the image data switch switch information supplied from the server and supplies the image data and switch switch information to the group determination information generation unit JB. Further, the information transmitting / receiving unit 10 transmits the group determination information generated by the group determination information generation unit JB to the server SV 2 via the network connection terminal 11 and the communication network NT.
  • the group determination information generation unit JB generates the group determination information as described above.
  • the group determination information generation unit JB receives the image data supplied from the camera of the monitor device MDm disposed in front of the conference participant HM or the switch SW described above.
  • the degree of interest of each conference participant HM is detected on the basis of the switch press information, and the above-described group determination information is generated based on the detection result.
  • the group determination information generation unit JB Perform direction detection processing.
  • the group determination information generation unit JB supplies the generated group determination information to the information transmission / reception unit 10.
  • the server SV2 is configured as shown in FIG. 73, and performs grouping based on the group determination information transmitted from the server SV1, to which group each conference participant HM belongs. It functions as a grouping device that generates group information representing. Further, the server SV2 performs information processing on the image data and / or audio data corresponding to each of the remote conference devices T CD1 to T CDn based on the group information supplied from the group determination unit GJD. Performs as a processing device.
  • the server SV 2 is provided with a network connection terminal 1 1 2 described above, with and an information transmitting and receiving unit 10 2, and the group determining unit GJD, and an information processing unit PB.
  • Information transmitting and receiving unit 10 2 via the communication network NT receives each group determination information transmitted from the server SV 1, supplies each of these groups determination information to the group determining unit GJD.
  • the information transmitting and receiving unit 10 2 receives the signal transmitted via the communication network NT, image data and audio de one it to it corresponding to the remote conference apparatus T CD 1 ⁇ TC D n from the signal Evening is separated, and the separated image data and audio data are supplied to the information processing unit PB. Furthermore, the information transmitting and receiving unit 10 2, the respective image data each audio data adjusted processed by the information processing unit PB via the communication network NT to the remote conference apparatus T CD 1 ⁇ T CD n.
  • the group judgment unit GJD In addition to performing group determination based on the information, group information indicating which group each conference participant HM belongs to is generated based on the group determination result.
  • the group judgment unit GJD holds the target table shown in FIG. 6 and the group table shown in FIG. 7, and as shown in FIG. 8 as a stage before receiving the group judgment information from the server SV1. Perform the initialization processing at the start of the indicated communication. Further, upon receiving the group determination information from the server SVI, the group determination unit G JD performs the processing at the time of generation of the group determination information shown in FIG. The group determination unit GJD supplies the generated group information to the information processing unit PB.
  • the information processing unit PB performs information processing on the image data and / or audio data corresponding to each of the teleconferencing devices TCD1 to TCD ⁇ based on the group information supplied from the group determination unit GJD.
  • the parameters used when performing the calculation are calculated, and based on the parameters obtained by this calculation, the image data separated and corresponding to each of the teleconferencing devices TCD1 to TCDn are calculated.
  • the transmission is performed to each of the monitoring devices MD1 to MDn provided corresponding to each of the remote conference devices TCD1 to TCDn.
  • the attention level of the conference participant HM is detected by the group determination information generation unit JB in the server SV1, and based on the detection result, each conference participant HM talks in any group.
  • group determination used to determine if you are participating in a title Generate information.
  • the group determination unit GJD in the server SV 2 performs grouping based on the group determination information, and obtains group information indicating which group each conference participant HM belongs to.
  • the information processing unit PB in the server SV2 performs a desired adjustment process on the image data and / or the audio data corresponding to each teleconference device TCD based on the group information.
  • the functions of the attention level detection device, and the grooving device and the processing device are respectively stored in the two servers SV 1 and SV 2.
  • the teleconferencing system can simplify the configuration by reducing the processing load of each teleconferencing device TCD and simplify the configuration by reducing the processing load of the servers SV1 and SV2. It can be.
  • each remote conference device TCD in the remote conference system can be realized by a device such as a personal computer shown in FIG. 50, for example.
  • Each of the teleconference devices TCD may have the configuration shown in FIGS. 51 to 54.
  • This teleconferencing system has a basic structure in that the teleconference device TCD does not have the functions of an attention detection device, a grooving device, and a processing device.
  • the configuration is the same as that of the teleconference system shown in the eighth embodiment. However, as shown in the schematic configuration of FIG. SV1, SV2 This is realized in SV3. Therefore, components corresponding to those of the remote conference system shown as the eighth embodiment are denoted by the same reference numerals, and detailed description is omitted.
  • each teleconference device TCD captures the image data and audio data of the corresponding conference participant HM, and transmits the image data and audio data of the conference participant HM to the communication network. In addition to transmitting to other teleconferencing devices TCD via NT, it can also receive and present image data and audio data of other conference participants HM transmitted from other teleconferencing devices TCD.
  • Each teleconferencing device TCD in this teleconferencing system has a configuration as shown in FIG. That is, each of the remote conference devices TCD receives the image data supplied from the camera of the monitor device MD disposed, for example, in front of the conference participant HM, or presses the switch from the switch SW described above. Information is transmitted from the communication network NT to the server SV1 via the network connection terminal T1.
  • the server SV 1 is configured as shown in Fig. 75 and functions as an attention level detection device that generates group determination information for grouping each conference participant who is participating in the same topic during the conference. .
  • the server SVI includes the above-described network connection terminal 11i, an information transmitting / receiving unit 10, and a group determination information generating unit JB.
  • the information transmitting and receiving unit 10 is, for example, a camera of a monitor device MD disposed at the front of each conference participant HM transmitted from each of the remote conference devices TCD1 to TCDn via the communication network NT.
  • the switch receives the image data switch pressing information supplied from the server and supplies the image data and the switch pressing information to the group determination information generating unit JB.
  • the information transmitting / receiving unit 10t transmits the group determination information generated by the group determination information generation unit JB to the server SV2 via the network connection terminal 11i and the communication network NT.
  • the group determination information generation unit JB generates the group determination information as described above.
  • the group determination information generation unit JB may perform the image data supplied from the camera of the monitor device The degree of attention of each conference participant HM is detected based on the switch press information from the switch SW, and the above-described group determination information is generated based on the detection result. At this time, the group determination information generation unit JB performs the above-described direction detection processing.
  • the group determination information generation unit jB supplies the generated group determination information to the information transmission / reception unit 10.
  • the server SV2 is configured as shown in Fig. 76 and performs grouping based on the group determination information transmitted from the server SVI, and indicates to which group each conference participant HM belongs. It functions as a grooving device that generates group information.
  • the server SV2 together includes a network connection terminal 1 1 2 described above, the information transmitting and receiving unit 10 2, Group Judgment unit Equipped with GJD.
  • Information transmitting and receiving unit 10 2 via the communication network NT receives each group determination information transmitted from the server SV 1, supplies each of these groups determination information to the group determining unit GJD.
  • the information transmitting and receiving unit 10 2 transmits the group information generated by the group determination unit GJD the server SV 3 via the network connection terminal 1 1 2 and the communication network NT.
  • the group determination unit GJD performs a group determination based on each group determination information, and a group indicating which group each conference participant HM belongs to based on the group determination result. Generate information.
  • the group judgment unit GJD holds the target table shown in FIG. 6 and the group table shown in FIG. 7, and as shown in FIG. 8 as a stage before receiving the group judgment information from the server SV1. Perform the initialization processing at the start of the indicated communication. Further, upon receiving the group determination information from the server SVI, the group determination unit GJD performs the processing when the group determination information shown in FIG. 9 is generated. Group determining unit GJD supplies the generated Group information to the information transmitting and receiving unit 10 2.
  • the server SV3 is configured as shown in FIG. 77, and, based on the group information transmitted from the server SV2, each of the teleconference devices TCD1 to TCD ⁇ has its corresponding image data and / or audio data. It functions as a processing device that performs information processing on.
  • the server SV3 includes a network connection terminal 1 1 2 described above, with and an information transmitting and receiving unit 10 2, and a data processing unit Robeta.
  • the information transmitting / receiving unit 103 receives the group information transmitted from the server SV2 via the communication network NT, and supplies the group information to the information processing unit PB.
  • the information transmitting and receiving section 103 includes a communication Netw When network NT receiving a signal transmitted through it which corresponding image data and audio to each remote conference apparatus T CD 1 ⁇ T CD ⁇ from the signal The data is separated, and the separated image data and sound data are supplied to the information processing unit. Furthermore, the information transmitting and receiving unit 10 3, each image data each audio data adjusted processed by the information processing unit ⁇ via the communication network NT to the remote conference apparatus TCD 1 ⁇ TCD ⁇ .
  • Information processing unit ⁇ based on the group information supplied from the information receiving unit 103, the information processing with respect to each remote conference apparatus T CD 1 ⁇ T CD ⁇ thereto which corresponding image data and / or audio data
  • the parameters to be used when performing the calculation are calculated, and based on the parameters obtained by the calculation, the image data and the image data separated corresponding to each of the teleconferencing devices TCD1 to TCDn are calculated.
  • each image data each audio data evening after the adjustment process from the communication network NT via the information transmitting and receiving unit 103 and the network connection terminal 1 13 This is transmitted to each of the monitor devices MD1 to MDn provided corresponding to each of the remote conference devices TCD1 to TCDn.
  • the attention level of the conference participant HM is detected by the group determination information generation unit JB in the server SV1, and based on the detection result, each conference participant HM talks in any group.
  • group determination used to determine if you are participating in a title Generate information.
  • the remote conference system uses the group determination unit GJD in the server SV2 to perform grouping based on the information for group determination, and generates group information indicating which group each conference participant HM belongs to. I do.
  • the teleconferencing system performs the desired adjustment processing on the image data and the audio or audio data corresponding to each teleconference device TCD based on the group information by the information processing unit PB in the server SV3. .
  • the functions of the attention level detection device, the grouping device, and the processing device are respectively included in three servers SV1, SV2, and SV3.
  • the teleconferencing system can greatly reduce the processing load of each teleconference device TCD, simplify the configuration, and also reduce the processing load of the servers SVI, SV2, and SV3.
  • the configuration can be simplified.
  • each teleconferencing device TCD and the servers SV1, SV2, SV3 in the teleconferencing system can be realized by a device such as a personal computer shown in FIG. 50, for example.
  • Each of the teleconference devices TCD may have the configuration shown in FIGS.
  • the teleconferencing system provides each conference participant Information and comfort.
  • each monitor device MD and the signal processing device SPD are described as having different configurations.
  • each or one of the monitor devices MD may have the function of the signal processing device SPD.
  • one group can belong to one conference participant at each time.
  • Multiple groups such as groups that do not want to get information but want to obtain information, allow each conference participant to belong to multiple groups, and determine which group each of the other conference participants belongs to. Examples of controlling / processing information such as sound, voice, and images are also conceivable.
  • the illuminator depends on which group each of the other conference participants belongs to. May be controlled.
  • the group judgment result prior to the meeting, register multiple agenda items to be discussed and necessary participants for each agenda item.
  • the agenda that can be discussed within each group is presented in the form of an image or voice based on the results of group determination for each conversation.
  • the required participants are not in the group People and the agenda itself can be presented in images and sounds.
  • the remote conference device TCD is used for recreational use.
  • each conference participant registers his / her area of interest prior to the conference, and according to the participants in each group during the conference. One might look at areas of concentration of interest and provide topics about areas of high concentration.
  • this usage method is applied, for example, for a group that includes many participants who have registered that they like baseball, the results of baseball games played at a point near the meeting are presented. be able to.
  • the communication system is a communication system which obtains interest level prediction information for detecting the interest level of communication data communicated from that of another communication apparatus. At least a communication data output unit that outputs communication data processed based on the group information to a corresponding presentation device.
  • An attention level detection device having three communication devices, an attention level detection unit that detects the attention level based on the attention level prediction information, and an attention level output unit that outputs the attention level, based on the attention level,
  • a grouping device having grouping means for grouping communication data, and group information output means for outputting group information indicating a result of the grouping, and a communication data transmitted from another communication device for each of the communication devices.
  • There is provided a processing apparatus having processing means for processing based on group information, and processing data output means for outputting communication data processed by the processing means.
  • the communication system when performing communication between at least three communication devices, groves communication data transmitted by a plurality of communication devices according to the degree of interest in communication data transmitted by each communication device. Then, by processing the communication data from other communication devices according to the grouping of the communication data transmitted by the plurality of communication devices, for example, in a teleconferencing system, It makes it especially easy to hear and see what participants say.
  • the communication system includes: attention degree prediction information acquisition means for acquiring attention degree prediction information for detecting a degree of attention to communication data communicated from each of the other communication apparatuses; At least three communication devices having communication data output means for outputting communication data processed based on the information to corresponding presentation devices, and attention level detection for detecting an attention level based on attention level prediction information And an attention level detection device having an attention level output means for outputting an attention level, and a grouping means for grouping communication data based on the attention level A grouping device having group information output means for outputting group information indicating a result of the grooving, and processing of communication data transmitted from another communication device in response to that of the communication device based on the group information A processing device having processing means and processing data output means for outputting communication data processed by the processing means;
  • the communication system when performing communication between at least three communication devices, groves communication data transmitted by a plurality of communication devices according to the degree of interest in communication data transmitted by each communication device. Then, by processing communication data from other communication devices in accordance with the grouping of communication data transmitted by the plurality of communication devices, for example, in a remote conference system, each conference participating in the same topic This makes it especially easy to hear and see what people say.
  • a grouping device is used in a communication system including at least three communication devices, and a grouping device for grouping communication data communicated from another communication device with that of the communication device.
  • a grouping means for performing grouping of communication data based on a degree of attention of a user corresponding to that of the communication apparatus during a communication from another communication apparatus, and a grouping by the grouping means.
  • group information output means for outputting group information indicating the result of the above.
  • the grouping device is applied to a case where communication is performed between at least three communication devices, so that a plurality of communication devices can be connected according to the degree of attention to the communication data transmitted by each communication device.
  • Communication data to be transmitted is grouped, and communication data from other communication devices can be processed according to the grouping of communication data transmitted by the plurality of communication devices. The remarks of each participating participant can be particularly easily heard and seen.
  • the grouping method according to the present invention is used in a communication system including at least three communication devices, and a grouping method for grouping communication data transmitted from another communication device to each of the communication devices.
  • a grouping step of grouping communication data based on the degree of attention of a user corresponding to that of the communication device and that of communication data from other communication devices, and a result of the grouping performed by the grouping step.
  • the grouping method according to the present invention is applied to the case where communication is performed between at least three communication devices, so that a plurality of communication devices transmit according to the degree of interest in communication data transmitted by each communication device. It is possible to group communication data and to process communication data from other communication devices in accordance with the grouping of communication data transmitted by the plurality of communication devices. However, it is possible to make the remarks of each conference participant participating in the same topic particularly easy to hear and to see.
  • a recording medium on which the grouping program according to the present invention is recorded is used in a communication system including at least three communication devices, and stores a communication data transmitted from each of the communication devices by another communication device.
  • Grouping blog with controllable combination In the recording medium on which the program is recorded, the grouping program performs a grouping process of grouping communication data based on a degree of attention of a user corresponding to that of the communication device with respect to communication data from another communication device. And a group information output step of outputting group information indicating a result of the grooving in the grooving step.
  • the recording medium on which the grouping program according to the present invention is recorded is applied to a case where communication is performed between at least three communication devices, and thus a plurality of recording media are provided in accordance with the degree of attention to communication data transmitted by each communication device. It is possible to group communication data transmitted by one communication device and to process communication data from other communication devices according to the grouping of communication data transmitted by the plurality of communication devices, for example. In a teleconferencing system, it is possible to make the remarks of each conference participant participating in the same topic particularly easy to hear and to see.
  • an information processing device is an information processing device in a communication system having an information processing device and at least three communication devices, wherein the communication device receives communication data from each of the communication devices, Receiving means for receiving the attention level of the communication data transmitted from another communication device other than the communication device itself, and a grouping of the communication data based on the attention level. Grouping means for performing, and processing means for processing communication data transmitted from another communication apparatus other than the communication apparatus itself for each of the communication apparatuses based on a group to which each of the communication apparatuses belongs. The communication data processed by the processing means is transmitted to the communication device by the processing data output means. Obtain.
  • the information processing apparatus when performing communication between at least three communication apparatuses, groups communication data transmitted by a plurality of communication apparatuses according to the degree of interest in communication data transmitted by each communication apparatus.
  • the communication data transmitted from the plurality of communication devices and can process the communication data from other communication devices in accordance with the grouping of the communication data transmitted by the plurality of communication devices. Yes The speech of each conference participant can be particularly easily heard and seen.
  • the receiving unit may receive, instead of the attention level, the user's reaction information transmitted from the communication apparatus, and the user's reaction information corresponding to the user's reaction information
  • the information processing apparatus further includes an interest level detection unit that detects an interest level of the communication data based on the reaction information of the user.
  • this information processing apparatus can detect the degree of attention to the communication data transmitted by each communication apparatus when performing communication between at least three communication apparatuses.
  • Communication data transmitted by one communication device is grouped, and communication data from another communication device can be processed according to the grouping of communication data transmitted by the plurality of communication devices.
  • the remarks of each conference participant participating in the same topic can be particularly easily heard and seen.
  • the information processing method according to the present invention is an information processing method in a communication system having an information processing device and at least three communication devices, wherein the communication device receives communication data from each of the communication devices, The attention level sent from it, Receiving a degree of interest in communication data transmitted from another communication device other than the communication apparatus itself, a grouping step of grouping communication data based on the degree of interest, and A processing step of processing communication data transmitted from another communication apparatus other than the communication apparatus itself, based on a group to which the communication apparatus belongs, and processing in this processing step And a processed data output step of transmitting the communication data obtained by the communication device to the communication device.
  • the information processing method according to the present invention provides a communication data communication method for performing communication between at least three communication devices.
  • the communication data transmitted by the plurality of communication devices is grooved in accordance with the degree of attention to the communication data transmitted by the devices, and the communication data transmitted by the plurality of communication devices is transmitted. Enables processing of communication data from other communication devices according to the rubbing.For example, in a teleconferencing system, the speech of each conference participant participating in the same topic is made particularly easy to hear and see. Is possible.
  • the processing method in the receiving step, instead of the attention level, the response information of the user transmitted from the communication device is received, and the response information of the user corresponding to that of the communication device is received.
  • the processing method further includes an interest level detection step of detecting an interest level of each of the communication data based on the reaction information of the user.
  • this information processing method makes it possible to detect the degree of attention with respect to the communication data transmitted by each communication apparatus when communicating between at least three communication apparatuses, and furthermore, according to this degree of attention.
  • a group of communication data transmitted by a plurality of communication devices is grouped, and other communication devices are grouped according to the grouping of communication data transmitted by the plurality of communication devices. It makes it possible to process communication data from devices, for example, in a teleconferencing system, to make it easier to hear and see the remarks of each conference participant who is participating in the same topic.
  • the recording medium on which the information processing program according to the present invention is recorded is a recording medium on which a computer-controllable information processing program is recorded in a communication system having an information processing device and at least three communication devices.
  • the information processing program receives the communication data from each of the communication devices and the degree of attention transmitted from each of the communication devices, and is transmitted from another communication device except the communication device itself.
  • the recording medium on which the information processing program according to the present invention when performing communication between at least three communication devices, a plurality of communication media according to the degree of interest in the communication data transmitted by each communication device. It is possible to group communication data transmitted by devices and to process communication data from other communication devices according to the grouping of communication data transmitted by the plurality of communication devices. In the system, it is possible to make the remarks of each conference participant participating in the same topic particularly easy to hear and see.
  • the recording medium on which the information processing program is recorded is In the process, instead of the degree of attention, the reaction information of the user transmitted from that of the communication device is received, and the reaction information of the user corresponding to that of the communication device is received.
  • the method further includes an attention level detection step of detecting an attention level for each of the communications based on the information.
  • the recording medium on which the information processing program is recorded can detect the degree of attention to the communication data transmitted by each communication device when performing communication between at least three communication devices.
  • communication data transmitted by a plurality of communication devices is grouped according to the degree of attention, and communication data from another communication device is grouped according to the communication data transmitted by the plurality of communication devices. Processing becomes possible, for example, in a teleconferencing system, it becomes possible to make the remarks of each conference participant participating in the same topic particularly easy to hear and to see.
  • the communication device is at least a data processing device.
  • receiving means for receiving communication data from another communication device and receiving group information indicating a group to which the communication data transmitted from the information processing device belongs,
  • Information acquisition means for acquiring user's reaction information to the communication data from the communication device, attention degree detection means for detecting the attention degree to the communication data based on the user's reaction information, and attention degree Means for outputting the degree of attention to the information processing device, processing means for processing the communication data based on the group information, and processing data output means for outputting the communication data processed by the processing means to the presentation device.
  • the communication device when performing communication between at least three communication devices, is a communication device that is transmitted by a plurality of communication devices according to the degree of interest in the communication data transmitted by each communication device. Data can be grouped, and communication data from other communication devices can be processed in accordance with the grouping of communication data transmitted by the plurality of communication devices. It is possible to make the remarks of each meeting participant in particular easier to hear and to see.
  • the communication method according to the present invention is a communication method in a communication system having an information processing device and at least three communication devices, wherein a first receiving step of receiving communication data from another communication device is provided.
  • communication data transmitted by a plurality of communication devices is transmitted according to the degree of interest in communication data transmitted by each communication device.
  • Grouping and processing of communication data from other communication devices in accordance with the grouping of communication data transmitted by the plurality of communication devices enables, for example, to participate in the same topic in a remote conference system. Yes, it is possible to make the remarks of each conference participant particularly easy to hear and see. Noh.
  • a recording medium on which a communication program according to the present invention is recorded is a recording medium on which a computer-controllable communication program is recorded in a communication system having an information processing device and at least three communication devices.
  • the recording medium on which the communication program according to the present invention is recorded when performing communication between at least three communication devices, a plurality of communication devices according to the degree of interest in the communication data transmitted by each communication device.
  • Communication data to be transmitted is grouped, and communication data from other communication devices can be processed according to the grouping of communication data transmitted by the plurality of communication devices. It is possible to make the remarks of each conference participant participating in the conference particularly easy to hear and see.
  • an information processing apparatus is an information processing apparatus in a communication system having an information processing apparatus and at least three communication apparatuses, wherein the communication apparatus transmits and receives communication data transmitted from each of the communication apparatuses.
  • the information processing apparatus when performing communication between at least three communication apparatuses, groups communication data transmitted by a plurality of communication apparatuses according to the degree of interest in communication data transmitted by each communication apparatus. Rubbing and processing of communication data from other communication devices according to the grouping of communication data transmitted by the plurality of communication devices.For example, in a teleconferencing system, they participate in the same topic. It is possible to make the remarks of each conference participant particularly easy to hear and understand.
  • the receiving means receives the communication data transmitted from each of the communication apparatuses instead of the degree of attention, and the information processing apparatus transmits the communication data to the user in response to each of the communication data.
  • the apparatus further includes attention level detection means for detecting the attention level.
  • this information processing apparatus can detect the degree of attention to the communication data transmitted by each communication apparatus when performing communication between at least three communication apparatuses.
  • the communication data transmitted by one communication device is grouped, and the communication data from other communication devices can be processed according to the grouping of the communication data transmitted by the plurality of communication devices. For example, in a teleconferencing system, the remarks of each conference participant participating in the same topic can be particularly easily heard and seen.
  • the information processing method is a An information processing method in a communication system having at least three communication devices, comprising: a receiving step of receiving attention of communication devices transmitted from each of the communication devices; and receiving communication data based on the attention.
  • the method includes a grouping step of performing grouping, and a group information output step of outputting group information indicating a result of the grouping in the grouping step.
  • the information processing method when performing communication between at least three communication devices, groups communication data transmitted by a plurality of communication devices according to the degree of interest in the communication data transmitted by each communication device.
  • the communication data from the other communication devices according to the grouping of the communication data transmitted by the plurality of communication devices. It is possible to make the remarks of each meeting participant particularly easy to hear and see.
  • the information processing method in the receiving step, instead of the attention level, communication data transmitted from each of the communication devices is received, and the information processing method determines a user's attention level for each of the communication data.
  • the method further includes an attention level detection step of detecting.
  • this information processing method makes it possible to detect the degree of attention with respect to the communication data transmitted by each communication apparatus when communicating between at least three communication apparatuses, and furthermore, according to this degree of attention.
  • grouping communication data transmitted by a plurality of communication devices it is possible to process communication data from other communication devices according to the grouping of communication data transmitted by the plurality of communication devices.
  • the statements of each conference participant participating in the same topic It is possible to make it easy to hear and see.
  • the recording medium on which the information processing program according to the present invention is recorded is a recording medium on which a computer-controllable information processing program is recorded in a communication system having an information processing device and at least three communication devices.
  • the information processing program includes: a receiving step of receiving a degree of interest in the communication device transmitted from the communication device; a grooving step of performing grouping of the communication data based on the degree of interest; A group information output step of outputting group information indicating a result of the grooving by the group information.
  • the recording medium on which the information processing program according to the present invention is recorded may have a plurality of recording media depending on the degree of attention to the communication data transmitted by each communication device when performing communication between at least three communication devices.
  • Communication data transmitted by one communication device is grouped, and communication data from other communication devices can be processed according to the grouping of communication data transmitted by the plurality of communication devices.
  • the receiving step instead of the degree of attention, communication data transmitted from each of the communication devices is received. Further comprises an attention level detection step for detecting the user's attention level for
  • the recording medium on which the information processing program is recorded can detect the degree of attention to the communication data transmitted by each communication device when performing communication between at least three communication devices.
  • communication data transmitted by a plurality of communication devices is grouped according to the degree of attention, and communication data from other communication devices is transmitted in response to a grouping of communication data transmitted by the plurality of communication devices. For example, in a teleconferencing system, it becomes possible to make the speech of each conference participant participating in the same topic particularly easy to hear and to see.
  • a communication device is a communication device in a communication system that performs communication between at least three communication devices, wherein a receiving unit that receives communication data from another communication device, and a communication device that receives communication data from another communication device.
  • Information acquisition means for acquiring user reaction information for each of the evenings; attention degree detection means for detecting the attention degree of each of the communication data based on the user reaction information; and communication data based on the attention degree.
  • a grouping means for performing a grouping of data overnight, a processing means for processing each of communication data based on a group to which each of the communication data belongs, and a device for presenting communication data processed by the processing means.
  • output means for outputting the processed data.
  • the communication device when performing communication between at least three communication devices, transmits communication data transmitted by a plurality of communication devices according to the degree of interest in the communication data transmitted by each communication device. Grouping can process communication data from other communication devices according to the grouping of communication data transmitted by the plurality of communication devices. This makes it especially easy to hear and see what participants say.
  • the communication method according to the present invention is a communication method in a communication system in which communication is performed between at least three communication devices. A receiving step of receiving communication data from the communication device, an information obtaining step of obtaining information on a user's response to each of the communication data from the communication device, and a communication data on the basis of the user's response information.
  • An attention level detection step for detecting the attention level; a grouping step for performing a grouping of communication data based on the attention level; and a communication data basis based on a group to which the communication data belongs. And a processing data output step of outputting the communication data processed in the processing step to a presentation device.
  • communication data transmitted by a plurality of communication devices is transmitted according to the degree of interest in communication data transmitted by each communication device.
  • Grooving enables processing of communication data from other communication devices in accordance with the grouping of communication data transmitted by the plurality of communication devices.Participation in the same topic, for example, in a teleconferencing system It makes it possible to make the remarks of each conference participant particularly easy to hear and understand.
  • the recording medium on which the communication program according to the present invention is recorded is a recording medium on which a computer-controllable communication program in a communication system for performing communication between at least three communication devices is recorded.
  • the recording medium on which the communication program according to the present invention is recorded can be used to communicate with at least three communication devices, depending on the degree of interest in communication data transmitted by each communication device. Grouping communication data transmitted by other communication devices, and processing communication data from other communication devices according to the grouping of communication data transmitted by the plurality of communication devices.For example, in a remote conference system, the same It is possible to make the remarks of each conference participant participating in the topic particularly easy to hear and easy to see.
  • a communication device is a communication device in a communication system having an information processing device and at least three communication devices, wherein the information acquisition means for acquiring user's reaction information for communication data from the communication device.
  • Communication means for receiving communication data from the information processing apparatus and group information indicating a group to which the communication data transmitted from the information processing apparatus belongs, and transmitting reaction information of the user to the information processing apparatus;
  • the information processing apparatus includes processing means for processing communication data based on the information, and processing data output means for outputting the communication data processed by the processing means to a presentation device.
  • the communication device when performing communication between at least three communication devices, is a communication device that is transmitted by a plurality of communication devices according to the degree of interest in the communication data transmitted by each communication device.
  • Data can be grouped, and communication data from other communication devices can be processed according to the communication data grouping transmitted by the plurality of communication devices.
  • the remarks of each conference participant participating in the same topic can be particularly easily heard and seen.
  • the communication method of the present invention in a communication method in a communication system having an information processing device and at least three communication devices, user response information to communication data from the communication device is acquired.
  • An information obtaining step a transmitting step of transmitting reaction information of the user to the information processing apparatus, and receiving communication data from the information processing apparatus and group information indicating a group to which the communication data transmitted from the information processing apparatus belongs. It includes a receiving step, a processing step of processing communication data based on the group information, and a processing data output step of outputting the communication data processed in this processing step to a presentation device.
  • communication data transmitted by a plurality of communication devices is transmitted according to the degree of interest in communication data transmitted by each communication device.
  • Grouping enables processing of communication data from other communication devices in accordance with the grouping of communication data transmitted by the plurality of communication devices. It makes it possible to make the remarks of each conference participant particularly easy to hear and understand.
  • a recording medium on which a communication program according to the present invention is recorded is a recording medium on which a computer-controllable communication program is recorded in a communication system having an information processing device and at least three communication devices.
  • An information acquisition step of acquiring response information of a user for each of communication data from the communication apparatus, a transmission step of transmitting reaction information of the user to the information processing apparatus, and an information processing apparatus A receiving step of receiving communication data from the communication device and group information indicating a group to which the communication data transmitted from the information processing device belongs; a processing step of processing the communication data based on the group information; A processing data output step of outputting communication data processed in the processing step to a presentation device.
  • the recording medium on which the communication program according to the present invention is recorded can be used to communicate with at least three communication devices, depending on the degree of interest in communication data transmitted by each communication device. It is possible to process communication data from other communication devices according to the grouping of communication data transmitted by a plurality of communication devices. In addition, it is possible to make the remarks of each conference participant participating in the same topic particularly easy to hear and to see.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

明細書 通信システム 技術分野 本発明は、 少なく とも 3つの通信装置間で通信を行う通信システ ムに関する。 背景技術 従来より、 遠隔会議システムにおいては、 遠く離れている複数の 会議室における画像及び音声をネッ トワークを介して相互に通信し- 各会議室において他の会議室の画像及び音声を提示することにより, あたかも 1つのテーブルを囲んでいるかのように会議を行うことが 可能となっている。
ところで、 従来の遠隔会議システムにおいては、 各会議室におけ る会議参加者が同時に発言できるようになされている。 このため、 従来の遠隔会議システムにおいては、 複数の会議参加者が同時に発 言している場合には、 聞き取りたい発言が他の発言に邪魔されて聞 き取り難くなる問題があった。
また、 従来の遠隔会議システムにおいては、 各会議室における画 像が全て同じ明るさ、 同じ画質となされている。 したがって、 従来 の遠隔会議システムにおいては、 例えば所望の会議室の画像をより 明るく して見たり、 より詳しく見るようなことは考えられなかった < さらに、 従来の遠隔会議システムにおいて、 例えば複数の話題が 存在しているような場合に、 例えばある 1つの話題に参加している 各会議参加者の発言を、 同じ話題に参加している他の各会議参加者 に対して特に聞き取り易く したり、 また見易くするようなことは考 えられなかった。 発明の開示 本発明は、 このような実情に鑑みてなされたものであり、 同じ話 題に参加している各会議参加者の発言を特に聞き取り易く、 また見 易くすることを可能とする、 通信システム、 グルービング装置、 グ ル一ピング方法及びグルービングプログラムが記録された記録媒体、 情報処理装置、 情報処理方法及び情報処理プログラムが記録された 記録媒体、 並びに、 通信装置、 通信方法及び通信プログラムが記録 された記録媒体を提供することを目的とするものである。
上述した目的を達成する本発明にかかる通信システムは、 他の通 信装置のそれぞれから通信される通信データに対する注目度を検出 するための注目度予測情報を取得する注目度予測情報取得手段と、 グル一プ情報に基づいて加工された通信デ一夕をそれそれ対応する 提示装置に出力する通信データ出力手段とを有する少なくとも 3つ の通信装置と、 注目度予測情報に基づいて、 注目度を検出する注目 度検出手段と、 注目度を出力する注目度出力手段とを有する注目度 検出装置と、 注目度に基づいて、 通信データのグルービングを行う グルーピング手段と、 グルーピングの結果を示すグループ情報を出 力するグループ情報出力手段とを有するグルーピング装置と、 通信 装置のそれそれに対して他の通信装置から送信される通信データを グループ情報に基づいて加工する加工手段と、 この加工手段によつ て加工された通信データを出力する加工データ出力手段とを有する 加工装置とを備えることにより、 上述した課題を解決する。
また、 上述した目的を達成する本発明にかかる通信システムは、 他の通信装置のそれそれから通信される通信デ一夕に対する注目度 を検出するための注目度予測情報を取得する注目度予測情報取得手 段と、 グループ情報に基づいて加工された通信データをそれそれ対 応する提示装置に出力する通信データ出力手段とを有する少なく と も 3つの通信装置と、 注目度予測情報に基づいて、 注目度を検出す る注目度検出手段と、 注目度を出力する注目度出力手段とを有する 注目度検出装置と、 注目度に基づいて、 通信デ一夕のグルーピング を行うグルーピング手段と、 グルーピングの結果を示すグループ情 報を出力するグループ情報出力手段とを有するグルービング装置と、 通信装置のそれそれに対して他の通信装置から送信された通信デー 夕をグループ情報に基づいて加工する加工手段と、 この加工手段に よって加工された通信データを出力する加工データ出力手段とを有 する加工装置とを備えることにより、 上述した課題を解決する。 さらに、 上述した目的を達成する本発明にかかるグルーピング装 置は、 少なく とも 3つの通信装置を含む通信システムで使用され、 通信装置のそれそれに対して他の通信装置から通信される通信デー 夕をグルーピングするグルービング装置において、 通信装置のそれ それに対応するユーザの、 他の通信装置からの通信データのそれそ れに対する注目度に基づいて、 通信データのグルーピングを行うグ ルービング手段と、 このグルービング手段によるグルーピングの結 果を示すグループ情報を出力するグループ情報出力手段とを備える ことにより、 上述した課題を解決する。
さらにまた、 上述した目的を達成する本発明にかかるグルーピン グ方法は、 少なく とも 3つの通信装置を含む通信システムで使用さ れ、 通信装置のそれそれに対して他の通信装置から通信される通信 データをグルーピングするグルーピング方法において、 通信装置の それそれに対応するユーザの、 他の通信装置からの通信デ一夕のそ れそれに対する注目度に基づいて、 通信デ一夕のグルーピングを行 うグルーピング工程と、 このグルービング工程によるグルーピング の結果を示すグループ情報を出力するグループ情報出力工程とを備 えることにより、 上述した課題を解決する。
また、 上述した目的を達成する本発明にかかるグルーピングプロ グラムが記録された記録媒体は、 少なく とも 3つの通信装置を含む 通信システムで使用され、 通信装置のそれそれに対して他の通信装 置から通信される通信デ一夕をグルービングするコンピュータ制御 可能なグル一ビングプログラムが記録された記録媒体において、 グ ルービングプログラムは、 通信装置のそれそれに対応するユーザの、 他の通信装置からの通信データのそれそれに対する注目度に基づい て、 通信データのグル一ビングを行うグルーピング工程と、 このグ ルービング工程によるグルーピングの結果を示すグループ情報を出 力するグループ情報出力工程とを備えることにより、 上述した課題 を解決する。
さらに、 上述した目的を達成する本発明にかかる情報処理装置は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システム における情報処理装置において、 通信装置のそれそれからの通信デ 一夕を受信するとともに、 通信装置のそれそれから送信された注目 度であり、 通信装置のそれそれ自身を除く他の通信装置から送信さ れる通信デ一夕に対する注目度を受信する受信手段と、 注目度に基 づいて、 通信データのグルービングを行うグルーピング手段と、 通 信データのそれそれが属するグループに基づいて、 通信装置のそれ それについて、 通信装置のそれそれ自身を除く他の通信装置から送 信された通信データを加工する加工手段と、 この加工手段によって 加工された通信データを、 通信装置のそれそれに送信する加工デー 夕出力手段とを備えることにより、 上述した課題を解決する。 また、 この情報処理装置は、 受信手段が、 注目度の代わりに、 通 信装置のそれそれから送信されたユーザの反応情報であり、 通信装 置のそれそれに対応するユーザの反応情報を受信し、 当該情報処理 装置は、 ユーザの反応情報に基づいて、 通信データのそれそれに対 する注目度を検出する注目度検出手段をさらに備えることにより、 上述した課題を解決する。
さらにまた、 上述した目的を達成する本発明にかかる情報処理方 法は、 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおける情報処理方法において、 通信装置のそれそれからの 通信データを受信するとともに、 通信装置のそれそれから送信され た注目度であり、 通信装置のそれそれ自身を除く他の通信装置から 送信される通信データに対する注目度を受信する受信工程と、 注目 度に基づいて、 通信データのグルービングを行うグルーピング工程 と、 通信デ一夕のそれそれが属するグループに基づいて、 通信装置 のそれそれについて、 通信装置のそれそれ自身を除く他の通信装置 から送信された通信データを加工する加工工程と、 この加工工程に て加工された通信データを、 通信装置のそれそれに送信する加工デ 一夕出力工程とを備えることにより、 上述した課題を解決する。 また、 この情報処理方法は、 受信工程では、 注目度の代わりに、 通信装置のそれそれから送信されたユーザの反応情報であり、 通信 装置のそれそれに対応するユーザの反応情報が受信され、 当該情報 処理方法は、 ユーザの反応情報に基づいて、 通信データのそれそれ に対する注目度を検出する注目度検出工程をさらに備えることによ り、 上述した課題を解決する。
また、 上述した目的を達成する本発明にかかる情報処理プログラ ムが記録された記録媒体は、 情報処理装置と少なく とも 3つの通信 装置とを有する通信システムにおけるコンピュータ制御可能な情報 処理プログラムが記録された記録媒体において、 情報処理プログラ ムは、 通信装置のそれそれからの通信デ一夕を受信するとともに、 通信装置のそれそれから送信された注目度であり、 通信装置のそれ それ自身を除く他の通信装置から送信される通信データに対する注 目度を受信する受信工程と、 注目度に基づいて、 通信データのグル 一ビングを行うグルーピング工程と、 通信データのそれそれが属す るグループに基づいて、 通信装置のそれぞれについて、 通信装置の それそれ自身を除く他の通信装置から送信された通信データを加工 する加工工程と、 この加工工程にて加工された通信データを、 通信 装置のそれそれに送信する加工データ出力工程とを備えることによ り、 上述した課題を解決する。
また、 この情報処理プログラムが記録された記録媒体は、 受信ェ 程では、 注目度の代わりに、 通信装置のそれそれから送信されたュ 一ザの反応情報であり、 通信装置のそれそれに対応するユーザの反 応情報が受信され、 情報処理プログラムは、 ユーザの反応情報に基 づいて、 通信データのそれそれに対する注目度を検出する注目度検 出工程をさらに備えることにより、 上述した課題を解決する。
さらに、 上述した目的を達成する本発明にかかる通信装置は、 情 報処理装置と少なく とも 3つの通信装置とを有する通信システムに おける通信装置において、 他の通信装置からの通信データを受信す るとともに、 情報処理装置から送信された通信データの属するグル ープを示すグループ情報を受信する受信手段と、 通信装置からの通 信データのそれそれに対するユーザの反応情報を取得する情報取得 手段と、 ユーザの反応情報に基づいて、 通信データのそれぞれに対 する注目度を検出する注目度検出手段と、 注目度を情報処理装置に 出力する注目度出力手段と、 グループ倩報に基づいて、 通信データ を加工する加工手段と、 この加工手段によって加工された通信デー 夕を提示装置に出力する加工データ出力手段とを備えることにより、 上述した課題を解決する。
さらにまた、 上述した目的を達成する本発明にかかる通信方法は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システム における通信方法において、 他の通信装置からの通信データを受信 する第 1の受信工程と、 通信装置からの通信データのそれそれに対 するユーザの反応情報を取得する情報取得工程と、 ユーザの反応情 報に基づいて、 通信データのそれそれに対する注目度を検出する注 目度検出工程と、 注目度を情報処理装置に出力する注目度出力工程 と、 情報処理装置から送信された通信データの属するグループを示 すグループ倩報を受信する第 2の受信工程と、 グループ情報に基づ いて、 通信データを加工する加工工程と、 この加工工程にて加工さ れた通信デ一夕を提示装置に出力する加工デ一夕出力工程とを備え ることにより、 上述した課題を解決する。
また、 上述した目的を達成する本発明にかかる通信プログラムが 記録された記録媒体は、 情報処理装置と少なく とも 3つの通信装置 とを有する通信システムにおけるコンピュータ制御可能な通信プロ グラムが記録された記録媒体において、 通信プログラムは、 他の通 信装置からの通信データを受信する第 1の受信工程と、 通信装置か らの通信データのそれそれに対するユーザの反応情報を取得する情 報取得工程と、 ユーザの反応情報に基づいて、 通信デ一夕のそれそ れに対する注目度を検出する注目度検出工程と、 注目度を情報処理 装置に出力する注目度出力工程と、 情報処理装置から送信された通 信データの属するグループを示すグループ情報を受信する第 2の受 信工程と、 グループ情報に基づいて、 通信デ一夕を加工する加工ェ 程と、 この加工工程にて加工された通信データを提示装置に出力す る加工データ出力工程とを備えることにより、 上述した課題を解決 する。
さら.に、 上述した目的を達成する本発明にかかる情報処理装置は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システム における情報処理装置において、 通信装置のそれそれから送信され た通信データに対する注目度を受信する受信手段と、 注目度に基づ いて、 通信データのグルービングを行うグルーピング手段と、 この グルーピング手段によるグルービングの結果を示すグループ情報を 出力するグループ情報出力手段とを備えることにより、 上述した課 題を解決する。
また、 この情報処理装置は、 受信手段が、 注目度の代わりに、 通 信装置のそれそれから送信された通信データを受信し、 当該情報処 理装置は、 通信データのそれそれに対するユーザの注目度を検出す る注目度検出手段をさらに備えることにより、 上述した課題を解決 する。
さらにまた、 上述した目的を達成する本発明にかかる情報処理方 法は、 情報処理装置と少なくとも 3つの通信装置とを有する通信シ ステムにおける情報処理方法において、 通信装置のそれそれから送 信された通信データに対する注目度を受信する受信工程と、 注目度 に基づいて、 通信デ一夕のグルーピングを行うグルーピング工程と、 このグルーピング工程によるグルーピングの結果を示すグループ情 報を出力するグループ情報出力工程とを備えることにより、 上述し た課題を解決する。
また、 この情報処理方法は、 受信工程では、 注目度の代わりに、 通信装置のそれそれから送信された通信データが受信され、 当該情 報処理方法は、 通信データのそれそれに対するユーザの注目度を検 出する注目度検出工程をさらに備えることにより、 上述した課題を 解決する。
また、 上述した目的を達成する本発明にかかる情報処理プログラ ムが記録された記録媒体は、 情報処理装置と少なく とも 3つの通信 装置とを有する通信システムにおけるコンピュータ制御可能な情報 処理プログラムが記録された記録媒体において、 情報処理プログラ ムは、 通信装置のそれそれから送信された通信データに対する注目 度を受信する受信工程と、 注目度に基づいて、 通信データのグル一 ビングを行うグルービング工程と、 このグルーピング工程によるグ ルービングの結果を示すグループ情報を出力するグループ情報出力 工程とを備えることにより、 上述した課題を解決する。
また、 この情報処理プログラムが記録された記録媒体は、 受信ェ 程では、 注目度の代わりに、 通信装置のそれそれから送信された通 信デ一夕が受信され、 情報処理プログラムは、 通信データのそれそ れに対するユーザの注目度を検出する注目度検出工程をさらに備え ることにより、 上述した課題を解決する。
さらに、 上述した目的を達成する本発明にかかる通信装置は、 少 なく とも 3つの通信装置間で通信を行う通信システムにおける通信 装置において、 他の通信装置からの通信データを受信する受信部と、 通信装置からの通信データのそれそれに対するユーザの反応情報を 取得する情報取得手段と、 ユーザの反応情報に基づいて、 通信デ一 夕のそれそれに対する注目度を検出する注目度検出手段と、 注目度 に基づいて、 通信データのグルーピングを行うグルーピング手段と、 通信デ一夕のそれそれが属するグループに基づいて、 通信データの それそれを加工する加工手段と、 この加工手段によって加工された 通信データを提示装置に出力する加工データ出力手段とを備えるこ とにより、 上述した課題を解決する。
さらにまた、 上述した目的を達成する本発明にかかる通信方法は、 少なく とも 3つの通信装置間で通信を行う通信システムにおける通 信方法において、 他の通信装置からの通信データを受信する受信ェ 程と、 通信装置からの通信データのそれそれに対するユーザの反応 情報を取得する情報取得工程と、 ユーザの反応情報に基づいて、 通 信データのそれそれに対する注目度を検出する注目度検出工程と、 注目度に基づいて、 通信デ一夕のグルーピングを行うグルーピング 工程と、 通信デ一夕のそれそれが属するグループに基づいて、 通信 データのそれそれを加工する加工工程と、 この加工工程にて加工さ れた通信データを提示装置に出力する加工データ出力工程とを備え ることにより、 上述した課題を解決する。
また、 上述した目的を達成する本発明にかかる通信プログラムが 記録された記録媒体は、 少なく とも 3つの通信装置間で通信を行う 通信システムにおけるコンピュータ制御可能な通信プログラムが記 録された記録媒体において、 通信プログラムは、 他の通信装置から の通信データを受信する受信工程と、 通信装置からの通信データの それそれに対するユーザの反応情報を取得する情報取得工程と、 ュ 一ザの反応情報に基づいて、 通信データのそれぞれに対する注目度 を検出する注目度検出工程と、 注目度に基づいて、 通信データのグ ルービングを行うグルーピング工程と、 通信デ一夕のそれそれが属 するグループに基づいて、 通信デ一夕のそれそれを加工する加工ェ 程と、 この加工工程にて加工された通信データを提示装置に出力す る加工デ一夕出力工程とを備えることにより、 上述した課題を解決 する。
さらに、 上述した目的を達成する本発明にかかる通信装置は、 情 報処理装置と少なく とも 3つの通信装置とを有する通信システムに おける通信装置において、 通信装置からの通信データのそれそれに 対するユーザの反応情報を取得する情報取得手段と、 情報処理装置 からの通信データと、 情報処理装置から送信された通信デ一夕の属 するグループを示すグループ情報とを受信するとともに、 ユーザの 反応情報を情報処理装置に送信する通信手段と、 グループ情報に基 づいて、 通信データを加工する加工手段と、 この加工手段によって 加工された通信データを提示装置に出力する加工データ出力手段と を備えることにより、 上述した課題を解決する。
さらにまた、 上述した目的を達成する本発明にかかる通信方法は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システム における通信方法において、 通信装置からの通信データのそれそれ に対するユーザの反応情報を取得する情報取得工程と、 ユーザの反 応情報を情報処理装置に送信する送信工程と、 情報処理装置からの 通信データと、 情報処理装置から送信された通信データの属するグ ループを示すグループ情報とを受信する受信工程と、 グループ情報 に基づいて、 通信データを加工する加工工程と、 この加工工程にて 加工された通信データを提示装置に出力する加工データ出力工程と を備えることにより、 上述した課題を解決する。
また、 上述した目的を達成する本発明にかかる通信プログラムが 記録された記録媒体は、 情報処理装置と少なく とも 3つの通信装置 とを有する通信システムにおけるコンピュータ制御可能な通信プロ グラムが記録された記録媒体において、 通信プログラムは、 通信装 置からの通信データのそれそれに対するユーザの反応情報を取得す る情報取得工程と、 ユーザの反応情報を情報処理装置に送信する送 信工程と、 情報処理装置からの通信データと、 情報処理装置から送 信された通信データの属するグループを示すグループ情報とを受信 する受信工程と、 グループ情報に基づいて、 通信デ一夕を加工する 加工工程と、 この加工工程にて加工された通信データを提示装置に 出力する加工データ出力工程とを備えることにより、 上述した課題 を解決する。 図面の簡単な説明 図 1は、 本発明の第 1の実施の形態として示す遠隔会議システム の構成例を示すプロック図である。
図 2は、 同遠隔会議システムを構成する 1つの遠隔会議装置の構 成例を示すブロック図である。
図 3は、 会議参加者の注目する方向と、 それに応じて生成される グループ判定用情報の説明に用いる図であって、 会議参加者の向い ている方向及びその方向の継続時間を表す情報として期間を検出す る様子を上段に示し、 検出した期間に対応するモニタ装置を会議参 加者が注目していることを示す情報を生成する様子を下段に示す図 である。
図 4は、 会議参加者の注目する方向及びスィッチ押下情報と、 そ れに応じて生成されるグループ判定用情報の説明に用いる図であつ て、 会議参加者の向いている方向及びその方向の継続時間を表す情 報として期間を検出する様子を上段に示し、 検出した各期間につい て、 会議参加者がスィツチを押下することによって得られる信号の 様子を中段に示し、 スィツチ押下信号が 「O N」 信号となっている 期間に対応するモニタ装置を会議参加者が注目していることを示す 情報を生成する様子を下段に示す図である。
図 5は、 同遠隔会議システムを構成するサーバの構成例を示すブ ロック図である。
図 6は、 初期状態の注目先表を示す図である。
図 7は、 初期状態のグループ表を示す図である。
図 8は、 通信開始時における注目先表及びグループ表の初期化処 理の流れを示すフローチヤ一トである。 図 9は、 グループ判定用情報発生時の処理の流れを示すフローチ ャ一トである。
図 1 0は、 グループ判定用情報を反映させたときの注目先表を示 す図である。
図 1 1は、 注目先表の内容をグループ表へ反映させる処理の流れ を示すフローチャートである。
図 1 2は、 会議参加者 H M 1について図 1 1のフローチヤ一卜の ステップ S 5 2の処理が終了したときのグループ表を示す図である ( 図 1 3は、 会議参加者 H M 1について図 1 1のフローチャートの ステップ S 5 2の処理が終了したときの注目先表を示す図である。 図 1 4は、 会議参加者 H M 1について図 1 1のフローチヤ一卜の ステップ S 5 8の処理が終了したときのグループ表を示す図である c 図 1 5は、 会議参加者 H M 1について図 1 1のフローチャートの ステップ S 5 8の処理が終了したときの注目先表を示す図である。 図 1 6は、 会議参加者 H M 2について図 1 1のフローチャートの ステップ S 5 2の処理が終了したときのグループ表を示す図である c 図 1 7は、 会議参加者 H M 2について図 1 1のフローチヤ一卜の ステップ S 5 2の処理が終了したときの注目先表を示す図である。 図 1 8は、 会議参加者 H M 3について図 1 1のフローチャートの ステップ S 5 8の処理が終了したときのグループ表を示す図である c 図 1 9は、 会議参加者 H M 3について図 1 1のフローチヤ一卜の ステップ S 5 8の処理が終了したときの注目先表を示す図である。 図 2 0は、 会議参加者 H M 4について図 1 1のフローチヤ一卜の ステップ S 5 2の処理が終了したときのグループ表を示す図である c 図 2 1は、 会議参加者 H M 4について図 1 1のフローチャートの ステップ S 5 2の処理が終了したときの注目先表を示す図である。 図 2 2は、 会議参加者 H M 4について図 1 1のフローチャートの ステップ S 5 7の処理が終了したときのグループ表を示す図である < 図 2 3は、 会議参加者 H M 4について図 1 1のフローチャートの ステップ S 5 7の処理が終了したときの注目先表を示す図である。 図 2 4は、 会議参加者 H M 5について図 1 1のフローチヤ一トの ステツプ S 5 6の処理が終了したときのグループ表を示す図である < 図 2 5は、 会議参加者 H M 5について図 1 1のフローチヤ一卜の ステップ S 5 6の処理が終了したときの注目先表を示す図である。 図 2 6は、 音声の情報加工を行う情報加工部の具体的構成例を示 すブロック図である。
図 2 7は、 音質制御を行う場合の音声加工器の具体的構成例を示 すブロック図である。
図 2 8は、 音質制御を行う場合の音声加工器への入力音声信号の 周波数特性を示す図である。
図 2 9は、 音質制御を行う場合の音声加工器の周波数制御特性を 示す図である。
図 3 0は、 音質制御を行う場合の音声加工器からの出力音声信号 の周波数特性を示す図である。
図 3 1は、 画像の情報加工を行う情報加工部の具体的構成例を示 すブロック図である。
図 3 2は、 画質制御を行う場合の画像加工器の具体的構成例を示 すプロック図である。
図 3 3は、 画像及び音声の情報加工を行う情報加工部の具体的構 成例を示すプロック図である。 図 3 4は、 視線検出処理の流れを示すフローチャートである。 図 3 5は、 目の両端位置検出の説明に用いる図である。
図 3 6は、 鼻孔の位置検出範囲の説明に用いる図である。
図 3 7は、 目の両端位置、 鼻孔位置、 眼球中心位置の説明に用い る図である。
図 3 8は、 視線の方向検出の説明に用いる図である。
図 3 9は、 特定の画素集合の 2次モーメントを最小にする線の求 め方の説明に用いる図である。
図 4 0は、 顔向き検出処理の流れを示すフローチヤ一トである。 図 4 1は、 顔向き検出の際の原画像を示す図である。
図 4 2は、 顔向き検出の際の他の原画像を示す図である。
図 4 3は、 顔向き検出の際の髪領域と肌領域の説明に用いる図で ある。
図 4 4は、 顔向き検出の際の他の髪領域と肌領域の説明に用いる 図である。
図 4 5は、 髪領域と肌領域の重心の説明に用いる図である。 図 4 6は、 他の髪領域と肌領域の重心の説明に用いる図である。 図 4 7は、 顔向き検出の際の差分値と角度の関係例を示す図であ o
図 4 8は、 具体例のモニタ装置を側面側から見た概略的な透視図 である。
図 4 9は、 具体例のモニタ装置の概略的な正面図である。
図 5 0は、 同遠隔会議システムにおける各遠隔会議装置の信号処 理装置やサーバを実現する実際の装置構成例を示すプロック構成図 である。 図 5 1は、 遠隔会議装置の他の例として、 スクリーン上に会議参 加者の画像を表示し、 スピー力による音像を定位させる場合の概略 構成を示す図である。
図 5 2は、 遠隔会議装置の他の例として、 スクリーン上に会議参 加者の画像を表示し、 2人の会議参加者を同席可能にした場合の概 略構成を示す図である。
図 5 3は、 遠隔会議装置の他の例として、 スクリーン上に会議参 加者の画像を表示し、 2人の会議参加者を同席可能とするとともに、 へッ ドホンによって音像を定位させる場合の概略構成を示す図であ る。
図 5 4は、 遠隔会議装置の他の例として、 会議参加者の音声のみ を通信するようにした場合の概略構成を示す図である。
図 5 5は、 本発明の第 2の実施の形態として示す遠隔会議システ ムの構成例を示すプロック図である。
図 5 6は、 同遠隔会議システムを構成する 1つの遠隔会議装置の 構成例を示すプロック図である。
図 5 7は、 本発明の第 3の実施の形態として示す遠隔会議システ ムを構成する 1つの遠隔会議装置の構成例を示すプロック図であつ て、 グルービング装置として機能する遠隔会議装置の構成例を示す ブロヅク図である。
図 5 8は、 同遠隔会議システムを構成する 1つの遠隔会議装置の 構成例を示すプロック図であって、 グルーピング装置として機能し ない遠隔会議装置の構成例を示すプロック図である。
図 5 9は、 本発明の第 4の実施の形態として示す遠隔会議システ ムを構成する 1つの遠隔会議装置の構成例を示すプロック図である 図 6 0は、 同遠隔会議システムを構成するサーバの構成例を示す ブロック図である。
図 6 1は、 本発明の第 5の実施の形態として示す遠隔会議システ ムの構成例を示すプロック図である。
図 6 2は、 同遠隔会議システムを構成するサーバの構成例を示す プロヅク図であって、 グルービング装置として機能するサーバの構 成例を示すブロック図である。
図 6 3は、 同遠隔会議システムを構成するサーバの構成例を示す プロック図であって、 加工装置として機能するサーバの構成例を示 すブロック図である。
図 6 4は、 本発明の第 6の実施の形態として示す遠隔会議システ ムを構成する 1つの遠隔会議装置の構成例を示すプロック図である 図 6 5は、 同遠隔会議システムを構成するサーバの構成例を示す ブロック図である。
図 6 6は、 本発明の第 7の実施の形態として示す遠隔会議システ ムを構成するサーバの構成例を示すプロック図であって、 注目度検 出装置として機能するサーバの構成例を示すプロック図である。 図 6 7は、 同遠隔会議システムを構成するサーバの構成例を示す プロック図であって、 グルービング装置として機能するサーバの構 成例を示すブロック図である。
図 6 8は、 本発明の第 8の実施の形態として示す遠隔会議システ ムを構成する 1つの遠隔会議装置の構成例を示すプロック図である 図 6 9は、 同遠隔会議システムを構成するサーバの構成例を示す ブロック図である。
図 7 0は、 本発明の第 9の実施の形態として示す遠隔会議システ ムを構成するサーバの構成例を示すプロック図であって、 注目度検 出装置及びグルーピング装置として機能するサーバの構成例を示す プロヅク図である。
図 7 1は、 同遠隔会議システムを構成するサーバの構成例を示す ブロック図であって、 加工装置として機能するサーバの構成例を示 すブロック図である。
図 7 2は、 本発明の第 1 0の実施の形態として示す遠隔会議シス テムを構成するサーバの構成例を示すブロック図であって、 注目度 検出装置として機能するサーバの構成例を示すプロック図である。 図 7 3は、 同遠隔会議システムを構成するサーバの構成例を示す プロック図であって、 グルーピング装置及び加工装置として機能す るサーバの構成例を示すプロック図である。
図 7 4は、 本発明の第 1 1の実施の形態として示す遠隔会議シス テムの構成例を示すプロック図である。
図 7 5は、 同遠隔会議システムを構成するサーバの構成例を示す プロック図であって、 注目度検出装置として機能するサーバの構成 例を示すプロック図である。
図 7 6は、 同遠隔会議システムを構成するサーバの構成例を示す ブロック図であって、 グルービング装置として機能するサーバの構 成例を示すブロック図である。
図 7 7は、 同遠隔会議システムを構成するサーバの構成例を示す プロック図であって、 加工装置として機能するサーバの構成例を示 すブロック図である。 発明を実施するための最良の形態 以下、 本発明を適用した具体的な実施の形態について図面を参照 しながら詳細に説明する。
この実施の形態は、 遠隔地に居る複数の会議参加者による会議を 行うことができる遠隔会議システムであって、 会議参加者の注目度 を検出し、 その検出結果に基づいて、 各会議参加者が何れのグルー プの話題に参加しているのかを判定するために用いられるグループ 判定用情報を生成し、 このグループ判定用情報に基づいてグループ 分けを行い、 各会議参加者が何れのグループに属しているのかを表 すグループ情報を生成し、 このグループ情報に基づいて、 他の各会 議参加者にそれそれ対応する画像データ及び/又は音声データに所 望の調整処理を施すものであり、 同じ話題に参加している各会議参 加者の発言を特に聞き取り易く、 また見易くすることが可能となる ものである。
まず、 本発明を適用した第 1の実施の形態として示す遠隔会議シ ステムについて説明する。
遠隔会議システムの概略構成を図 1に示す。 この遠隔会議システ ムにおいて、 複数箇所 ( l〜n箇所) に居る各会議参加者 HM 1〜 HMnには、 それそれ対応した遠隔会議装置 T CD l〜TCDnが 割り当てられており、 各遠隔会議装置 T CD l〜TCDnは、 例え ば I SDN (Integrated Services Digital Network) 等からなる通 信ネッ トワーク N Tを介して接続されている。
なお、 以下では、 各会議参加者 HM 1〜HMnを個々に区別する 必要がない場合には、 単に会議参加者 HMと記述し、 同様に、 各遠 隔会議装置 T CD 1〜T CD nを個々に区別する必要がない場合に は、 単に遠隔会議装置 TCDと記述するものとする。 また、 図 1に は、 通信ネッ トワーク NTとして I S D Nを例に挙げたが、 I S D Nの代わりに、 例えばケーブルテレビ網、 イン夕一ネッ ト、 デイジ 夕ル衛星通信のような他の伝送媒体を用いることも可能である。 各遠隔会議装置 T CDは、 それそれ対応する会議参加者 HMの画 像データ及び音声データを取り込み、 この会議参加者 H Mの画像デ 一夕及び音声データを通信ネッ トワーク N Tを介して他の遠隔会議 装置 T C Dに送信するとともに、 他の遠隔会議装置 T C Dから送信 されてきた他の会議参加者 HMの画像デ一夕及び音声データを受信 し、 提示することができる。 すなわち、 各遠隔会議装置 TCDは、 画像及び音声をモニタ可能とされている。
この遠隔会議システムにおける各遠隔会議装置 T CDは、 それそ れ、 図 2に示すような構成を備えている。 なお、 各遠隔会議装置 T CD l~TCDnは、 それそれ、 同一の構成を有することから、 図 2には、 これら複数の遠隔会議装置 T CD l〜TCDnのうち、 代 表して遠隔会議装置 T CD 1の詳細な構成例を示している。
遠隔会議装置 T CD 1は、 通信ネッ トワーク NTと接続され、 遠 隔会議システムにおける他の各遠隔会議装置 T CD 2〜T CD nと の間で通信を行うとともに、 送受信される信号に対して後述するよ うな信号処理を施す信号処理装置 S PD 1と、 遠隔会議システムに おける他の各遠隔会議装置 T CD 2〜T CD nから送信されてきた 会議参加者 HM 2〜HMnの画像デ一夕及び音声データを、 各遠隔 会議装置 T CD 2〜T CD nにそれそれ対応して表示及び/又は提 示するモニタ装置 MD 2〜MDnとを、 少なく とも備える。
なお、 以下では、 モニタ装置 MD 2〜MD nを個々に区別する必 要がない場合には、 単にモニタ装置 MDと記述するものとする。 遠隔会議装置 T CD 1における信号処理装置 S PD 1は、 通信ネ ッ トワーク NTと接続されるネッ トワーク接続端子 TN 1と、 通信 ネッ トワーク NTとの間で情報送受信を行うための情報送受信部 T RB 1と、 各モニタ装置 MD 2〜MD nに供給される信号に対して 後述する情報加工処理を施す加工装置を構成する情報加工部 P B 1 と、 後述するように会議中において同じ話題に参加している各会議 参加者をグループ分けするためのグループ判定用情報を生成する注 目度検出装置を構成するグループ判定用情報生成部 J B 1と、 各モ 二夕装置 MD 2〜MD nへ個々に供給される信号の出力端子 T 02 〜TOnと、 各モニタ装置 MD 2〜MD ηから個々に供給された信 号の入力端子 Τ I 2〜T I ηと、 グループ判定の際に使用される後 述するスィツチ押下情報を生成するスィ ツチ SWからの信号の入力 端子 T Sとを備えている。
各モニタ装置 MD 2〜MD ηは、 その詳細な構成については後述 するが、 それそれが主要構成要素として、 モニタ装置 MDの筐体正 面側に設けられるスビーカと、 画面が所定の方向、 具体的には会議 参加者 HM 1の方向に向くように配置されたディスプレイ装置とを 少なく とも備えている。 また、 モニタ装置 MD 2〜MD ηのうち少 なく とも 1つのモニタ装置 MDには、 遠隔会議装置 TCD 1の周囲 及び会議参加者 HM 1の発言の音を取り込むためのマイクロホンと、 会議参加者 HM 1の画像を取り込むための例えばビデオカメラとい つたカメラとが設けられている。 なお、 マイクロホンとカメラが設 けられるモニタ装置は、 会議参加者 HM 1の正面に配置されるモニ 夕装置、 すなわち図 2の例ではモニタ装置 M Dmであることが望ま しい。 勿論、 遠隔会議装置 T CD 1においては、 全てのモニタ装置 MD 2〜MDnにマイクロホンとカメラを設けることも可能である < また、 遠隔会議装置 T CD 1においては、 所望の位置に別途マイク 口ホンとカメラを設置してもよい。
カメラから取り込まれた画像データとマイクロホンから取り込ま れた音声データは、 信号処理装置 SPD 1及び通信ネッ トワーク N Tを介して各遠隔会議装置 T CD 2 ~T CD ηに送信される。
また、 各モニタ装置 MD 2〜MD ηのディスプレイ装置には、 そ れそれ対応する遠隔会議装置 T CD 2〜T CD nから送信されてき た画像デ一夕に基づく画像が表示され、 スピーカからは、 同じくそ れそれ対応する遠隔会議装置 T CD 2〜T CD nから送信されてき た音声データに基づく音声が出力される。 すなわち、 これらモニタ 装置 MD 2〜MD nのうち、 モニタ装置 M D 2のディスプレイ装置 の画面上には、 遠隔会議装置 T CD 2のカメラによって撮影されて 通信ネッ トワーク NTを介して供給されてきた画像デ一夕、 すなわ ち会議参加者 HM 2及びその周辺風景の画像データに基づく画像が 表示され、 モニタ装置 MD 2のスピーカからは、 遠隔会議装置 TC D 2のマイクロホンによって取り込まれて通信ネッ トワーク NTを 介して供給された音声データ、 すなわち会議参加者 HM 2の発言に よる音声データに基づく音声が出力される。 同様に、 モニタ装置 M D 3のディスプレイ装置の画面上には、 遠隔会議装置 T CD 3の力 メラによって撮影されて送信されてきた画像データに基づく画像が 表示され、 スピーカからは、 遠隔会議装置 T CD 3のマイクロホン によって取り込まれて送信されてきた音声データに基づく音声が出 力される。 他のモニタ装置 MDも同様であり、 それそれ対応する遠 隔会議装置 T CDから送信されてきた画像が表示され、 また音声が 出力される。 なお、 各遠隔会議装置 T CD l〜TCDn間で通信ネ ッ トワーク NTを介して送受信される画像デ一夕としては、 動画デ 一夕の例以外に静止画デ一夕も考えられる。
これらモニタ装置 MD 2〜MD nは、 図 2に示すように、 遠隔会 議装置 T CD 1を備えた会議室に居る会議参加者 HM 1と、 他の離 れた場所に居る他の会議参加者 HM 2〜HMn (各モニタ装置 MD 2〜MD nの各ディスプレイ装置上に表示されている他の会議参加 者 HM2〜HMn) とが、 あたかも 1つのテーブルを囲んで会議を 行うかのように配置されている。 なお、 遠隔会議システムにおける 遠隔会議装置 T CDが 6台有り、 各遠隔会議装置 T CD内のモニタ 装置 M Dが 5台となるような場合には、 1つの遠隔会議装置 T C D 内の 5台のモニタ装置 MDの配置は、 会議参加者 HMとこれら 5台 のモニタ装置 M Dとが例えば正六角形となるような配置とすること ができる。
各遠隔会議装置 T CDにおける信号処理装置 S PD内のグループ 判定用情報生成部 JBは、 以下に述べるようにして、 会議中におい て同じ話題に参加している各会議参加者をグループ分けする際に使 用されるグループ判定用情報を生成する。 なお、 以下では、 各遠隔 会議装置 T CD 1〜T CD nに対応する各グループ判定用情報生成 部 JB l〜JBnのうち、 代表して遠隔会議装置 T CD 1の信号処 理装置 SPD 1内のグループ判定用情報生成部 J B 1の動作を例に 挙げて説明する。
グループ判定用情報生成部 J B 1は、 会議参加者 HM 1の例えば 正面に配置されているモニタ装置 M Dmのカメラから供給された画 像データに基づいて、 会議参加者 HM 1の注目度を検出し、 その検 出結果に基づいて、 後述するように会議参加者 HM 1が何れのグル ープの話題に参加しているのかを判定するために用いられるグルー プ判定用情報を生成する。 なお、 会議参加者 HM 1における注目度 とは、 会議参加者 HM 1がモニタ装置 MD 2〜MD nの何れか或い はそれら以外の方向へ注目している場合のような注目の有無を表す 場合、 すなわち注目の有無をいわゆるディジタル的に 0 , 1で表す 場合だけでなく、 モニタ装置 MD 2〜MD nについてそれそれどれ く らい注目しているかを表す場合、 すなわちアナログ的或いは段階 的に表す場合も含まれる。
グループ判定用情報生成部 J B 1は、 詳細については後述するが、 モニタ装置 MDmのカメラから供給される会議参加者 HM 1の画像 デ一夕を解析し、 会議参加者 HM 1の向いている方向を一定の時間 毎に検出する。
すなわち、 グループ判定用情報生成部 J B 1は、 まず、 図 3中上 段に示すように、 会議参加者 HM 1の向いている方向及びその方向 の継続時間を表す情報として期間 I jを検出する。 なお、 I jの j は、 他の各会議参加者 HM 2〜HMnに対応する 2〜n及びこれら 各会議参加者 HM 2〜HMnの何れでもないことを表す 0のどれか の値である。 グループ判定用情報生成部 J B 1は、 会議参加者 HM 2の画像が表示されているモニタ装置 MD 2の方を向いている期間 I 2、 会議参加者 HM 3の画像が表示されているモニタ装置 MD 3 の方を向いている期間 I 3、 会議参加者 HMmの画像が表示されて いるモニタ装置 MDmの方を向いている期間 I m、 会議参加者 HM n— 1の画像が表示されているモニタ装置 MD n— 1の方を向いて いる期間 I n— 1、 会議参加者 HMnの画像が表示されているモニ 夕装置 MD nの方を向いている期間 I n等、 及び、 それら各モニタ 装置 MD 2〜MD nの何れの方をも向いていない期間 I 0を検出す o
続いて、 グループ判定用情報生成部 J B 1は、 それら検出した各 期間 I 2〜 I n或いは I 0について、 特に時間 Tcont以上続く期間 を検出し、 時間 Tcont以上続く期間を検出した場合には、 この検出 した期間に対応するモニタ装置 (表示されている会議参加者の画 像) を会議参加者 HM 1が注目していることを示す図 3中下段に示 すような情報 (H i : A j ) を生成する。 なお、 この (H i : A j ) の iは、 会議参加者 HMiの iに対応しており、 ここでは、 i = 1である。 また、 (H i : A j ) の jは、 他の各会議参加者 HM 2〜HMn及びそれ以外に対応する 2〜n及び 0のどれかの値であ る。 すなわち、 図 3の例で説明すると、 グループ判定用情報生成部 J B 1は、 各期間 I 2〜 I n或いは I 0から、 時間 Tcont以上続く 期間として期間 I 3と I 0と I 2を検出した場合には、 その検出し た期間 I 3に対応するモニタ装置 MD 3を会議参加者 HM 1が注目 していることを示す情報 (H I : A3) と、 期間 I 0に対応して会 議参加者 HM 1が各モニタ装置 MDの何れにも注目していないこと 或いは各モニタ装置 MD以外のものに注目していることを示す情報 (H I : AO) と、 期間 I 2に対応するモニタ装置 MD 2を会議参 加者 HM 1が注目していることを示す情報 (H I : A 2 ) とを、 グ ループ判定用情報として生成する。
また、 グループ判定用情報生成部 J B 1は、 各期間 I jの検出と ともに、 会議参加者 HM 1が注目していることを示すスィッチ SW からのスィ ツチ押下情報に基づいて、 当該グループの判定のための グループ判定用情報を生成するようにしてもよい。 すなわち、 この 場合のグループ判定用情報生成部 J B 1は、 図 4中上段に示すよう に、 会議参加者 HM 1の向いている方向及びその方向の継続時間を 表す情報として期間 I jを検出し、 それら検出した各期間 I 2〜1 n或いは I 0について、 会議参加者 HM 1がスィ ッチ SWを押下す ることによって得られる図 4中中段に示すようなスィッチ押下の 「ON」 信号が供給されたとき、 このスィ ツチ押下信号が 「ON」 信号となっている期間に対応するモニタ装置 (表示されている会議 参加者の画像) を会議参加者 HM 1が注目していることを示す図 4 中下段に示すような情報 (H I : A j ) を生成する。 図 4の例で説 明すると、 グループ判定用情報生成部 J B 1は、 各期間 I 2〜 I n 或いは I 0から、 スィツチ押下信号が 「ON」 となされた期間とし て I 3と I 4を検出した場合には、 その検出した期間 I 3に対応す るモニタ装置 MD 3を会議参加者 HM 1が注目していることを示す 情報 (H 1 : A 3 ) と、 期間 I 4に対応するモニタ装置 MD 4を会 議参加者 HM 1が注目していることを示す情報 (H I : A4) とを、 グループ判定用情報として生成する。 その他、 会議参加者 HM 1の注目している方向を、 当該会議参加 者 HM 1が自ら明確に指示するようにすることも可能である。 例え ば、 他の各会議参加者 HM 2〜HMnの各人毎に対応するボタンと それらの何れにも注目していない場合に対応するボタンとを準備し、 これらのボタンを当該会議参加者 HM 1が自ら押すことにより、 自 己が注目している相手を指定する。 この場合、 これら各ボタンの押 下情報が上述したグループ判定用情報となる。 上述のように、 グループ判定用情報生成部 J B 1が会議参加者 H M 1の挙動や指示を下に何れのモニタ装置 MD 2〜MD n (各会議 参加者 HM 2〜HMn) を注目しているかを検出することによって 生成されたグループ判定用情報は、 信号処理装置 S PD 1における 情報送受信部 TRB 1に供給され、 さらに、 ネッ トワーク接続端子 TN 1を介して通信ネッ トワーク NTから、 後述するサーバ SVに 送信される。
サーバ SVは、 図 5に示すように構成され、 各遠隔会議装置 TC D 1〜T CD ηから送信されてきたグループ判定用情報に基づいて グループ分けを行い、 各会議参加者 ΗΜが何れのグループに属して いるのかを表すグループ情報を生成するグルービング装置として機 能する。
この図 5において、 サーバ SVは、 通信ネッ トワーク Ν Τと接続 されるネッ トワーク接続端子 1 1と、 通信ネッ トワーク NTとの間 で情報送受信を行うための情報送受信部 10と、 各遠隔会議装置 T CD 1〜T CD ηから送信されてきたグループ判定用情報に基づい てグループ判定を行うとともに、 そのグループ判定結果に基づいて 各会議参加者 ΗΜが何れのグループに属しているのかを表すグルー プ情報を生成し、 このグループ情報を各遠隔会議装置 T CD 1〜Τ C D nの情報加工部 P Bに送信するグループ判定部 G J Dとを備え ている。
情報送受信部 10は、 通信ネッ 卜ワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD ηから送信されてきた各グループ判定用情 報を受信し、 これらの各グループ判定用情報をグループ判定部 G J Dに供給する。 また、 情報送受信部 10は、 グループ判定部 GJD によって生成されたグループ情報を通信ネッ トワーク NTを介して 各遠隔会議装置 T CD l〜TCDnに送信する。
グループ判定部 G J Dは、 各グループ判定用情報に基づいて、 各 遠隔会議装置 T CD 1〜T CD ηを介して会議に参加している各会 議参加者 ΗΜ 1〜ΗΜηがそれそれ何れのグループに属するか、 す なわち何れの話題に参加しているかの判定及び更新を行うとともに、 そのグループ判定及び更新結果に基づいて、 各会議参加者 ΗΜが何 れのグループに属しているのかを表すグループ情報を生成する。 なお、 各遠隔会議装置 TCD l〜TCDnは、 詳細については後 述するが、 サーバ S Vから送信されてきたグループ情報を情報加工 部 PBに供給し、 情報加工部 PBにより、 このグループ情報に基づ いて後述するように音量や音質、 画質等の調整を行うためのパラメ 一夕を生成し、 画像や音声等の調整をすることになる。
サーバ S Vにおいて用いられるグループ判定の基準には種々のも のが考えられるが、 以下では、 例として、 「注目している人と注目 されている人の間にリンクをはることを利用して、 直接或いは間接 にリンクで結ばれている人の集まりを 1つのグループとする」 とい う基準を用いる場合につき、 サーバ S Vのグループ判定部 G J Dに おけるグループ判定用倩報に基づいたグループ判定及び更新処理の 詳細について説明する。
グループ判定部 GJDは、 図 6に示すように、 遠隔会議システム に参加している各会議参加者に対応する番号である 「本人番号」 と、 各遠隔会議装置 T CD 1〜T CD nを使用している各会議参加者 H M 1〜HMnが注目している相手先の会議参加者を表す番号である 「注目先番号」 と、 グループ表への登録状態を表す 「グループ表へ の登録」 とを有する注目先表を保持するとともに、 図 7に示すよう に、 遠隔会議システムに存在する各グループの番号を表す 「グルー プ番号」 と、 各グループに属する会議参加者の 「人数」 と、 各グル ープに属する会議参加者を表す 「メンバ一」 とを有するグループ表 を保持している。
ここで、 グループ判定部 G J Dは、 グループ判定用情報を受信す る前段として、 図 8に示すように、 通信開始時の初期化処理を行う < すなわち、 グループ判定部 G J Dは、 図 8に示すように、 まずス テップ S 1 1の処理として、 図 6に示した注目先表の作成と初期化 とを行う。 この初期化では、 図 6に示した注目先表の 「本人番号」 として、 当該遠隔会議システムに参加している各会議参加者に対応 する番号、 すなわち図 7の例では H l〜H nが設定され、 また、 「注目先番号」 として、 各遠隔会議装置 T C D l〜T C D nを使用 している各会議参加者 H M 1〜H M nが何れの相手先にも注目して いないことを表す番号 A 0が全てに設定され、 さらに、 「グループ 表への登録」 として、 何れのグループにも登録されていないことを 表す 「X」 が全てに設定される。
そして、 グループ判定部 G J Dは、 ステップ S 1 2の処理として、 図 7に示したグループ表の作成と初期化とを行う。 この初期化では、 図 7に示したグループ表の 「グループ番号」 として、 当該遠隔会議 システムに参加している各遠隔会議装置 T C D 1〜T C D ηの個数 からなるグループであるグループ G l〜G nが設定され、 また、 「人数」 として、 何れのグループについて誰も参加していないとし て全てに 0が設定され、 さらに、 「メンバ一」 として、 何れのグル ーブについても当該グループを構成するメンバーが存在しないとし て全て空にされる。
さらに、 グループ判定部 GJDは、 グループ判定用情報を受信す ると、 図 9に示すように、 グループ判定用情報発生時の処理を開始 する。
すなわち、 グループ判定部 GJDは、 図 9に示すように、 グルー プ判定用情報を受信すると、 まず、 ステップ S 2 1の処理として、 注目先表にグループ判定用情報を実際に反映する。 すなわち、 グル ープ判定用情報の反映とは、 例えば図 1 0に示すように、 上述した 情報 (H i, A j ) 、 つまり H i番で表される会議参加者 HM iが A j番に相当する他の会議参加者 HM jに注目しているという情報 を受けて、 本人番号 H iのエント リの 「注目先番号」 を A jにする という意味である。 また、 このとき、 「グループ表への登録」 は、 全て 「X」 に初期化される。 なお、 図 1 0の例では、 「本人番号」 H 1で表される会議参加者 HM 1が注目する相手先として会議参加 者 HM3に対応する A3が 「注目先番号」 として設定され、 「本人 番号」 H 2の会議参加者 HM 2が注目する相手先として誰にも注目 していないことを表す A 0が 「注目先番号」 として設定され、 同様 に、 会議参加者 HM 3が会議参加者 HM 5を注目することで 「注目 先番号」 には A 5が設定され、 会議参加者 HM 4が会議参加者 HM 2を注目することで 「注目先番号」 には A 2が設定されている。 以 下の説明は省略する。
また、 グループ判定部 GJDは、 ステップ S 22の処理として、 グループ表について図 7と同様に 「人数」 を全て 0に設定し、 「メ ンバー」 を全て空に設定する。
グループ判定部 G J Dは、 これらのステップ S 2 1及びステツプ S 2 2における設定後、 ステップ S 2 3の処理として、 「本人番 号」 の H l〜H nのそれそれに対して、 順に注目先表の内容をグル ープ表に反映していく。
図 9に示したフローチャートのステップ S 2 3における注目先表 内容のグループ表への反映処理の詳細な流れは、 図 1 1に示すよう になる。 なお、 この図 1 1において、 「登録」 とは、 グループ表へ の登録を意味し、 「自エント リ」 とは、 注目先表での自己のェント リを示し、 「注目先」 とは、 自エント リにおける注目先を示し、 「注目先エントリ」 とは、 注目先表での注目先のエン トリを示し、 「自グループ」 とは、 自分がメンバーに登録されているグループを 示し、 「注目先グループ」 とは、 注目先がメンバーに登録されてい るグループを示す。 また、 実際の操作における登録とは、 グループ 表における人数を 1人増やすこと、 グループ表におけるメンバーに 対応番号を追加すること、 注目先表におけるグループ表への登録の 内容を 「X」 から 「〇」 にすることである。
まず、 注目先表における会議参加者 H iのェント リの反映に関す る要件について説明する。 本人番号 H iに対応する会議参加者 H M iに関する注目先表のエン トリの反映に関する要件は、 まず、 本人 番号 H iがグループ表に登録され、 注目先表の本人番号 H iのェン トリにおけるグループ表への登録が 「〇」 となることである。 以下 では、 各遠隔会議装置 T C Dにおけるこのような要件を要件 1 と称 するものとする。 本人番号 H iの注目先番号が A Oの場合、 すなわ ち他の何れの会議参加者にも注目していない場合における要件はこ れだけである。
ここで、 もし、 本人番号 H iの注目先番号が A Oでないならば、 さらに注目先番号がグループ表に登録され、 注目先表における注目 先のエント リにおけるグループ表への登録内容が 「〇」 となること、 及び、 本人番号 H i とその注目先がグループ表において同じグルー プに登録されていることが要件となる。 以下では、 各遠隔会議装置 T C Dにおけるこのような要件を要件 2と称するものとする。
このような要件が満たされていることを図 1 1のフローチャート を追いながら確認する。
まず、 グループ判定部 G J Dは、 図 1 1に示すように、 ステップ S 3 1の処理として、 注目先表における本人番号 H iの自エントリ でグループ表への登録が 「〇」 となっているか否かを判定する。 こ のステップ S 3 1にて自エント リの 「登録」 が 「〇」 となっていれ ばグループ表への登録も保証されることから、 要件 1は既に満たさ れていることになる。 したがって、 このステップ S 3 1にて Y E S と判定した場合、 グループ判定部 G J Dは、 本人番号 H iのグルー プ表への登録に関する作業は行わず、 ステップ S 3 3の処理へと移 行する。 一方、 グループ判定部 G J Dは、 自エント リで 「登録」 が 「X」 であるため、 ステップ S 3 1にて N 0と判定した場合には、 ステップ S 3 2の処理へと移行する。
ここで、 ステップ S 3 2の処理に移行すると、 グループ判定部 G J Dは、 グループ表において人数が 0である最小の番号のグループ に自己を登録、 すなわち本人番号を登録し、 その後、 ステップ S 3 3の処理へと移行する。
これらのステップ S 3 1及びステツプ S 3 2の結果、 次のステツ プ S 3 3の処理の前には、 何れにせよ要件 1が満たされていること になる。 続いて、 ステップ S 3 3の処理に移行すると、 グループ判定部 G J Dは、 注目先番号が A 0であるかの確認を行う。 ここで、 注目先 番号が A 0である場合には既に全ての要件が満たされていることに なることから、 グループ判定部 G J Dは、 このステップ S 3 3にお いて N Oと判定した場合には、 一連の処理を終了する。 一方、 注目 先番号が A Oでなく、 ステップ S 3 3にて Y E Sと判定した場合に は、 グループ判定部 G J Dの処理は、 要件 2を満たすべく、 ステツ プ S 3 4へと移行する。
ステップ S 3 4の処理に移行すると、 グループ判定部 G J Dは、 注目先エントリでのグループ表への登録の内容が 「〇」 であるか否 かを判定する。
ここで、 注目先ェント リでの登録が 「X」 の場合には、 注目先ェ ントリがグループ表に登録されていないことが確実であることから、 グループ判定部 G J Dは、 ステップ S 3 4にて N Oと判定すると、 ステップ S 3 8の処理へと移行し、 注目先を自己と同じグループ、 すなわち自グループに登録し、 さらに注目先表の注目先ェン ト リに おけるグループ表への登録内容を 「〇」 とする。 このステップ S 3 8の処理により、 要件 2は確実に満たされることから、 グループ判 定部 G J Dは一連の処理を終了する。
一方、 ステップ S 3 4の判定において、 注目先エント リでの登録 が 「〇」 となされており、 注目先が既に登録されている場合には、 残る要件は要件 2の後半の本人番号 H iとその注目先とが同じグル —プとなっていることの保証のみとなる。 そこで、 グループ判定部 G J Dは、 ステップ S 3 4の判定で Y E Sと判定すると、 次のステ ップ S 3 5においてグループ表を参照して注目先グループを探索し た上、 ステップ S 3 6において本人番号 H iとその注目先とが同じ グループとなっているかどうかを確認する。
ステップ S 3 6にて既に同じグループであると確認された場合に は、 要件 2は既に満たされているので、 グループ判定部 G J Dは、 このステップ S 3 6にて Y E Sと判定した場合には一連の処理を終 了する。
一方、 ステップ S 3 6にて N Oと判定した場合には、 本人番号 H iとその注目先との属するグループを同じにしなければならないこ とから、 グループ判定部 G J Dは、 ステップ S 3 7の処理として、 それそれの属する 2つのグループをマージする。 すなわち、 2つの グループのうち番号の小さい側に大きい側をマージ、 より具体的に は、 小さい側の人数に大きい側の人数を加算し、 小さい側のメンバ 一に大きい側のメンバ一を追加し、 大きい側の人数を 0、 大きい側 のメンバ一を空にする。 この結果、 要件 2が満たされ、 全ての要件 が満たされることから、 グループ判定部 G J Dは、 一連の処理を終 了する。
このようにして、 グループ判定部 G J Dは、 注目先表における会 議参加者 H iのェン トリの反映に関する要件についての確認を終了 する。
次に、 本人番号 H iのエント リに関する反映の終了後には、 本人 番号 H iのエント リの反映とともに、 その 1つ前の本人番号 H i - 1までのエントリの反映がされていることが要件となる。 なお、 本 人番号 H 1のエント リに関する反映に関しては、 それまでに他のェ ント リを反映していないので、 当該本人番号 H 1のエントリだけが 反映されていればよい。 一方、 本人番号 H iのエント リを反映する場合に行う操作は、 グ ループ表への新規登録、 グループ表における 2グループのマージ、 及び、 注目先表におけるグループ表への登録内容の 「〇」 への変更 である。 ここで、 この結果として本人番号 H iの 1つ前の本人番号 H i— 1までのェン トリにしたがい登録した番号が消されること、 グループ表への登録が 「X」 になることはなく、 同じグループに属 していた 2つの番号が分断されることもない。 このため、 本人番号 H iについての反映処理により、 その 1つ前の本人番号 H i— 1ま での処理において満たされていた要件が満たされなくなることはな い。 したがって、 全ての本人番号 H iに関し、 本人番号 H iのェン ト リに関する図 1 1に示した処理の終了後、 本人番号 H 1から H i の全てのェント リに関する要件が満たされていることがわかる。 つぎに、 図 1 1に示したフローチャートの処理を行った場合の注 目先表及びグループ表の内容の変遷について、 具体例を挙げながら 説明する。 なお、 ここでは、 初期状態として、 グループ表は図 7に 示したような状態となっており、 また、 グループ判定用情報が反映 されたときの注目先表が図 1 0に示したようになっている場合を例 に挙げ、 これらの注目先表とグループ表とがどのように変遷するか について説明する。
まず、 会議参加者 H M 1 (本人番号 H 1 ) のェント リの反映につ いて説明する。
このとき、 グループ表への登録内容は 「X」 であることから、 図 1 1中ステップ S 3 1において N Oと判定され、 次のステップ S 3 2において本人番号 H 1のエント リへの登録が行われる。 このステ ップ S 3 2の処理の結果、 グループ表は、 図 1 2に示すように、 最 小の番号のグループであるグループ番号 G 1について人数が 1とな り、 メンバ一には自己を表す本人番号 H 1が登録される。 また、 こ のとき、 注目先表は、 図 13に示すように、 本人番号 H 1について のグループ表への登録内容が 「〇」 となる。
次に、 ステップ S 33の判定処理において YE Sと判定され、 注 目先として例えば会議参加者 HM 3を表す注目先番号 A 3が得られ たときには、 図 13に示すように、 本人番号 H 3のェントリのグル ープ表への登録内容が 「X」 となっていることから、 ステップ S 3 4の判定処理において N 0と判定され、 その結果、 ステップ S 38 において当該注目先の本人番号 H 3が自グループであるグループ G 1に登録される。 これにより、 グループ表は、 図 14に示すように、 グループ G 1について人数が 2となり、 そのメンバ一が H I, H 3 とされる。 また、 注目先表は、 図 15に示すように、 それら本人番 号 H 1及び本人番号 H 3についてのグループ表への登録内容が 「〇」 となる。
これにより、 会議参加者 HM 1 (本人番号 H I) についてのェン トリの反映は終了する。
続いて、 会議参加者 HM2 (本人番号 H2) のエント リの反映に ついて説明する。
本人番号 H 2のェント リの反映を行う場合には、 この時点でのグ ループ表への登録内容は 「X」 であることから、 図 1 1中ステップ S 3 1において NOと判定され、 次のステップ S 32において本人 番号 H 2のエント リへの登録が行われる。 このステップ S 32の処 理の結果、 グループ表は、 図 16に示すように、 最小の番号の次の グループであるグループ番号 G 2について人数が 1となり、 メンバ 一には自己を表す本人番号 H 2が登録される。 また、 このとき、 注 目先表は、 図 17に示すように、 本人番号 H 2についてのグループ 表への登録内容が 「〇」 となる。 さらに、 この図 17の例に示すよ うに、 本人番号 H 2についての注目先番号が例えば A 0となってい る場合には、 この時点でエントリの反映処理が終了する。
続いて、 会議参加者 HM3 (本人番号 H3) のエント リの反映に ついて説明する。
本人番号 H 3のエント リの反映を行う場合には、 この時点でのグ ループ表への登録内容は、 先の本人番号 H 1のェント リ反映処理が 行われている結果、 図 17に示すように、 「〇」 となされているこ とから、 図 1 1中ステップ S 3 1において YE Sと判定され、 さら に、 本人番号 H 3の会議参加者 HM 3が例えば会議参加者 HM 5を 注目しているとすると、 ステップ S 33において YE Sと判定され る。 この時点で、 注目先の本人番号 H 5についてのグループ表への 登録内容は、 図 17に示すように、 「X」 となっていることから、 図 1 1中ステップ S 34において NOと判定される。
その結果、 ステップ S 38において当該注目先の本人番号 H 5は、 本人番号 H 3についての自グループであるグループ G 1に登録され る。 これにより、 グループ表は、 図 18に示すように、 グループ G 1について人数が 3に更新され、 そのメンバ一が H I, H 3 , H 5 に更新される。 また、 注目先表は、 図 1 9に示すように、 本人番号 H 5についてのグループ表への登録内容が 「〇」 に更新される。 これにより、 会議参加者 HM3 (本人番号 H 3) についてのェン ト リの反映は終了する。
続いて、 会議参加者 HM4 (本人番号 H4) のエン ト リの反映に ついて説明する。
本人番号 H 4のェント リの反映を行う場合には、 この時点でのグ ループ表への登録内容は 「X」 であるこ.とから、 図 1 1中ステップ S 3 1において N 0と判定され、 次のステップ S 3 2において本人 番号 H 4のェントリへの登録が行われる。 このステップ S 3 2の処 理の結果、 グループ表は、 図 2 0に示すように、 既に設定されてい るグループ G 1, G 2の次のグループであるグループ番号 G 3につ いて人数が 1 となり、 メンバーには自己を表す本人番号 H 4が登録 される。 また、 このとき、 注目先表は、 図 2 1に示すように、 本人 番号 H 4についてのグループ表への登録内容が 「〇」 となる。 次に、 ステップ S 3 3の判定処理において Y E Sと判定され、 注 目先として例えば会議参加者 H M 2を表す注目先番号 A 2が得られ たときには、 この時点での注目先表は、 図 2 1に示すように、 注目 先である本人番号 H 2のグループ表への登録内容が 「〇」 となって いることから、 ステップ S 3 4の判定処理において Y E Sと判定さ れる。
次に、 ステップ S 3 5において当該注目先の本人番号 H 2につい てグループ番号の探索を行うことにより、 当該注目先の本人番号 H 2のグループ番号 G 2が求められる。 そして、 次のステップ S 3 6 において、 現時点での本人番号 H 4についてのグループ番号は G 3 であり、 一方、 注目先の本人番号 H 2のグループ番号 G 2となされ ていることから、 N Oと判定され、 次のステップ S 3 7において、 本人番号 H 4についてのグループ番号 G 3は、 より小さい番号であ る注目先の本人番号 H 2のグループ番号 G 2にマージされる。
これにより、 グループ表は、 図 2 2に示すように、 グループ G 2 について人数が 2に更新され、 そのメンバーが H 2, H 4に更新さ れる。 また、 注目先表は、 図 2 3に示すように、 更新される。 すな わち、 注目先表は、 図 2 1に示したもののままとされる。
これにより、 会議参加者 HM4 (本人番号 H 4) についてのェン トリの反映は終了する。
最後に、 会議参加者 HM 5 (本人番号 H 5 ) のエント リの反映に ついて説明する。
本人番号 H 5のエントリの反映を行う場合には、 この時点でのグ ループ表への登録内容は図 2 3に示したように 「〇」 となされてい ることから、 図 1 1中ステップ S 3 1において YE Sと判定され、 さらに、 本人番号 H 5の会議参加者 HM 5が例えば会議参加者 HM 3を注目しているとすると、 ステップ S 33において YE Sと判定 される。 この時点で、 注目先の本人番号 H 3についてのグループ表 への登録内容は、 図 2 3に示したように、 「〇」 となっていること から、 図 1 1中ステップ S 34において YE Sと判定される。 次に、 ステップ S 3 5において当該注目先の本人番号 H 3につい てグループ番号の探索を行うことにより、 当該注目先の本人番号 H 3のグループ番号 G 1が求められる。 そして、 次のステップ S 36 において、 注目先の本人番号 H 3のグループ番号 G 1となされてお り、 また、 このグループ番号 G 1には既に本人番号 H 5が登録され ていることから、 YE Sと判定され処理を終了する。
これにより、 グループ表は、 図 24に示すように、 更新され、 ま た、 注目先表は、 図 2 5に示すように、 更新される。 すなわち、 グ ループ表は、 図 2 2に示したもののままとされ、 注目先表は、 図 2 3に示したもののままとされる。 以上説明したような処理により、 注目先表の全ての本人番号に関 する情報の反映が終わった段階で、 注目先表の 「グループ表への登 録」 は全て 「〇」 となり、 また、 全ての本人番号はそれそれグルー プ表においてどれか 1つのグループのメンバーとして登録されてい ることになる。
上述したグループ判定部 G J Dは、 このような全ての情報反映が 終了した時点での注目先表及びグループ表の情報を、 上述したよう に、 各会議参加者 HMが何れのグループに属しているか、 すなわち 何れの話題に参加しているかを表すグループ情報として生成する。 なお、 このグループ情報は、 サーバ S Vから各遠隔会議装置 T C Dに送信されることになるが、 このときの送信内容及び送信先とし ては、 例えばグループ表における人数が 0でないグループの構成全 てを全地点の遠隔会議装置 T CDに送信する場合や、 各地点の遠隔 会議装置 T CDに対しその地点で会議参加者 HMが属しているグル —プの構成を送信するといつた方法が考えられる。
つぎに、 遠隔会議システムにおいて、 各遠隔会議装置 T CDから 送信された画像データ及び音声デ一夕と、 サーバ SVから上述した グループ情報とを受け取った遠隔会議装置 T CDの動作について説 明する。 なお、 ここでは、 各遠隔会議装置 T CD l〜TCDnのう ち、 代表して図 2に示した遠隔会議装置 T CD 1を例に挙げてその 動作を説明する。
遠隔会議装置 T CD 1における情報送受信部 TRB 1は、 通信ネ ッ トワーク NTを介して送信されてきた信号を受信すると、 この信 号から各遠隔会議装置 T CD 2〜T CD nにそれそれ対応する画像 データ及び音声デ一夕を分離するとともに、 上述したグループ情報 を取り出し、 分離した各画像デ一夕及び各音声データをそれそれ情 報加工部 PB 1に供給するとともに、 取り出したグループ情報も情 報加工部 PB 1に供給する。
情報加工部 PB 1は、 グループ情報に基づいて、 各遠隔会議装置 T CD 2〜T CD ηにそれそれ対応する画像デ一夕及び/又は音声 データに対して情報加工を行う際に利用するパラメ一夕を演算し、 さらに、 この演算によって求めたパラメ一夕に基づいて、 各遠隔会 議装置 T CD 2〜T CD ηにそれそれ対応して分離された画像デー 夕及び/又は音声データに対して所望の調整処理を施し、 その調整 処理後の各画像データ ·各音声デ一夕を、 各遠隔会議装置 T CD 2 〜T C D ηに対応して設けられている各モニタ装置 MD 2〜MD n に対して供給する。
ここで、 情報加工部 PB 1における調整処理の具体的な内容につ いて、 以下に例を挙げながら説明する。
この調整処理の第 1の具体例としては、 他の遠隔会議装置 T CD 2〜T CD nから遠隔会議装置 T CD 1に送信されてきた画像デー 夕及び音声データのうち、 特に音声データをグループ情報から生成 したパラメ一夕に基づいて増幅させる処理を挙げることができる。 図 26に、 この調整処理の第 1の具体例として、 グループ情報か ら生成したパラメ一夕に基づいて音声デ一夕を増幅させるようにし た場合の遠隔会議装置 T CD 1における情報加工部 P B 1の主要部 の概略構成を示す。
この図 26において、 遠隔会議装置 T CD 1における情報加工部 PB 1の端子 2 1には、 上述した倩報送受信部 TRB 1が分離した 各遠隔会議装置 T CD 2〜T CD nに対応する音声デ一夕が供給さ れ、 端子 22には、 情報送受信部 TRB 1からグループ情報が供給 される。 なお、 この図 26の例では、 画像デ一夕については当該情 報加工部 PB 1をそのまま通過してそれそれ対応するモニタ装置 M D 2〜MD nに供給されるため、 当該画像デ一夕の経路については 省略している。
各遠隔会議装置 T CD 2〜T CD ηに対応する音声データは、 各 モニタ装置 MD 2〜MD ηに対応して設けられている音声加工器 A P 2〜AP nに供給される。 なお、 以下では、 各音声加工器 AP 2 〜AP nを個々に区別する必要がない場合には、 単に音声加工器 A Pと記述するものとする。
音声加工パラメ一夕演算部 20は、 グループ情報に基づいて、 こ の遠隔会議装置 T CD 1の会議参加者 HM 1が何れのグループに属 しているのか、 すなわち何れの話題に参加しているのかを認識し、 会議参加者 HM 1が属しているグループに対応する音声の音量のみ を上げ、 それ以外の音声の音量を下げるためのパラメ一夕を生成す る。 すなわち、 音声加工パラメ一夕演算部 20は、 会議参加者 HM 1が属しているグループ内の会議参加者 HMの発言の音声を増幅し、 且つ、 その他の会議参加者 HMの発言の音声を減衰するためのパラ メータとして、 音声増幅率を演算によって求める。 この音声加工パ ラメ一夕演算部 20から各モニタ装置 MD 2〜MDnに対応して個 々に出力された音声増幅率の情報は、 これらの各モニタ装置 MD 2 〜MD nに対応して設けられている音声加工器 A P 2〜AP nに供 口され 。
これにより、 各音声加工器 AP 2〜ΑΡηは、 音声増幅率の情報 に基づいて、 それそれ個々に供給されている音声デ一夕を増幅或い は減衰させる調整処理を行う。 これらの各音声加工器 A P 2〜A P nにて調整処理が施された後の音声デ一夕は、 それそれ対応する出 力端子 A O 2〜A O nから出力され、 図 2に示した信号処理装置 S P D 1における対応する出力端子 T 0 2〜T 0 nに供給される。 信号処理装置 S P D 1における各出力端子 T O 2〜T O nより出 力された音声データは、 それそれ対応したモニタ装置 M D 2〜M D nのスピーカに供給される。 これにより、 会議参加者 H M 1が属し ているグループ、 すなわち話題に参加しているグループに対応する モニタ装置 M Dのスビーカより発生される音声の音量は、 大きく聞 き易い状態となり、 一方、 会議参加者 H M 1が属していないグルー プ、 すなわち話題に参加していないグループに対応するモニタ装置 M Dのスピーカより発生される音声の音量は、 小さくなる。
すなわち、 この調整処理において、 上述したように、 自己、 すな わちこの例では会議参加者 H M 1が属しているグループに対応する 音声のみを増幅しょうとするのは、 以下のような理由による。
例えば、 通信ネッ トワークを利用した遠隔会議システムのように、 複数の会議参加者がそれそれ遠隔会議装置を使用して会議を行うよ うな場合には、 例えば複数の話題が同時に存在すると、 自分の聞き たい話題の音声が他の話題の音声に邪魔されて聞こえ難いことがあ る。 この問題を解決するためには、 例えば自分の注目している会議 参加者の発言の音声のみを聞こえ易く し、 それ以外の会議参加者の 発言の音量を下げればよい。 しかしながら、 一般的な会議では、 複 数の会議参加者が同じ話題についてそれそれ発言を行うため、 上述 したように、 自分の注目している会議参加者の発言の音声のみを聞 こえ易く し、 それ以外の会議参加者の発言の音量を下げるようにす ると、 例えば同じ話題に参加している各会議参加者の中で自分が注 目していない別の会議参加者の発言の音量までも下げられてしまう ため、 この別の会議参加者の発言が聞こえにく くなり、 その発言を 聞き逃してしまうことになる虞がある。
そこで、 ここでは、 同じ話題に参加している各会議参加者をグル ープ化し、 そのグループに属している会議参加者の音声については、 自分が注目していなくてもその発言の音量を下げるようなことは行 わないようにし、 別の話題に参加しているグループの発言について の音量のみを下げるようにしている。
このような調整処理の第 1の具体例によれば、 自己、 すなわちこ の場合は会議参加者 H M 1 と同じ話題に参加している各会議参加者 の音声が聞き取り易くなり、 その一方で、 自己と異なる話題の音声 は小さくなり、 自己と同じ話題に参加している各会議参加者の発言 の妨げにならないようになっている。
つぎに、 調整処理の第 2の具体例について説明する。 調整処理の 第 1の具体例としては、 グループ情報に基づいて各会議参加者 H M の発言音声の音量を増幅或いは減衰させる調整の例を挙げたが、 情 報加工部 P B 1は、 調整処理の第 2の具体例として、 グループ情報 に基づいて各会議参加者 H Mの発言音声の周波数特性を調整するよ うなことも可能である。
この調整処理の第 2の具体例のように、 音声の周波数特性を調整 するようにした場合には、 図 2 6に示した音声加工パラメ一夕演算 部 2 0は、 グループ情報に基づいて、 会議参加者 H M 2〜H M nの 発言の音声の周波数特性を個々に調整するためのフィル夕パラメ一 夕を演算によって求め、 このフィル夕パラメ一夕を音声加工器 A P 2〜A P nに供給する。
図 2 7に、 この調整処理の第 2の具体例として、 グループ情報か ら生成したパラメ一夕に基づいて音声の周波数特性を調整するよう な処理を行う場合の音声加工器 A Pの構成例を示す。
この図 2 7において、 端子 3 2には、 端子 2 1を介して倩報送受 信部 T R B 1から供給された図 2 8に示すような周波数特性を有す る音声データが入力され、 端子 3 1には、 音声加工パラメ一夕演算 部 2 0から供給された図 2 9に示すような周波数制御特性のフィル 夕パラメ一夕 K ( t ) が入力される。 なお、 図 2 9に示す F maxは、 固定値とされる入力音声の最大周波数である。 端子 3 2を介した音 声デ一夕と、 端子 3 1を介したフィル夕パラメ一夕 K ( t ) は、 音 声加工器 A Pの主要構成要素である L P F (口一パスフィル夕) に 入力される。
L P Fは、 端子 3 2から供給された図 2 8に示す特性を有する音 声デ一夕に対して、 端子 3 1から入力された図 2 9に示すような K ( t ) · F maxの遮断周波数を有する低域通過のフィル夕処理を施す < これにより、 L P Fからは、 図 3 0に示すような特性の出力音声デ —夕が得られる。 この出力音声データは、 端子 3 3からそれそれ対 応する出力端子 A Oを介してモニタ装置 M Dのスピー力に供給され る。 このスピーカから出力された音声は、 会議参加者 H M 1が属す るグループにおいて聞き取り易いように、 周波数特性制御がなされ たものとなる。
このような調整処理の第 2の具体例によれば、 自己、 すなわちこ の場合は会議参加者 H M 1 と同じ話題に参加している各会議参加者 の音声が聞き取り易くなり、 その一方で、 自己と異なる話題の会議 参加者による音声については、 自己と同じ話題に参加している各会 議参加者の発言の妨げにならないようになっている。
つぎに、 調整処理の第 3の具体例について説明する。 この調整処 理の第 3の具体例としては、 他の遠隔会議装置 T CD 2〜T CDn から遠隔会議装置 T CD 1に送信されてきた画像データ及び音声デ 一夕のうち、 特に画像データをグループ情報から生成したパラメ一 夕に基づいて調整する処理を挙げることができる。
図 3 1に、 調整処理の第 3の具体例として、 グループ情報から生 成したパラメ一夕に基づいて画像データを調整するようにした場合 の遠隔会議装置 TCD 1における情報加工部 PB 1の主要部の概略 構成を示す。
この図 3 1において、 遠隔会議装置 T CD 1における情報加工部 PB 1の端子 24には、 情報送受信部 TRB 1が分離した各遠隔会 議装置 T CD 2〜T CD ηに対応する画像データが供給され、 端子 25には、 情報送受信部 TRB 1からグループ情報が供給される。 なお、 この図 3 1の例では、 音声データについては当該情報加工部 Ρ Β 1をそのまま通過してそれそれ対応するモニタ装置 MD 2〜Μ D ηに供給されるため、 当該音声データの経路については省略して いる。
各遠隔会議装置 T CD 2〜T CD nに対応する画像デ一夕は、 各 モニタ装置 MD 2〜MD nに対応して設けられている画像加工器 V P 2〜VP nに供給される。 また、 グループ情報は、 画像加工パラ メ一夕演算部 23に供給される。
画像加工パラメ一夕演算部 23は、 グループ情報に基づいて、 こ の遠隔会議装置 T C D 1の会議参加者 HM 1が何れのグループに属 しているのか、 すなわち何れの話題に参加しているのかを認識し、 会議参加者 HM 1が属しているグループに対応する画像の輝度や色 のレベルを上げ、 それ以外の会議参加者の画像の輝度や色のレベル を下げるための画質調整用のパラメ一夕を生成する。 すなわち、 画 像加工パラメ一夕演算部 23は、 会議参加者 HM 1が属しているグ ループ内の会議参加者 HMについての画像の輝度や色のレベルを増 幅し、 且つ、 その他の会議参加者 HMについての画像の輝度や色の レベルを減衰等するためのパラメ一夕として、 画質調整値を演算に よって求める。 この画像加工パラメ一夕演算部 23から各モニタ装 置 MD 2〜MD nに対応して個々に出力された画質調整値は、 これ らの各モニタ装置 MD 2〜MD nに対応して設けられている画像加 ェ器 VP 2〜VP nに供給される。
これにより、 各画像加工器 VP 2〜VPnは、 画質調整値に基づ いて、 それそれ個々に供給されている画像デ一夕の輝度や色のレべ ルを増幅或いは減衰させる調整処理を行う。 これらの各画像加工器 VP 2〜VP nにて調整処理が施された後の画像デ一夕は、 それそ れ対応する出力端子 VO 2〜VO nから出力され、 図 2に示した信 号処理装置 SPD 1における対応する出力端子 T 02〜TOnに供 給される。
信号処理装置 S P D 1における各出力端子 Τ 02~ΤΟηより出 力された画像データは、 それそれ対応したモニタ装置 MD 2〜MD nのディスプレイ装置に供給される。 これにより、 会議参加者 HM 1が属しているグループ、 すなわち話題に参加しているグループに 対応するモニタ装置 MDのディスプレイ装置上に表示される画像は、 例えば明るく見易くなり、 一方、 会議参加者 HM 1が属していない グループ、 すなわち話題に参加していないグループに対応するモニ 夕装置 MDのディスプレイ装置上に表示される画像は、 例えば暗く なる。
このような調整処理の第 3の具体例によれば、 自己、 すなわちこ の場合は会議参加者 HM 1と同じ話題に参加している各会議参加者 の画像は見易くなり、 その一方で、 自己と異なる話題の会議参加者 の画像は見難くなり、 自己と同じ話題に参加している各会議参加者 をより鮮明に見ることが可能となる。
図 32に、 この調整処理の第 3の具体例として、 グループ情報か ら生成したパラメ一夕に基づいて画像の画質調整処理を行う場合の 画像加工器 VPの構成例を示す。 なお、 この図 3 2の例では、 画像 加工処理として、 R (赤) 、 G (緑) 、 B (青) の原色デ一夕のそ れそれのゲインを調整する処理を例に挙げる。
図 3 2において、 端子 3 5, 3 6 , 3 7には、 端子 24を介して 情報送受信部 TRB 1から供給された R, G, Bの原色データが入 力され、 端子 34には、 画像加工パラメ一夕演算部 2 3から供給さ れた画質調整値 V(t)が入力される。 端子 3 5 , 3 6 , 37を介した R, G, Bの原色データと、 端子 34を介した画質調整値 V(t)は、 画像加工器 VPに入力される。
画像加工器 VPは、 端子 3 5, 3 6 , 37から入力された R, G, Bの原色データに対して、 端子 34から入力された画質調整値 V (t)による画像加工処理を施す。 これにより、 画像加工器 VPからは、 R, G, Bの各原色データにそれそれ画質調整値 V(t)によるレベル 調整が施されたデータが出力される。 これらの画像加工処理後の R, G, Bのデータは、 それそれ対応する端子 38 , 3 9 , 40から出 力され、 出力端子 VO 2〜VOnを介して、 図 2に示した信号処理 装置 S PD 1における対応する出力端子 T 02〜T Onに供給され る。
つぎに、 調整処理の第 4の具体例について説明する。 この調整処 理の第 4の具体例としては、 他の遠隔会議装置 T CD 2~T CD n から遠隔会議装置 T CD 1に送信されてきた画像データ及び音声デ —夕の両方に対して、 グループ情報から生成したパラメ一夕に基づ く調整処理を行うようにすることも可能である。 すなわち、 この調 整処理の第 4の具体例では、 グループ情報に応じた情報加工処理と して、 音量、 音質、 画質の調整をそれそれ別個に行うのではなく、 それらの調整を組み合わせて行う。
図 33に、 この調整処理の第 4の具体例として、 グループ情報か ら生成したパラメ一夕に基づいて画像データ及び音声デ一夕の両方 に対して調整を行うようにした場合の遠隔会議装置 T CD 1におけ る情報加工部 PB 1の主要部の概略構成を示す。
この図 33において、 遠隔会議装置 T CD 1における情報加工部 PB 1の端子 2 8には、 情報送受信部 T RB 1が分離した各遠隔会 議装置 T CD 2〜T CD ηに対応する画像データと音声デ一夕とが 供給され、 端子 2 9には、 情報送受信部 TRB 1からグループ情報 が供給される。
各遠隔会議装置 T CD 2〜T C D ηに対応する画像データは、 画 像加工装置 2 6に供給され、 各遠隔会議装置 T CD 2〜T CD nに 対応する音声データは、 音声加工装置 2 7に供給される。 また、 グ ループ情報は、 これらの画像加工装置 2 6と音声加工装置 2 7とに 供給される。 画像加工装置 26は、 図 3 1に示したような画像加工器 VP 2〜 VPnを備えている。 したがって、 各遠隔会議装置 T CD 2〜TC D nに対応する画像データは、 図 3 1の場合と同様に、 各画像加工 器 VP 2〜VPnに供給される。 また、 画像加工装置 26に入力さ れたグループ情報は、 図 3 1に示した画像加工パラメ一夕演算部 2 3に供給される。
一方、 音声加工装置 27は、 図 26に示したような音声加工器 A P 2 ~AP nを備えている。 したがって、 各遠隔会議装置 T CD 2 〜T CDnに対応する音声データは、 図 26の場合と同様に、 各音 声加工器 AP 2〜APnに供給される。 また、 音声加工装置 27に 入力されたグループ情報は、 図 26に示した音声加工パラメ一夕演 算部 20に供給される。
画像加工装置 26にて図 3 1に示したものと同様に画質調整処理 が施された画像データと、 音声加工装置 27にて図 26に示したも のと同様に音量或いは音質調整処理が施された音声デ一夕は、 それ それ対応する出力端子 S 02〜 SOnを介して、 図 2に示した信号 処理装置 S PD 1における対応する出力端子 T 02〜T 0 nに供給 される。
信号処理装置 S PD 1における各出力端子 TO 2〜T Onより出 力された画像データ及び音声データは、 それそれ対応したモニタ装 置 MD 2〜MD nのディスプレイ装置とスピーカとに供給される。 これにより、 会議参加者 HM 1が属しているグループ、 すなわち話 題に参加しているグループに対応するモニタ装置 MDのディスプレ ィ装置上に表示される画像は見易くなり、 且つ、 その音声は聞き取 り易くなる。 一方、 会議参加者 HM 1が属していないグループ、 す なわち話題に参加していないグループに対応するモニタ装置 M Dの ディスプレイ装置上に表示される画像は暗くなり、 且つ、 その音声 は邪魔にならないものとなる。
このような調整処理の第 4の具体例によれば、 自己、 すなわちこ の場合は会議參加者 H M 1 と同じ話題に参加している各会議参加者 の画像は見易くなり且つ音声は聞き易くなり、 その一方で、 自己と 異なる話題の会議参加者の画像は見難く、 音声は邪魔にならなくな る。
なお、 音声についての情報加工処理としては、 同じグループに属 していない会議参加者の音声の音量を下げる例や、 周波数の低域通 過フィル夕を用いることによって音声における最大周波数を低くす る例以外に、 音量と周波数をともに変化させる例といったものが考 えられる。 また、 音声についての情報加工処理としては、 同じグル ープであった会議参加者が同じグループでなくなるとき、 及び、 そ の逆の変遷があるときの音量や最大周波数を瞬時に変化させる方法 以外に、 特定の時定数を以て徐々に変化させる例も考えられる。 また、 画像についての情報加工処理としては、 同じグループに属 していない会議参加者の画像の輝度を下げる例だけでなく、 それら 同じグループに属さない会議参加者の画像を無彩色、 或いは、 色を 薄くする例や、 輝度及び色ともに加工する例、 画像の解像度ゃシャ —プネスを調整する例といったものが考えられる。 また、 画像につ いての情報加工処理としては、 同じグループであった会議参加者が 同じグループでなくなるとき、 及び、 その逆の変遷があるときの画 像の輝度や色を瞬時に色を変化させる方法以外に、 特定の時定数を 以て徐々に変化させる例も考えられる。 さらに、 音声と画像について上述したように特定の時定数を以て 徐々に変化させるようにした場合には、 その制御を音声と画像とで 同期して行う例や、 片方の変化を一定時間遅らせる例、 両者で時定 数を変える例といったものが考えられる。
なお、 注目度に応じて音量を調整する技術については、 本願出願 人が既に出願している特願平 1 0— 2 8 7 5 0 6号に記載されてい る。
つきに、 図 2に示したグループ判定用情報生成部 J B 1において、 会議参加者 H M 1の例えば正面に配置されているモニタ装置 M D m のカメラから供給された画像デ一夕に基づき、 会議参加者 H M 1が 注目している方向、 すなわちモニタ装置 M D 2 ~ M D nの何れか或 いはそれら以外の方向を検出する際の処理の具体例について説明す る。
遠隔会議装置 T C D 1におけるグループ判定用情報生成部 J B 1 で行われる会議参加者 H M 1の注目する方向検出処理の第 1の具体 例としては、 以下に述べるように、 会議参加者 H M 1の視線の向き 検出、 すなわち視線検出を挙げることができる。
図 3 4に、 グループ判定用情報生成部 J B 1にて視線検出を行う 場合の処理の流れを示す。
グループ判定用情報生成部 J B 1は、 図 3 4に示すように、 ステ ヅプ S 4 1の処理として、 例えば会議参加者 H M 1の正面に配置さ れたモニタ装置 M D mに設けられているカメラが撮像した画像デ一 夕を受け取ると、 次のステップ S 4 2の処理として、 この供給され た画像の色彩情報を用いて、 会議参加者 H M 1の顔画像における両 目の輪郭を検出する。 すなわち、 グループ判定用情報生成部 J B 1 は、 供給された画像の色彩情報から例えば肌、 白目、 黒目等の色領 域を抽出し、 それら抽出した色領域の例えば境界を求めること等に より、 図 3 5に示すように、 右目の輪郭 E及び左目の輪郭 Eを検出 する。 なお、 図 3 5では、 片目のみを示している。
次に、 グループ判定用情報生成部 J B 1は、 ステップ S 4 3の処 理として、 ステップ S 4 2で求めた両目のそれそれの輪郭 Eに基づ いて、 右目の左右端点 F l, F 2の位置及び左目の左右端点 F 1 , F 2の位置を求め、 これらの右目及び左目のそれそれの左右端点 F 1, F 2の位置を基準として、 図 3 6に示すような鼻孔を探索する ための探索範囲 N Eを決定し、 この探索範囲 N E内から鼻孔 N Hの 位置を検出する。 すなわち、 グループ判定用情報生成部 J B 1は、 左右両目について、 図 3 5に示すように、 それぞれ目の輪郭 Eを構 成する画素集合の重心 Qと、 目の輪郭 Eを構成する画素集合の 2次 モーメント (線に関する慣性) を最小にする線 Mとを求め、 さらに、 目の輪郭 Eを構成する画素集合の中から、 線 Mの方向において重心 Qからの距離が最大距離 L 1 , L 2となる位置の画素を、 重心 Qか ら左右方向に 1つずつ求め、 これらの画素位置を左右端点 F 1 , F 2として求める。 次いで、 グループ判定用情報生成部 J B 1は、 図 3 6に示すように、 上述のようにして求めた右目の左右端点 F 1, F 2の位置と、 左目の左右端点 F l, F 2の位置とを基準とし、 こ れらの各左右端点 F l , F 2から下方側に、 鼻孔を探索するための 探索範囲 N Eを決定する。 ここで、 鼻孔 N H部分の画像は他の部分 の画像に比べて暗く写ることから、 グループ判定用情報生成部 J B 1は、 探索範囲 N E内で輝度が低い画像部分を鼻孔 N Hの位置とし て検出する。 次に、 グループ判定用情報生成部 J B 1は、 ステップ S 4 4の処 理として、 図 3 7に示すように、 右目の左右端点 F l, F 2の位置 と、 左目の左右端点 F l , F 2の位置と、 鼻孔 NHの位置との幾何 学的な位置関係に基づいて、 眼球 E Bの中心位置 E C及び眼球 E B の半径 rを推定する。
さらに、 グループ判定用情報生成部 J B 1は、 ステップ S 4 5の 処理として、 右目の輪郭 E及び左目の輪郭 E内の画像の輝度情報を 用いて、 図 3 6に示すように、 瞳孔 E Aの中心位置 E A Cを検出す る o
次に、 グループ判定用情報生成部 J B 1は、 ステップ S 4 6の処 理として、 図 3 8に示すように、 ステップ S 44で検出した眼球 E Bの中心位置 E Cと、 ステップ S 4 5で検出した瞳孔 E Aの中心位 置 E ACとを結ぶべク トル EVを演算し、 得られたべク トル EVを 視線の方向として、 そのべク トル E Vがモニタ装置 MD 2〜MD n のうちの何れを向いているかの方向判定を行う。
以上の流れにより、 グループ判定用情報生成部 J B 1は、 会議参 加者 HM 1の視線を検出する。
なお、 輪郭 Eのような特定の画素集合の 2次モ一メントを最小に する線 Mは、 例えば以下のような演算によって求めることができる < ここでは、 図 3 9に示すように、 次式 ( 1 ) で表される直線 Mを 例に挙げる。
X sin^— y cos^ + p = 0 ( 1 ) また、 輪郭 Eの画素集合上の各点 (X i , y i ) と直線 Mとの距離 008303
56 を Riとするとき、 直線 Mに関する 2次モーメント mは、 次式 ( 2 ) のように表すことができる。
Figure imgf000058_0001
すなわち、 2次モーメントを最小にする直線 Mとは、 上式 ( 2 ) の mを最小にする直線 Mのことである。 結論を述べると、 上式
( 2 ) の mを最小にするには、 上式 ( 2 ) 中の 0、 /oとして、 次式
( 3) 及び次式 (4 ) の条件を満たすものを使用する。
Θ : sin26» =b/(b2 + (a-c)2)1/2 J
cos26l = (a-c)/(b2 + (a-c)2)1/2 ( 3 ) p : p = -xosin0 + y ocos θ 4 なお、 上式 (4) ( osin6> - y ocos6> + = 0) は、 画素集合 の重心を通ることを意味する。
但し、 上式 ( 3 ) 及び上式 (4 ) において、 a, b, cは、 次式 ( 5 ) 、 次式 ( 6 ) 及び次式 ( 7 ) で表される。 なお、 (x。, y o) は、 画素集合の重心である。
Figure imgf000059_0001
b = 2∑ (Xi-x0 )(yi-y0 ) (6)
Figure imgf000059_0002
つぎに、 遠隔会議装置 T CD 1におけるグループ判定用情報生成 部 J B 1で行われる会議参加者 HM 1の注目する方向検出処理の第 2の具体例について説明する。 この方向検出処理の第 2の具体例と しては、 以下に述べるように、 会議参加者 HM 1の顔向き検出を挙 げることができる。
図 40に、 グループ判定用情報生成部 J B 1にて顔向き検出を行 う場合の処理の流れを示す。
グループ判定用情報生成部 J B 1は、 図 40に示すように、 ステ ップ S 5 1の処理として、 会議参加者 HM 1の正面に配置されたモ 二夕装置 MDmに設けられているカメラから、 例えば図 41や図 4 2に示すような顔の原画像デ一夕が供給されると、 次のステップ S 52の処理として、 この供給された顔画像の色彩情報を用いて、 肌 領域と髪領域とを検出する。 すなわち、 グループ判定用情報生成部 •JB 1は、 供給された顔画像の色彩情報から、 例えば肌、 髪の色領 域を抽出し、 それら抽出した色領域により、 図 43や図 44に示す ように、 肌領域 s eと髪領域 heとを検出する。
次に、 グループ判定用情報生成部 J B 1は、 ステップ S 53の処 理として、 図 45や図 46に示すように、 肌領域 s eと髪領域 h e との和領域 f e ( = s e + h e ) の重心 f qと、 肌領域 s eの重心 s qとの検出を行うための枠の設定を行う。 ここで、 この枠の設定 は、 画像の例えば垂直方向の範囲指定によって行う。 具体的に説明 すると、 この範囲指定は、 例えば髪領域 h eと肌領域 s eとの和領 域 f eの上端 r eを基準とし、 この基準の上端 r eより下方向の区 間 const— aから区間 const— a + const— bの間を範囲とするように 行う。
続いて、 グループ判定用情報生成部 J B 1は、 ステップ S 5 4の 処理として、 ステップ S 5 3にて設定した枠の範囲内において、 髪 領域 h eと肌領域 s eとの和領域 f eの重心 f qと、 肌領域 s eの 重心 s qとを求める。 なお、 これらの重心は、 後段の処理において、 水平方向成分と垂直方向成分との両方を用いる場合や、 水平方向成 分と垂直方向成分との何れかを用いる場合が考えられるが、 ここで は一例として水平方向成分についてのみ用いる場合の例を挙げて説 明する。
グループ判定用情報生成部 J B 1は、 ステップ S 5 4にて髪領域 h eと肌領域 s eとの和領域 f eの重心 f qと、 肌領域 s eの重心 s qとを求めると、 ステップ S 5 5の処理として、 肌領域 s eの重 心 s qの値から、 髪領域 h eと肌領域 s eとの和領域 f eの重心 f qの値を引いた差分値を求める。
次に、 グループ判定用情報生成部 J B 1は、 ステップ S 5 6の処 理として、 ステップ S 5 5にて求めた差分値から顔の向きを検出す る。 ここで、 差分値から顔向きを検出する処理としては、 例えば以 下のような 2つの方法の何れかを用いる。 なお、 ここでは、 差分値 を X、 顔向き角度を Yで表現することにし、 また、 会議参加者 H M 1がモニタ装置 MDmのカメラの方向を向いているときの角度を 0 度と定義する。 ステップ S 56の処理の一方法例では、 当該顔向き 検出処理に先立って、 予め差分値 Xと顔向き角度 Yとに関する統計 をとり、 差分値 Xに対する顔向き角度 Yの値を例えば平均値として 求め、 図 47に示すようにその対応関係のグラフを用意しておき、 この図 4.7の対応関係に基づいて、 ステップ S 55にて求めた差分 値 Xから顔向き角度 Yを得る。 また、 ステップ S 56の処理の他の 方法例では、 ステップ S 55にて求めた差分値 Xを用い、 次式
(8) によって顔向き角度 Yを求める。
Y =a*sin (X) ( 8 ) 以上の流れにより、 グループ判定用情報生成部 J B 1は、 会議参 加者 HM 1の顔向きを検出する。
なお、 この顔向き検出処理については、 本願出願人が既に出願し ている特願平 1 1— 253853号に記載されている。
また、 会議参加者 HM 1の向いている方向を検出するさらに他の 具体的な方法としては、 例えば、 会議参加者 HM 1の顔に赤外線を 照射し、 この会議参加者 HM 1の顔にて反射された赤外線を受光し て生成した画像を用いて、 方向検出を行うような方法も考えられる < つぎに、 図 2に示した遠隔会議装置 T CD 1における各モニタ装 置 MD 2〜MD nの具体的構成例について、 図 48及び図 49を用 いて説明する。 なお、 図 48には、 モニタ装置 MDの側面側の概略 的な透視図を示し、 図 49には、 モニタ装置 MDの概略的な正面図 を示している。 各モニタ装置 MD 2〜MD nは、 それそれが図 48及び図 49に 示すように、 主要構成要素として、 筐体 50と、 筐体 50の正面、 すなわちモニタ装置 MDの正面側に設けられるスピーカ 53と、 画 面 54が所定の方向、 すなわち図 48及び図 49の例では上方に向 くように配置されたディスプレイ装置 55と、 このディスプレイ装 置 55の画面 54から出た光を同図中一点鎖線 BOに示すように反 射してモニタ装置 MDの正面側に導く とともに、 同図中二点鎖線 B Iに示すように当該モニタ装置 MDの正面側から入射した光を透過 するハーフミラ一 52と、 このハーフ ミ ラー 52の後方に支持部 5 8によって支持されて配置される例えばビデオカメラといったカメ ラ 56とを備えている。 また、 モニタ装置 MDの例えば筐体 50の 上面には、 支持部 57によって支持されたマイクロホン 5 1が設け られている。 なお、 このマイクロホン 5 1は、 モニタ装置 MD 2〜 MD nのうち、 例えば会議参加者 HM 1の正面に配置されているモ 二夕装置、 すなわち図 2の例ではモニタ装置 M Dmにのみ設けるよ うにしてもよい。
各モニタ装置 MD 2〜MDnにおける各カメラ 56は、 図 48中 二点鎖線 B Iに示すように、 例えば会議参加者 HM 1の光像等のハ 一フミラー 52を透過した入射光を取り込んで画像デ一夕に変換す る。 これらの各カメラ 56から出力された画像データは、 信号処理 装置 SPD 1における情報送受信部 TRB 1に供給され、 通信ネッ トワーク NTを介して各遠隔会議装置 T CD 2〜T CD nに送信さ れる。 また、 各モニタ装置 MD 2〜MD nのうち、 特に、 会議参加 者 HM 1の例えば正面に配置されるモニタ装置 M Dmのカメラ 56 から出力された画像デ一夕は、 信号処理装置 S P D 1におけるグル —プ判定用情報生成部 J B 1にも供給され、 上述したように、 グル —プ判定用情報生成の際の視線検出或いは顔向き検出のために用い られる。
各モニタ装置 MD 2〜MD nにおける各マイクロホン 5 1は、 遠 隔会議装置 T CD 1の周囲の音や会議参加者 HM 1の発言等の音を 音声デ一夕に変換する。 これらの各マイクロホン 5 1から出力され た音声デ一夕は、 信号処理装置 S PD 1における情報送受信部 TR B 1に供給され、 通信ネッ トワーク NTを介して各遠隔会議装置 T CD 2〜T CDnに送信される。
また、 これらのモニタ装置 MD 2〜MD nのうち、 モニタ装置 M D 2のディスプレイ装置 55の画面 54上には、 例えば遠隔会議装 置 T CD 2において会議参加者 HM 1に対応して設けられているモ 二夕装置 MD 1のカメラ 56によって撮影されて通信ネッ トワーク NTを介して供給されてきた画像データ、 すなわち会議参加者 HM 2及びその周辺風景の画像デ一夕に基づく画像が表示され、 また、 遠隔会議装置 T CD 1におけるモニタ装置 MD 2のスピーカ 53か らは、 遠隔会議装置 T CD 2において会議参加者 HM 1に対応して 設けられているモニタ装置 MD 1のマイクロホン 5 1によって取り 込まれて通信ネッ トワーク NTを介して供給された音声データ、 す なわち会議参加者 HM 2の発言による音声データに基づく音声が出 力される。 同様に、 モニタ装置 MD 3のディスプレイ装置 55の画 面上には、 遠隔会議装置 T CD 3において会議参加者 HM 1に対応 して設けられているモニタ装置 MD 1のカメラ 56によって撮影さ れて送信されてきた画像データに基づく画像が表示され、 スピー力 53からは、 遠隔会議装置 T CD 3において会議参加者 HM 1に対 応して設けられているモニタ装置 MD 1のマイクロホン 5 1によつ て取り込まれて送信されてきた音声データに基づく音声が出力され る。 他のモニタ装置 MDも同様であり、 それそれ対応する遠隔会議 装置 T CDから送信されてきた画像が表示され、 また音声が出力さ れる。
ここで、 各モニタ装置 MD 2〜MD nは、 図 48に示したように、 ディスプレイ装置 55の画面 54から出た光が、 ハーフミラ一 52 によって同図中一点鎖線 B 0に示す方向へと反射されて会議参加者 HM 1側へ進むように構成されていることから、 ディスプレイ装置 55の画面 54上に表示される相手方の会議参加者 HMの顔画像等 は、 ハーフミラ一 52によって反射されることで本来の正しい状態 に視認できる鏡像となされている。 なお、 図 49中 RVは、 デイス プレイ装置 55の画面 54上に表示された相手方の会議参加者 HM の鏡像がハーフミラー 52によって反射されて得られる像、 すなわ ち相手方会議参加者 HMの顔の虚像である。
また、 モニタ装置 MDにおいて、 ディスプレイ装置 55の画面 5 4上に相手方の会議参加者の鏡像を表示する際には、 ハーフミラ一 52を介することで当該鏡像の目の位置と光学的に共役となる虚像 の目の位置が、 カメラ 56のレンズの主点と略々一致するように表 示を行うことにより、 会議参加者 HM 1と相手方会議参加者 HMと の視線が一致するようにしている。
すなわち、 一例として、 遠隔会議装置 TCD 1では会議参加者 H M 1がモニタ装置 MDmの方を見て会議参加者 HMmの画像を見て おり、 遠隔会議装置 T CDmでは会議参加者 HMmがモニタ装置 M D 1の方を見て会議参加者 HM 1の画像を見ている場合を例に挙げ て説明する。 この例の場合、 遠隔会議装置 T CD 1におけるモニタ 装置 MDmのディスプレイ装置 55の画面 54上に表示されるのは- 会議参加者 H Mmの顔等の鏡像であり、 モニタ装置 MDmのカメラ 56では、 当該モニタ装置 MDmの方を向いている会議参加者 HM 1の画像が取り込まれ、 その画像データが遠隔会議装置 T C D m等 に送信される。 また、 この例の場合、 遠隔会議装置 T CDmにおけ るモニタ装置 MD 1のデイスプレイ装置 55の画面 54上に表示さ れるのは、 会議参加者 HM 1の顔等の鏡像であり、 モニタ装置 MD 1のカメラ 56では、 当該モニタ装置 MD 1の方を向いている会議 参加者 H Mmの画像が取り込まれ、 その画像データが遠隔会議装置 T C D 1等に送信される。
このような状態となっている場合において、 遠隔会議装置 T CD 1側では、 モニタ装置 MDmのディスプレイ装置 55の画面 54上 に相手方の会議参加者 H Mmの鏡像を表示する際に、 当該鏡像の目 の位置と光学的に共役となる虚像の目の位置がカメラ 56のレンズ の主点と略々一致するように表示を行うようにし、 同時に、 遠隔会 議装置 T CDm側では、 モニタ装置 MD 1のディスプレイ装置 55 の画面 54上に相手方の会議参加者 HM 1の鏡像を表示する際に、 当該鏡像の目の位置と光学的に共役となる虚像の目の位置がカメラ 56のレンズの主点と略々一致するように表示を行うようにするこ とにより、 遠隔会議装置 T CD 1側では、 会議参加者 H M lの視線 と相手方会議参加者 H Mmの虚像の視線とがー致するようになり、 また、 遠隔会議装置 T CDmでは、 会議参加者 HMmの視線と相手 方会議参加者 HM 1の虚像の視線とがー致するようになる。
なお、 一般的な従来の遠隔会議システムにおいては、 本実施の形 態のようにハーフミラーによる虚像ではなくディスプレイ装置の画 面上に表示された画像、 すなわち実像を、 会議参加者が直接見るよ うになされており、 また、 カメラは例えばディスプレイ装置の画面 の上下左右何れかの近傍に配置されることになる。 したがって、 一 般的な従来の遠隔会議システムの場合、 会議参加者の視線は、 ディ スプレイ装置の画面上に表示された画像 (実像) 上に向けられ、 力 メラのレンズから外れた方向に向くことになる。 このため、 デイス プレイ装置の画面上に表示される相手方の会議参加者の視線は、 自 分の方を向いているようには見えないことになり、 本実施の形態の 場合のように互いに視線を一致させて会話を行うようなことはでき ない。
これに対して、 本実施の形態として示す遠隔会議システムにおい ては、 各遠隔会議装置 T C Dにおけるモニタ装置 M Dを、 図 4 8及 び図 4 9に示したような構成とすることにより、 上述したように、 会議参加者とその相手方の会議参加者との双方が互いに相手方の目 を見ながら、 すなわち視線を一致させた状態で、 会話をすることが 可能となっている。
また、 遠隔会議システムにおいては、 遠隔会議装置 T C D内の複 数のモニタ装置 M Dを、 図 2に示したように、 各遠隔会議装置 T C D 2〜T C D ηの会議参加者 H M 2〜Η Μ ηが会議参加者 H M 1 と ともにテーブルを囲んでいるような状態に配置した場合、 すなわち 各遠隔会議装置 T C D 2〜T C D nの各地点における会議参加者 H M 2 ~ H M nの相対的な位置関係が保存されているような状態に配 置した場合には、 会議参加者 H M 1 と相手方の会議参加者との間で 上述したような視線一致を実現できるだけでなく、 他の会議参加者 HMがそれそれ誰の方を向いているのかをも確認できるようになる < つぎに、 図 50に、 遠隔会議システムにおける各遠隔会議装置 T CDの信号処理装置 S PDやサーバ SVを実現する実際の装置構成 例を示す。 なお、 これらの装置は、 例えばパーソナルコンピュータ 等にて実現することができる。
この図 50に示す構成は、 各部を制御する C P U 60と、 例えば B I OS (Basic Input Output Systems) や各種の初期値等が格納 された ROM6 1と、 各種のプログラムゃデ一夕、 演算途中のデ一 夕等を一時的に記憶する RAM 62と、 OS (オペレーティ ングシ ステム) や各種アプリケーションプログラム (コンピュータプログ ラム) 、 その他のデ一夕等を格納するハードディスクを駆動するハ ードディスク ドライブ (HDD) 64と、 CD— ROMや CD— R、 CD -RWs DVD -ROM, DVD— RAM、 DVD - R、 D V D— RW、 着脱可能なハードディスクや半導体メモリ等の各種のリ ムーバブルメディァ 66が装填されるリム一バブルメディァドライ ブ 65と、 上述した I SDN、 一般電話回線、 ケーブルテレビ回線、 ディジ夕ル通信衛星回線等の外部通信網 (通信ネッ トワーク NT) と接続したり、 I E E E 1394規格や U S B等の外部バス、 各種 の外部接続端子に接続するための通信ィン夕ーフヱイス ( I/F) 部 63等を備えている。 なお、 図示しないが、 図 50に示す構成は、 さらに例えばユーザによって操作されるマウスやキーボード等の入 力操作装置や情報を表示するためのモニタ等を備えることも可能で ある。
ここで、 遠隔会議システムにおける信号処理装置 S P Dの機能、 特に、 グループ判定用情報生成部 J Bでの方向検出やグループ判定 情報の生成機能、 情報加工部 PBでの情報加工機能、 或いは、 サー パ S Vにおけるグループ判定処理及びグループ情報の生成機能等を 実現するためのアプリケ一ションプログラムは、 予め HDD 64内 のハードディスクや R OM 6 1等に格納されていたり、 リムーバブ ルメディア 6 6により、 或いは通信ィン夕ーフェイス部 6 3を介す る通信によって提供される。
これらのリム一バブルメディァ 6 6や通信ィン夕一フェイス部 6 3によって提供されたアプリケーションプログラムは、 HDD 64 内のハードディスクに格納され、 当該 H D D 64のハードディスク から読み出されて RAM 6 2に一時的に格納され、 これにより、 C PU 60は、 当該 RAM 6 2に一時的に記憶されたアプリケーショ ンプログラムに応じて、 上述したような遠隔会議システムにおける 各種の動作を実行する。
つぎに、 遠隔会議装置 T CD 1の他の構成例を図 5 1に示す。 この図 5 1に示す構成例では、 他の遠隔会議装置 T CD 2〜T C D ηの各会議参加者 ΗΜ 2〜ΗΜηの画像を映し出す表示手段とし て、 先に図 2に示したような他の各遠隔会議装置 T CD 2〜T CD n、 すなわち他の会議参加者 HM 2〜HMnのそれそれに対応した モニタ装置 MD 2〜MD nを設けるのではなく、 例えば湾曲した 1 つのスクリーン 7 1を設け、 このスクリーン Ί 1に例えばプロジェ クタによって画像を表示するようにしている。
すなわちこの図 5 1の構成例では、 会議参加者 HM 1とともに他 の各会議参加者 HM 2〜HMnが、 あたかも 1つのテーブルを囲ん で会議を行うかのように、 スクリーン 7 1上にそれら他の各会議参 加者 HM 2 ~HMnの画像が表示される。 カメラ 74及びマイクロホン 75は、 例えば会議参加者 HM 1の 正面に配置される。 カメラ 74によって撮像された会議参加者 HM 1の画像データとマイクロホン 75によって集音された会議参加者 HM 1の音声データは、 通信ネッ トワーク NTを介して、 他の各遠 隔会議装置 T CD 2〜T CD ηに送信される。 また、 この図 5 1の 構成例において、 カメラ 74で撮像された会議参加者 HM 1の画像 デ一夕は、 信号処理装置 S PD 1におけるグループ判定用情報生成 部 J Β 1にも供給される。
一方、 他の各遠隔会議装置 TCD 2〜TCDnから送信されてき た各会議参加者 HM 2〜HMnの音声デ一夕は、 それら個々の音像 がスクリーン 7 1上に表示されている各会議参加者 HM 2〜HMn の画像近傍に定位するように制御された後、 スクリーン 71の左右 に配置されたスピーカ 72 , 73に供給され、 出力される。 これに より、 スクリーン 7 1上に表示された各会議参加者 HM 2〜HMn の画像位置と、 それら各会議参加者 HM2〜HMnの発言 (音声) が聞こえてくる位置は、 略々一致することになる。
つぎに、 遠隔会議装置 T CD 1のさらに他の構成例を図 52に示 す。
すなわち、 この図 52には、 図 5 1の構成例と同様に、 湾曲した 1つのスクリーン 8 1が設けられ、 さらに 2人の会議参加者 HM 1 a, HM 1 bを同席可能にした場合の遠隔会議装置 TCD 1の構成 例が示されている。
この図 52の構成例では、 同席する 2人の会議参加者 HM 1 a, HM l bとともに、 他の各会議参加者 HM 2〜HMnが、 あたかも 1つのテーブルを囲んで会議を行うかのように、 スクリーン 8 1上 に他の各会議参加者 HM 2〜HMnの画像が表示される。
カメラ 84及びマイクロホン 86は、 例えば会議参加者 HM 1 a の正面に配置される。 カメラ 84によって撮像された会議参加者 H M l aの画像データとマイクロホン 86によって集音された会議参 加者 HM 1 aの音声デ一夕は、 通信ネッ トワーク NTを介して各遠 隔会議装置 T CD 2〜T CD nに送信される。 また、 カメラ 85及 びマイクロホン 87は、 例えば会議参加者 HM 1 bの正面に配置さ れる。 カメラ 85によって撮像された会議参加者 HM 1 bの画像デ 一夕とマイクロホン 87によって集音された会議参加者 HM 1 bの 音声データは、 通信ネッ トワーク NTを介して各遠隔会議装置 T C D 2〜T C D ηに送信される。
さらに、 この図 52の構成例において、 カメラ 84で撮像された 会議参加者 HM 1 aの画像データとカメラ 85で撮像された会議参 加者 HM 1 bの画像データは、 信号処理装置 S P D 1におけるグル —プ判定用情報生成部 J B 1にも供給される。 この図 52の構成例 の場合、 グループ判定用情報生成部 J B 1は、 これらの会議参加者 HM 1 a , HM 1 bがそれそれ注目する方向を検出し、 それら会議 参加者 HM l a, HM 1 bがそれそれ注目する方向の検出結果の平 均値から、 上述したグループ判定用情報を生成する。 したがって、 この場合、 サーバ SVは、 方向検出結果の平均値から得られたグル ープ用判定情報から、 上述したグループ情報を生成する。 なお、 会 議参加者 HM 1 a及び HM 1 bがそれそれ注目する方向の検出結果 の平均値をとるのではなく、 それら会議参加者 HM 1 a, HM l b がそれそれ注目する方向の検出結果から個別にグループ判定用情報 を生成してサーバ S Vに送信し、 サーバ S Vにてそれら個別のグル ープ判定用情報から個別のグループ情報を生成するようなことも可 能である。 この場合、 情報加工部 PBは、 このグループ情報から会 議参加者 HM l a, HM 1 bのそれそれに関する音量、 音質、 画質 等のパラメ一夕を独立に演算し、 画像や音声の調整の際に各会議参 加者 HM2〜HMnに関し、 会議参加者 HM l a, HM l bに関す るパラメ一夕の平均値を用いる。
一方、 他の各遠隔会議装置 TCD 2〜TCDnから送信されてき た各会議参加者 HM 2〜HMnの音声デ一夕は、 それら個々の音像 がスクリーン 81上に表示されている各会議参加者 HM 2〜HMn の画像近傍に定位するように制御された後、 スクリーン 8 1の左右 に配置されたスピーカ 82, 83に供給され、 出力される。 これに より、 スクリーン 8 1上に表示された各会議参加者 HM2〜HMn の画像位置と、 それら各会議参加者 HM2〜HMnの発言 (音声) が聞こえてくる位置は、 略々一致することになる。
つぎに、 遠隔会議装置 T CD 1のさらに他の構成例を図 53に示 す。
すなわち、 この図 53の構成例は、 図 52の構成例と同様に、 湾 曲した 1つのスクリーン 9 1を設け、 さらに 2人の会議参加者 HM 1 a , HM 1 bを同席可能にしているが、 図 52の構成例のスピ一 力 82, 83に代えて、 会議参加者 HM l a, HM l bに対して個 別にヘッ ドホン 92 , 93を設けた場合を示している。
この図 53の構成例では、 同席する 2人の会議参加者 HM 1 a, HM l bとともに、 他の各会議参加者 HM 2〜HMnが、 あたかも 1つのテーブルを囲んで会議を行うかのように、 スクリーン 9 1上 に他の各会議参加者 HM 2 ~HMnの画像が表示される。 カメラ 94及びマイクロホン 96は、 例えば会議参加者 HM 1 a の正面に配置される。 カメラ 94によって撮像された会議参加者 H M 1 aの画像データとマイクロホン 96によって集音された会議参 加者 HM 1 aの音声データは、 通信ネッ トワーク NTを介して遠隔 会議装置 T CD 2〜T CD ηに送信される。
また、 カメラ 95及びマイクロホン 97は、 例えば会議参加者 Η Μ 1 bの正面に配置される。 カメラ 95によって撮像された会議参 加者 HM 1 bの画像デ一夕とマイクロホン 97によって集音された 会議参加者 HM 1 bの音声デ一夕は、 通信ネッ トワーク N Tを介し て遠隔会議装置 T CD 2〜T CDnに送信される。
一方、 他の各遠隔会議装置 TCD 2〜TCDnから送信されてき た各会議参加者 HM 2〜HMnの音声データは、 それら個々の音像 がスクリーン 9 1上に表示されている各会議参加者 HM 2〜HMn の画像近傍に定位するように制御された後、 会議参加者 HM 1 a, HM 1 bが個別に装着するへヅ ドホン 92, 93に供給され、 出力 される。 これにより、 スクリーン 9 1上に表示された各会議参加者 HM 2〜HMnの画像位置と、 それら各会議参加者 H M 2〜 H M n の発言 (音声) が聞こえてくる位置は、 略々一致することになる。 また、 この図 53の構成例において、 カメラ 94で撮像された会 議参加者 HM 1 aの画像データとカメラ 95で撮像された会議参加 者 HM 1 bの画像デ一夕は、 信号処理装置 S P D 1におけるグルー プ判定用情報生成部 J B 1にも供給される。 この図 53の構成例の 場合、 図 52の例と同様に、 グループ判定用情報生成部 J B 1は、 これらの会議参加者 HM 1 a及び HM 1 bがそれそれ注目する方向 を検出し、 それら会議参加者 HM 1 a及び HM 1 bがそれそれ注目 する方向の検出結果の平均値から、 上述したグループ判定用情報を 生成する。 したがって、 サーバ SVは、 方向検出結果の平均値から 得られたグループ用判定情報から、 上述したグループ情報を生成す る。 なお、 図 53の例においても、 会議参加者 HM 1 a及び HM1 bがそれそれ注目する方向の検出結果の平均値をとるのではなく、 それら会議参加者 HM 1 aと HM 1 bがそれそれ注目する方向の検 出結果から個別にグループ判定用情報を生成してサーバ SVに送信 し、 サーバ S Vにてそれら個別のグループ判定用情報から個別のグ ループ情報を生成するようなことも可能である。 この場合、 情報加 ェ部 PBは、 このグループ情報から会議参加者 HM 1 a、 HM 1 b それそれに関する音量、 音質、 画質等のパラメ一夕を独立に演算し、 画像の調整の際には会議参加者 HM 1 aと HM 1 bに関するパラメ 一夕の平均値を用いて両者共用の画像を作るとともに音声について はそれそれ独立のパラメ一夕を用いて別個の音声を作成して会議参 加者 HM 1 a、 HM 1 bそれそれのへッ ドホンに供給する。 なお、 特殊なスクリーンを用いて会議参加者 HM 1 a、 HM 1 bに別個の 画像をそれそれ独立のパラメ一夕をもとに作って提示することも可 能である。
つぎに、 遠隔会議装置 T CD 1のさらに他の構成例を図 54に示 す。
この図 54の構成例では、 他の遠隔会議装置 T CD 2〜TCDn の各会議参加者 HM 2〜HMnの画像データは通信されず、 音声デ 一夕だけが通信される。 この図 54の構成例の場合は、 会議参加者 HM 1とともに、 他の各会議参加者 HM 2〜HMnが、 あたかも 1 つのテーブルを囲んで会議を行うかのように、 他の各会議参加者 H M 2〜HMnの音声を個々に出力するためのスピーカ S K 2〜S K nが配置される。 但し、 会議参加者 HM 2〜HMnの音声データを 出カするスピ一カ3 2〜31 11の近傍には、 例えば写真 PT 2〜 PTn或いはィラス トのような各会議参加者 ΗΜ2〜ΗΜηをそれ それ象徴するものが配置される。
カメラ 10 1及びマイクロホン 102は、 例えば会議参加者 ΗΜ 1の正面に配置される。 マイクロホン 1 02によって集音された会 議参加者 HM 1の音声デ一夕は、 通信ネッ トワーク NTを介して他 の各遠隔会議装置 T CD 2〜T CD nに送信される。 また、 この図 54の構成例において、 カメラ 10 1で撮像された会議参加者 HM 1の画像データは、 信号処理装置 S PD 1におけるグループ判定用 情報生成部 J B 1に供給される。
一方、 遠隔会議装置 T CD 2〜T CD nから個々に送信されてき た各会議参加者 HM 2〜HMnの音声データは、 それそれ対応して 設けられているスピーカ S K 2〜S K nから出力される。
以上のように、 本発明を適用した第 1の実施の形態として示す遠 隔会議システムは、 遠隔会議装置 T CDにおけるグループ判定用情 報生成部 J Bにより、 会議参加者 HMの注目度を検出し、 その検出 結果に基づいて、 各会議参加者 HMが何れのグループの話題に参加 しているのかを判定するために用いられるグループ判定用情報を生 成し、 サーバ SVにより、 グループ判定用情報に基づいてグループ 分けを行い、 各会議参加者 HMが何れのグループに属しているのか を表すグループ情報を生成する。 そして、 遠隔会議システムは、 遠 隔会議装置 T CDにおける情報加工部 P Bにより、 グループ情報に 基づいて、 他の各遠隔会議装置 T CDにそれそれ対応する画像デー 夕及び/又は音声データに所望の調整処理を施す。 したがって、 遠 隔会議システムにおいては、 同じ話題に参加している各会議参加者 の発言を特に聞き取り易く、 また見易くすることが可能となる。 つぎに、 本発明を適用した第 2の実施の形態として示す遠隔会議 システムについて説明する。
この遠隔会議システムは、 基本構成を第 1の実施の形態として示 した遠隔会議システムと同様とするが、 図 55に概略構成を示すよ うに、 上述したグルーピング装置として機能するサーバ SVを設け ず、 グルーピング装置の機能を各遠隔会議装置 T CDにおいて実現 するものである。 したがって、 第 1の実施の形態として示した遠隔 会議システムと対応する構成については同一符号を付して詳細な説 明を省略する。
図 55に示すように、 この遠隔会議システムにおいて、 複数箇所 ( l〜n箇所) に居る各会議参加者 HM 1〜HMnには、 それそれ 対応した遠隔会議装置 T CD 1〜T CD nが割り当てられており、 各遠隔会議装置 T CD l〜TCDnは、 例えば I SDN等からなる 通信ネッ トワーク NTを介して接続されている。
各遠隔会議装置 T CDは、 それそれ対応する会議参加者 HMの画 像データ及び音声デ一夕を取り込み、 この会議参加者 HMの画像デ —夕及び音声データを通信ネッ トワーク N Tを介して他の遠隔会議 装置 T CDに送信するとともに、 他の遠隔会議装置 T CDから送信 されてきた他の会議参加者 HMの画像データ及び音声データを受信 し、 提示することができる。
この遠隔会議システムにおける各遠隔会議装置 T CDは、 それそ れ、 図 56に示すような構成を備えている。 なお、 各遠隔会議装置 TCD l〜TCDnは、 それそれ、 同一の構成を有することから、 図 56には、 これら複数の遠隔会議装置 T CD l〜TCDnのうち、 代表して遠隔会議装置 T CD 1の詳細な構成例を示している。 以下 では、 この遠隔会議装置 T CD 1について説明する。
遠隔会議装置 T CD 1は、 上述したように、 信号処理装置 SPD 1と、 モニタ装置 MD 2〜MD nとを、 少なく とも備える。
遠隔会議装置 T CD 1における信号処理装置 S PD 1は、 上述し たように、 ネッ トワーク接続端子 TN 1と、 情報送受信部 TRB 1 と、 情報加工部 PB 1と、 グループ判定用情報生成部 J B 1と、 出 力端子 TO 2〜T Onと、 入力端子 T I 2〜T I ηと、 入力端子 Τ Sとを備えるとともに、 上述したサーバ S Vにおけるグループ判定 部 G J Dに相当するグループ判定部 G J D 1を備えている。
各モニタ装置 MD 2 ~MD nは、 それそれ、 図 48及び図 49に 示したものと同様の構成からなる。 各モニタ装置 MD 2〜MD nの うち少なく とも 1つのモニタ装置 MDに設けられるカメラから取り 込まれた画像データと、 同じく少なく とも 1つのモニタ装置 MDに 設けられるマイクロホンから取り込まれた音声データは、 上述した ように、 信号処理装置 SPD 1及び通信ネッ トワーク NTを介して 各遠隔会議装置 T CD 2〜T CD nに送信される。
また、 各モニタ装置 MD 2〜MD nのディスプレイ装置には、 上 述したように、 それそれ対応する遠隔会議装置 T CD 2〜T CDn から送信されてきた画像データに基づく画像が表示され、 スビーカ からは、 同じくそれそれ対応する遠隔会議装置 T CD 2〜T CDn から送信されてきた音声デ一夕に基づく音声が出力される。
遠隔会議装置 T CD 1における信号処理装置 S PD 1内のグルー プ判定用情報生成部 J B 1は、 上述したように、 グループ判定用情 報を生成する。
グループ判定用情報生成部 j B 1は、 例えば図 3又は図 4に示し たように、 会議参加者 HM 1の例えば正面に配置されているモニタ 装置 MDmのカメラから供給された画像データや上述したスィ ヅチ S Wからのスィツチ押下情報に基づいて、 会議参加者 HM 1の注目 度を検出し、 その検出結果に基づいて、 上述したグループ判定用情 報を生成する。 このとき、 グループ判定用情報生成部 J B 1は、 上 述した方向検出処理を行う。
グループ判定用情報生成部 j B 1によって生成されたグループ判 定用情報は、 信号処理装置 SPD 1における情報送受信部 TRB 1 に供給され、 通信ネッ トワーク NTを介して各遠隔会議装置 T CD 2〜TCDnに送信される。 また、 グループ判定用情報生成部 J B 1によって生成されたグループ判用情報は、 上述したサーバ SVに 代わるグループ判定部 GJD 1に供給される。
遠隔会議装置 T CD 1における信号処理装置 S PD 1内のグルー プ判定部 G JD 1は、 上述したサーバ SVにおけるグループ判定部 G J Dと同様のものであるが、 各遠隔会議装置 T CD 1〜T CD n からの各グループ判定用情報に基づいて各会議参加者についてのグ ループ情報を一括して生成するのではなく、 グループ判定用情報生 成部 J B 1から供給されたグループ判定用情報と、 各遠隔会議装置 T CD 2〜T CD nから送信されてきたグループ判定用情報とに基 づいてグループ判定を行うとともに、 そのグループ判定結果に基づ いて会議参加者 HM 1が何れのグループに属しているのかを表すグ ループ情報を生成する。 すなわち、 遠隔会議装置 T CD 1は、 自己、 すなわちこの場合は会議参加者 HM 1に関するグループ判定用情報 を、 グループ判定用情報生成部 JB 1から受け取るとともに、 他の 会議参加者 H M2〜HMnに関するグループ判定用情報を、 通信ネ ッ トワーク NTを介して各遠隔会議装置 T CD 2〜TCDnから送 信されてきた信号を受信する情報送受信部 TRB 1から受け取る。
ここで、 グループ判定部 G JD 1は、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 グループ判定用情報生 成部 JB 1及び各遠隔会議装置 T CD 2〜TCDnからグループ判 定用情報を受け取る前段として、 図 8に示した通信開始時の初期化 処理を行う。 また、 グループ判定部 G J D 1は、 グループ判定用情 報生成部 J B 1及び各遠隔会議装置 T C D 2〜 T C D nからグルー プ判定用情報を受け取ると、 図 9に示したグループ判定用情報発生 時の処理を行う。 グループ判定部 G JD 1は、 生成したグループ情 報を信号処理装置 SPD 1における情報加工部 PB 1に供給する。 遠隔会議装置 T CD 1における信号処理装置 S PD 1内の情報加 ェ部 PB 1は、 グループ判定部 G J D 1から供給されたグループ情 報に基づいて、 上述したように、 各遠隔会議装置 T CD 2〜T CD nにそれそれ対応する画像データ及び/又は音声データに対して情 報加工を行う際に利用するパラメ一夕を演算し、 さらに、 この演算 によって求めたパラメ一夕に基づいて、 各遠隔会議装置 TCD 2〜 T C D nにそれそれ対応して分離された画像データ及び/又は音声 データに対して所望の調整処理を施し、 その調整処理後の各画像デ —夕 ·各音声デ一夕を、 各遠隔会議装置 T CD 2〜T CD nに対応 して設けられている各モニタ装置 MD 2〜MD nに対して供給する c このような遠隔会議システムは、 遠隔会議装置 T CDにおけるグ ループ判定用情報生成部 J Bにより、 会議参加者 H Mの注目度を検 出し、 その検出結果に基づいて、 各会議参加者 H Mが何れのグルー プの話題に参加しているのかを判定するために用いられるグループ 判定用情報を生成し、 遠隔会議装置 T C Dにおけるグループ判定部 G J Dにより、 グループ判定用情報に基づいてグル プ分けを行い、 各会議参加者 H Mが何れのグループに属しているのかを表すグルー プ情報を生成する。 そして、 遠隔会議システムは、 遠隔会議装置 T C Dにおける情報加工部 P Bにより、 グループ情報に基づいて、 他 の各遠隔会議装置 T C Dにそれそれ対応する画像データ及び/又は 音声データに所望の調整処理を施す。
以上のように、 本発明を適用した第 2の実施の形態として示す遠 隔会議システムは、 グルーピング装置の機能を各遠隔会議装置 T C Dにおいて実現することができ、 各遠隔会議装置 T C Dによって生 成したグループ情報を全ての遠隔会議装置 T C Dで共有することに より、 グルーピング装置として機能するサーバ S Vを設ける必要が ない。 そのため、 遠隔会議システムは、 バックヤードとしてのサー バを備える必要がなく、 簡易な構成の下に遠隔会議を行うことを可 能とする。 勿論、 遠隔会議システムにおいては、 同じ話題に参加し ている各会議参加者の発言を特に聞き取り易く、 また見易くするこ とが可能となる。
なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S P Dは、 図 5 0に示した例えばパーソナルコンビユー夕等 の装置で実現することができる。 また、 各遠隔会議装置 T C Dとし ては、 図 5 1乃至図 5 4に示した構成とすることもできる。
つぎに、 本発明を適用した第 3の実施の形態として示す遠隔会議 システムについて説明する。
この遠隔会議システムは、 上述したグルーピング装置として機能 するサーバ SVを設けない点で、 基本構成を図 55に示した第 2の 実施の形態として示した遠隔会議システムと同様とするが、 グルー ビング装置の機能を 1つの遠隔会議装置 T CDにおいて実現し、 他 の遠隔会議装置 T CDにはグルーピング装置の機能を備えないもの である。 したがって、 第 2の実施の形態として示した遠隔会議シス テムと対応する構成については同一符号を付して詳細な説明を省略 する。
この遠隔会議システムにおいて、 各遠隔会議装置 T CDは、 それ それ対応する会議参加者 HMの画像データ及び音声データを取り込 み、 この会議参加者 HMの画像データ及び音声データを通信ネッ ト ワーク N Tを介して他の遠隔会議装置 T C Dに送信するとともに、 他の遠隔会議装置 T CDから送信されてきた他の会議参加者 HMの 画像データ及び音声データを受信し、 提示することができる。
以下では、 遠隔会議装置 T CD 1がグルービング装置の機能を備 えるものとして説明する。
遠隔会議装置 T CD 1は、 図 57に示すように、 信号処理装置 S PD 1と、 モニタ装置 MD 2〜MD nとを、 少なく とも備える。 遠隔会議装置 T CD 1における信号処理装置 S PD 1は、 上述し たように、 ネッ トワーク接続端子 TN 1と、 倩報送受信部 TRB 1 と、 情報加工部 PB 1と、 グループ判定用情報生成部 J B 1と、 グ ループ判定部 GJD 1と、 出力端子 TO 2〜TOnと、 入力端子 Τ I 2〜T I ηと、 入力端子 T Sとを備えている。
各モニタ装置 MD 2〜MD ηは、 それそれ、 図 48及び図 49に 示したものと同様の構成からなる。 各モニタ装置 MD 2〜MDnの うち少なくとも 1つのモニタ装置 MDに設けられるカメラから取り 込まれた画像デ一夕と、 同じく少なく とも 1つのモニタ装置 MDに 設けられるマイクロホンから取り込まれた音声データは、 上述した ように、 信号処理装置 S P D 1及び通信ネッ トワーク N Tを介して 各遠隔会議装置 T CD 2〜T CD nに送信される。
また、 各モニタ装置 MD 2〜MD nのディスプレイ装置には、 上 述したように、 それそれ対応する遠隔会議装置 T CD 2〜T CDn から送信されてきた画像データに基づく画像が表示され、 スビーカ からは、 同じくそれそれ対応する遠隔会議装置 T CD 2〜T CD n から送信されてきた音声デ一夕に基づく音声が出力される。
遠隔会議装置 T CD 1における信号処理装置 S PD 1内のグルー プ判定用情報生成部 J B 1は、 上述したように、 グループ判定用情 報を生成する。
グループ判定用情報生成部 J B 1は、 例えば図 3又は図 4に示し たように、 会議参加者 HM 1の例えば正面に配置されているモニタ 装置 MDmのカメラから供給された画像デ一夕や上述したスィツチ SWからのスィツチ押下情報に基づいて、 会議参加者 HM 1の注目 度を検出し、 その検出結果に基づいて、 上述したグループ判定用情 報を生成する。 このとき、 グループ判定用情報生成部 J B 1は、 上 述した方向検出処理を行う。
グループ判定用情報生成部 J B 1によって生成されたグループ判 定用情報は、 グループ判定部 G J D 1に供給される。 すなわち、 こ のグループ判定用情報生成部 j B 1は、 第 2の実施の形態として示 した遠隔会議システムにおけるグループ判定用情報生成部 J B 1と は異なり、 生成したグループ判定用情報をグループ判定部 G J D 1 のみに供給する。
遠隔会議装置 T CD 1における信号処理装置 SPD 1内のグルー プ判定部 G JD 1は、 グループ判定用情報生成部 J B 1から供給さ れたグループ判定用情報と、 各遠隔会議装置 TCD 2〜TCDnか ら送信されてきたグループ判定用情報とに基づいてグループ判定を 行うとともに、 そのグループ判定結果に基づいて各会議参加者 HM が何れのグループに属しているのかを表すグループ情報を生成する, すなわち、 遠隔会議装置 T CD 1は、 自己、 すなわちこの場合は会 議参加者 HM 1に関するグループ判定用情報を、 グループ判定用情 報生成部 J B 1から受け取るとともに、 他の会議参加者 HM2〜H Mnに関するグループ判定用情報を、 通信ネッ トワーク NTを介し て各遠隔会議装置 T CD 2〜T CD nから送信されてきた信号を受 信する情報送受信部 TRB 1から受け取る。
ここで、 グループ判定部 G JD 1は、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 グループ判定用情報生 成部 J B 1及び各遠隔会議装置 T C D 2〜 T C D nからグループ判 定用情報を受け取る前段として、 図 8に示した通信開始時の初期化 処理を行う。 また、 グループ判定部 G J D 1は、 グループ判定用情 報生成部 J B 1及び各遠隔会議装置 T C D 2〜T CD ηからグルー プ判定用情報を受け取ると、 図 9に示したグループ判定用情報発生 時の処理を行う。 グループ判定部 G JD 1によって生成されたグル ープ情報は、 信号処理装置 SPD 1における情報加工部 PB 1に供 給されるとともに、 情報送受信部 TRB 1から通信ネッ トワーク Ν Τを介して各遠隔会議装置 T CD 2〜T CD ηに送信される。 すな わち、 このグループ判定部 G JD 1は、 第 2の実施の形態として示 した遠隔会議システムにおけるグループ判定部 G J D 1とは異なり、 生成したグループ情報を情報加工部 P B 1だけでなく、 各遠隔会議 装置 T CD 2〜T CD ηに送信する。
遠隔会議装置 T CD 1における信号処理装置 S PD 1内の情報加 ェ部 PB 1は、 グループ判定部 G JD 1から供給されたグループ情 報に基づいて、 上述したように、 各遠隔会議装置 T CD 2〜T CD nにそれそれ対応する画像データ及び/又は音声データに対して情 報加工を行う際に利用するパラメ一夕を演算し、 さらに、 この演算 によって求めたパラメ一夕に基づいて、 各遠隔会議装置 TCD 2~ T CD nにそれそれ対応して分離された画像データ及び/又は音声 データに対して所望の調整処理を施し、 その調整処理後の各画像デ 一夕 ·各音声デ一夕を、 各遠隔会議装置 T CD 2〜T CD nに対応 して設けられている各モニタ装置 MD 2〜MD nに対して供給する c 一方、 遠隔会議システムにおける他の遠隔会議装置 T CD 2〜T CDnは、 それそれ、 図 58に示すような構成を備えている。 なお、 各遠隔会議装置 T C D 2〜T C D nは、 それそれ、 同一の構成を有 することから、 図 58には、 これら複数の遠隔会議装置 T CD 2~ T CD nのうち、 代表して遠隔会議装置 T CD 2の詳細な構成例を 示している。 以下では、 この遠隔会議装置 T CD 2について説明す
^> o
遠隔会議装置 T CD 2は、 遠隔会議装置 T CD 1と同様に、 信号 処理装置 SPD 2と、 モニタ装置 MD 1 , MD 3〜MDnとを、 少 なく とも備える。
遠隔会議装置 TCD 2における信号処理装置 S PD 2は、 ネッ ト ワーク接続端子 TN 2と、 情報送受信部 TRB 2と、 情報加工部 P B 2と、 グループ判定用情報生成部 J B 2と、 出力端子 TO 1 , T 03〜TOnと、 入力端子 Τ I I , Τ Ι 3〜Τ Ι ηと、 入力端子 Τ Sとを備えている。
各モニタ装置 MD 1 , MD 3〜MDnは、 それそれ、 図 48及び 図 49に示したものと同様の構成からなる。 各モニタ装置 MD 1 , MD 3〜MDnのうち少なく とも 1つのモニタ装置 M Dに設けられ るカメラから取り込まれた画像データと、 同じく少なく とも 1つの モニタ装置 MDに設けられるマイクロホンから取り込まれた音声デ 一夕は、 上述したように、 信号処理装置 S P D 2及び通信ネッ トヮ —ク NTを介して各遠隔会議装置 T CD 1 , TCD 3〜TCDnに 送信される。
また、 各モニタ装置 MD 1, MD 3〜MD nのディスプレイ装置 には、 上述したように、 それそれ対応する遠隔会議装置 T CD 1, TCD 3〜TCDnから送信されてきた画像デ一夕に基づく画像が 表示され、 スピーカからは、 同じくそれそれ対応する遠隔会議装置 TCD 1 , TCD 3〜T CDnから送信されてきた音声デ一夕に基 づく音声が出力される。
遠隔会議装置 T CD 2における信号処理装置 S PD 2内のグルー プ判定用情報生成部 J B 2は、 上述したように、 グループ判定用倩 報を生成する。
グループ判定用情報生成部 J B 2は、 例えば図 3又は図 4に示し たように、 会議参加者 HM 2の例えば正面に配置されているモニタ 装置 MDmのカメラから供給された画像デ一夕や上述したスィ ツチ S Wからのスィツチ押下情報に基づいて、 会議参加者 HM 2の注目 度を検出し、 その検出結果に基づいて、 上述したグループ判定用情 報を生成する。 このとき、 グループ判定用情報生成部 J B 2は、 上 述した方向検出処理を行う。
グループ判定用情報生成部 j B 2によって生成されたグループ判 定用情報は、 信号処理装置 S PD 2における情報送受信部 TRB 2 に供給される。
遠隔会議装置 T CD 2における信号処理装置 S P D 2内の情報加 ェ部 PB 2は、 遠隔会議装置 TCD 1から送信されて情報送受信部 TRB 2によって受信されたグループ情報に基づいて、 上述したよ うに、 各遠隔会議装置 T CD 1 , T CD 3〜T CD nにそれそれ対 応する画像データ及び/又は音声データに対して情報加工を行う際 に利用するパラメ一夕を演算し、 さらに、 この演算によって求めた パラメ一夕に基づいて、 各遠隔会議装置 TCD 1 , TCD 3〜TC D nにそれそれ対応して分離された画像デ一夕及びノ又は音声デー 夕に対して所望の調整処理を施し、 その調整処理後の各画像データ •各音声データを、 各遠隔会議装置 TCD 1 , TCD 3〜T CDn に対応して設けられている各モニタ装置 MD 1 , MD 3〜MDnに 対して供給する。
このような遠隔会議システムは、 全ての遠隔会議装置 T CDにお けるグループ判定用情報生成部 J Bにより、 会議参加者 HMの注目 度を検出し、 その検出結果に基づいて、 各会議参加者 HMが何れの グループの話題に参加しているのかを判定するために用いられるグ ループ判定用情報を生成し、 遠隔会議装置 T CD 1におけるグルー プ判定部 G JD 1により、 グループ判定用情報に基づいてグループ 分けを行い、 各会議参加者 HMが何れのグループに属しているのか を表すグループ情報を生成する。 そして、 遠隔会議システムは、 全 ての遠隔会議装置 T C Dにおける情報加工部 P Bにより、 グループ 情報に基づいて、 他の各遠隔会議装置 T C Dにそれそれ対応する画 像デ一夕及び/又は音声デ一夕に所望の調整処理を施す。
以上のように、 本発明を適用した第 3の実施の形態として示す遠 隔会議システムは、 グルーピング装置の機能を 1つの遠隔会議装置 T C Dにおいて実現することができ、 この遠隔会議装置 T C Dによ つて生成したグループ情報を全ての遠隔会議装置 T C Dで共有する ことにより、 グルービング装置として機能するサーバ S Vを設ける 必要がない。 そのため、 遠隔会議システムは、 バックヤードとして のサーバを備える必要がなく、 簡易な構成の下に遠隔会議を行うこ とを可能とする。 特に、 遠隔会議システムは、 グルーピング装置と して機能する遠隔会議装置 T C Dを 1つだけ備えればよいことから、 低コス トの下に構成することができる。 勿論、 遠隔会議システムに おいては、 同じ話題に参加している各会議参加者の発言を特に聞き 取り易く、 また見易くすることが可能となる。
なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S P Dは、 図 5 0に示した例えばパーソナルコンピュータ等 の装置で実現することができる。 また、 各遠隔会議装置 T C Dとし ては、 図 5 1乃至図 5 4に示した構成とすることもできる。
つぎに、 本発明を適用した第 4の実施の形態として示す遠隔会議 システムについて説明する。
この遠隔会議システムは、 上述したサーバ S Vを設ける点で、 基 本構成を図 2に示した第 1の実施の形態として示した遠隔会議シス テムと同様とするが、 グルーピング装置及び上述した情報加工部を 有する加工装置の機能を 1つのサーバ S Vにおいて実現し、 遠隔会 議装置 T CDにはグルーピング装置及び加工装置の機能を備えない ものである。 したがって、 第 1の実施の形態として示した遠隔会議 システムと対応する構成については同一符号を付して詳細な説明を 省略する。
この遠隔会議システムにおいて、 各遠隔会議装置 T CDは、 それ それ対応する会議参加者 HMの画像データ及び音声データを取り込 み、 この会議参加者 HMの画像データ及び音声デ一夕を通信ネッ ト ワーク NTを介して他の遠隔会議装置 T CDに送信するとともに、 他の遠隔会議装置 T CDから送信されてきた他の会議参加者 HMの 画像データ及び音声データを受信し、 提示することができる。
この遠隔会議システムにおける各遠隔会議装置 T CDは、 それそ れ、 図 59に示すような構成を備えている。 なお、 各遠隔会議装置 TCD l〜TCDnは、 それそれ、 同一の構成を有することから、 図 59には、 これら複数の遠隔会議装置 T CD l〜TCDnのうち、 代表して遠隔会議装置 T CD 1の詳細な構成例を示している。 以下 では、 この遠隔会議装置 T CD 1について説明する。
遠隔会議装置 T CD 1は、 上述したように、 信号処理装置 SPD 1と、 モニタ装置 MD 2〜MD nとを、 少なく とも備える。
遠隔会議装置 TCD 1における信号処理装置 S PD 1は、 ネッ ト ワーク接続端子 TN 1と、 情報送受信部 TRB 1と、 グループ判定 用情報生成部 JB 1と、 出力端子 TO 2〜TOnと、 入力端子 Τ Ι 2〜Τ Ι ηと、 入力端子 T Sとを備えている。 すなわち、 遠隔会議 装置 TCD 1における信号処理装置 SPD 1は、 上述した情報加工 部 PB 1と、 グループ判定部 GJD 1とを備えていない。 各モニタ装置 MD 2〜MD nは、 それそれ、 図 48及び図 49に 示したものと同様の構成からなる。 各モニタ装置 MD 2〜MDnの うち少なく とも 1つのモニタ装置 MDに設けられるカメラから取り 込まれた画像データと、 同じく少なく とも 1つのモニタ装置 MDに 設けられるマイクロホンから取り込まれた音声デ一夕は、 上述した ように、 信号処理装置 S P D 1及び通信ネッ トワーク N Tを介して 各遠隔会議装置 T CD 2〜T CDnに送信される。
また、 各モニタ装置 MD 2〜MD nのディスプレイ装置には、 上 述したように、 それそれ対応する遠隔会議装置 T CD 2〜T CDn から送信されてきた画像データに基づく画像が表示され、 スビーカ からは、 同じくそれそれ対応する遠隔会議装置 T CD 2〜T CDn から送信されてきた音声データに基づく音声が出力される。
遠隔会議装置 T CD 1における信号処理装置 S PD 1内のグルー プ判定用情報生成部 J B 1は、 上述したように、 グループ判定用情 報を生成する。
グループ判定用情報生成部 j B 1は、 例えば図 3又は図 4に示し たように、 会議参加者 HM 1の例えば正面に配置されているモニタ 装置 M Dmのカメラから供給された画像データや上述したスィ ツチ SWからのスィツチ押下情報に基づいて、 会議参加者 HM 1の注目 度を検出し、 その検出結果に基づいて、 上述したグループ判定用情 報を生成する。 このとき、 グループ判定用情報生成部 J B 1は、 上 述した方向検出処理を行う。
グループ判定用情報生成部 j B 1によって生成されたグループ判 定用情報は、 信号処理装置 S PD 1における情報送受信部 TRB 1 に供給され、 さらに、 ネッ トワーク接続端子 TN 1を介して通信ネ ッ トワーク NTから、 サ一パ SVに送信される。
サーバ SVは、 図 60に示すように構成され、 各遠隔会議装置 T CD 1〜T CD ηから送信されてきたグループ判定用情報に基づい てグループ分けを行い、 各会議参加者 ΗΜが何れのグループに属し ているのかを表すグループ情報を生成するグルービング装置として 機能する。 また、 サーバ SVは、 生成したグループ情報に基づいて、 各遠隔会議装置 TCD l〜TCDnにそれそれ対応する画像データ 及び Z又は音声データに対して情報加工を行う加工装置として機能 する。
この図 60において、 サーバ SVは、 上述したネッ トワーク接続 端子 1 1と、 情報送受信部 10とを備えるとともに、 グループ判定 部 GJDと、 情報加工部 P Bとを備えている。
情報送受信部 10は、 通信ネッ トワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD nから送信されてきた各グループ判定用情 報を受信し、 これらの各グループ判定用情報をグループ判定部 G J Dに供給する。 また、 情報送受信部 10は、 通信ネッ トワーク NT を介して送信されてきた信号を受信すると、 この信号から各遠隔会 議装置 T CD 1〜T CDnにそれそれ対応する画像データ及び音声 データを分離し、 分離した各画像デ一夕及び各音声データをそれそ れ情報加工部 PBに供給する。 さらに、 情報送受信部 10は、 情報 加工部 PBによって調整処理された各画像データ ·各音声データを 通信ネッ トワーク NTを介して各遠隔会議装置 T CD 1〜T CDn に送信する。
グループ判定部 GJDは、 上述したように、 各グループ判定用情 報に基づいてグループ判定を行うとともに、 そのグループ判定結果 に基づいて各会議参加者 HMが何れのグループに属しているのかを 表すグループ情報を生成する。
ここで、 グループ判定部 GJDは、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 各遠隔会議装置 T CD 1 〜T CD nからグループ判定用情報を受け取る前段として、 図 8に 示した通信開始時の初期化処理を行う。 また、 グループ判定部 GJ Dは、 各遠隔会議装置 T CD 1〜T CD nからグループ判定用情報 を受け取ると、 図 9に示したグループ判定用情報発生時の処理を行 う。 グループ判定部 GJDは、 生成したグループ情報を情報加工部 PBに供給する。
情報加工部 P Bは、 グループ判定部 G J Dから供給されたグルー プ情報に基づいて、 各遠隔会議装置 T CD l〜TCDnにそれそれ 対応する画像データ及び/又は音声デ一夕に対して情報加工を行う 際に利用するパラメ一夕を演算し、 さらに、 この演算によって求め たパラメ一夕に基づいて、 各遠隔会議装置 T CD 1〜T CD nにそ れそれ対応して分離された画像データ及び/又は音声データに対し て所望の調整処理を施し、 その調整処理後の各画像データ ·各音声 データを、 情報送受信部 10及びネッ 卜ワーク接続端子 1 1を介し て通信ネッ トワーク NTから、 各遠隔会議装置 T CD l〜T CDn に対応して設けられている各モニタ装置 MD l〜MDnに対して送 信する。
このような遠隔会議システムは、 全ての遠隔会議装置 T C Dにお けるグループ判定用情報生成部 J Bにより、 会議参加者 HMの注目 度を検出し、 その検出結果に基づいて、 各会議参加者 HMが何れの グループの話題に参加しているのかを判定するために用いられるグ ループ判定用情報のみを生成する。 そして、 遠隔会議システムは、 サーバ S Vにおけるグループ判定部 G J Dにより、 グループ判定用 情報に基づいてグループ分けを行い、 各会議参加者 H Mが何れのグ ループに属しているのかを表すグループ情報を生成し、 サーバ S V における情報加工部 P Bにより、 グループ情報に基づいて、 各遠隔 会議装置 T C Dにそれそれ対応する画像デ一夕及び/又は音声デー 夕に所望の調整処理を施す。
以上のように、 本発明を適用した第 4の実施の形態として示す遠 隔会議システムは、 グルービング装置及び加工装置の機能を 1つの サーバ S Vにおいて実現することができる。 そのため、 遠隔会議シ ステムは、 個々の遠隔会議装置 T C Dの処理負担を軽減することが でき、 構成を簡易なものとすることができる。 勿論、 遠隔会議シス テムにおいては、 同じ話題に参加している各会議参加者の発言を特 に聞き取り易く、 また見易くすることが可能となる。
なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S ? 0ゃサーバ3 ¥は、 図 5 0に示した例えばパーソナルコ ンピュー夕等の装置で実現することができる。 また、 各遠隔会議装 置 T C Dとしては、 図 5 1乃至図 5 4に示した構成とすることもで き 。
つぎに、 本発明を適用した第 5の実施の形態として示す遠隔会議 システムについて説明する。
この遠隔会議システムは、 遠隔会議装置 T C Dにはグルーピング 装置及び加工装置の機能を備えない点で、 基本構成を第 4の実施の 形態として示した遠隔会議システムと同様とするが、 図 6 1に概略 構成を示すように、 グルーピング装置及び加工装置の機能をそれそ れ 2つのサーバ SV 1, S V 2において実現するものである。 した がって、 第 4の実施の形態として示した遠隔会議システムと対応す る構成については同一符号を付して詳細な説明を省略する。
この遠隔会議システムにおいて、 各遠隔会議装置 T CDは、 それ それ対応する会議参加者 HMの画像データ及び音声データを取り込 み、 この会議参加者 HMの画像デ一夕及び音声データを通信ネッ ト ワーク NTを介して他の遠隔会議装置 T CDに送信するとともに、 他の遠隔会議装置 T CDから送信されてきた他の会議参加者 HMの 画像データ及び音声データを受信し、 提示することができる。
この遠隔会議システムにおける各遠隔会議装置 T CDは、 それそ れ、 図 59に示したような構成を備えている。 すなわち、 各遠隔会 議装置 T CDは、 それそれ、 信号処理装置 S PD内にグループ判定 用情報生成部 JBを備えており、 上述したように、 グループ判定用 情報を生成する。 グループ判定用情報生成部 J Bによって生成され たグループ判定用情報は、 通信ネッ トワーク NTを介してサーバ S V 1に送信される。
サーバ S V Iは、 図 62に示すように構成され、 各遠隔会議装置 T CD 1〜T CD ηから送信されてきたグループ判定用情報に基づ いてグループ分けを行い、 各会議参加者 ΗΜが何れのグループに属 しているのかを表すグループ情報を生成するグルーピング装置とし て機能する。
この図 62において、 サーバ S V Iは、 上述したネッ トワーク接 続端子 1 1 iと、 情報送受信部 10 ,とを備えるとともに、 グループ 判定部 GJDを備えている。
情報送受信部 10!は、 通信ネッ トワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD nから送信されてきた各グループ判定用情 報を受信し、 これらの各グループ判定用情報をグループ判定部 G J Dに供給する。 また、 情報送受信部 10 !は、 グループ判定部 G J D によって生成されたグループ情報をネッ トワーク接続端子 1 1 及び 通信ネッ トワーク NTを介してサーバ SV2に送信する。
グループ判定部 GJDは、 上述したように、 各グループ判定用情 報に基づいてグループ判定を行うとともに、 そのグループ判定結果 に基づいて各会議参加者 HMが何れのグループに属しているのかを 表すグループ情報を生成する。
ここで、 グループ判定部 GJDは、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 各遠隔会議装置 T CD 1 〜T CD ηからグループ判定用情報を受け取る前段として、 図 8に 示した通信開始時の初期化処理を行う。 また、 グループ判定部 GJ Dは、 各遠隔会議装置 T CD 1〜T CD nからグループ判定用情報 を受け取ると、 図 9に示したグループ判定用情報発生時の処理を行 う。 グループ判定部 G J Dは、 生成したグループ情報を情報送受信 部 10 iに供給する。
一方、 サーバ SV2は、 図 63に示すように構成され、 サーバ S V 1から送信されてきたグループ情報に基づいて、 各遠隔会議装置 T CD 1〜T CD ηにそれそれ対応する画像データ及び/又は音声 データに対して情報加工を行う加工装置として機能する。
この図 63において、 サーバ SV2は、 上述したネッ トワーク接 続端子 1 12と、 情報送受信部 102とを備えるとともに、 情報加工 部 ΡΒを備えている。
情報送受信部 102は、 通信ネッ トワーク NTを介して、 サーバ S V 1から送信されてきたグループ情報を受信し、 このグループ情報 を情報加工部 PBに供給する。 また、 情報送受信部 102は、 通信ネ ヅ トワーク NTを介して、 各遠隔会議装置 T CD 1〜T CD nから 送信されてきた信号を受信すると、 この信号から各遠隔会議装置 T CD 1〜T CD ηにそれそれ対応する画像データ及び音声デ一夕を 分離し、 分離した各画像デ一夕及び各音声データをそれそれ情報加 ェ部 ΡΒに供給する。 さらに、 情報送受信部 102は、 情報加工部 Ρ Βによって調整処理された各画像データ ·各音声データを通信ネッ トワーク NTを介して各遠隔会議装置 T CD 1〜T CD ηに送信す る。
情報加工部 PBは、 情報送受信部 102から供給されたグループ情 報に基づいて、 各遠隔会議装置 T CD 1〜T CD nにそれそれ対応 する画像データ及び 又は音声デ一夕に対して情報加工を行う際に 利用するパラメ一夕を演算し、 さらに、 この演算によって求めたパ ラメ一夕に基づいて、 各遠隔会議装置 T CD l〜TCDnにそれそ れ対応して分離された画像データ及び/又は音声データに対して所 望の調整処理を施し、 その調整処理後の各画像デ一夕 ·各音声デー 夕を、 情報送受信部 102及びネッ トワーク接続端子 1 12を介して 通信ネッ トワーク NTから、 各遠隔会議装置 T CD l〜TCDnに 対応して設けられている各モニタ装置 MD 1〜MD nに対して送信 する。
このような遠隔会議システムは、 全ての遠隔会議装置 T CDにお けるグループ判定用情報生成部 J Bにより、 会議参加者 HMの注目 度を検出し、 その検出結果に基づいて、 各会議参加者 HMが何れの グループの話題に参加しているのかを判定するために用いられるグ ループ判定用情報のみを生成する。 そして、 遠隔会議システムは、 サーバ S V 1におけるグループ判定部 G J Dにより、 グループ判定 用情報に基づいてグループ分けを行い、 各会議参加者 H Mが何れの グループに属しているのかを表すグループ情報を生成し、 さらに、 サーバ S V 2における情報加工部 P Bにより、 グループ情報に基づ いて、 各遠隔会議装置 T C Dにそれそれ対応する画像データ及び Z 又は音声データに所望の調整処理を施す。
以上のように、 本発明を適用した第 5の実施の形態として示す遠 隔会議システムは、 グルーピング装置及び加工装置の機能をそれそ れ 2つのサーバ S V 1, S V 2において実現することができる。 そ のため、 遠隔会議システムは、 個々の遠隔会議装置 T C Dの処理負 担を軽減して構成を簡易なものとすることができるとともに、 サー バ S V 1, S V 2の処理負担も軽減して構成を簡易なものとするこ とができる。 勿論、 遠隔会議システムにおいては、 同じ話題に参加 している各会議参加者の発言を特に聞き取り易く、 また見易くする ことが可能となる。
なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S P Dやサーバ S V 1 , S V 2は、 図 5 0に示した例えばパ 一ソナルコンピュータ等の装置で実現することができる。 また、 各 遠隔会議装置 T C Dとしては、 図 5 1乃至図 5 4に示した構成とす ることもできる。
つぎに、 本発明を適用した第 6の実施の形態として示す遠隔会議 システムについて説明する。
この遠隔会議システムは、 上述したサーバ S Vを設ける点で、 基 本構成を図 2に示した第 1の実施の形態として示した遠隔会議シス テムと同様とするが、 上述したグループ判定用情報生成部を有する 注目度検出装置及びグルーピング装置の機能を 1つのサーバ SVに おいて実現し、 遠隔会議装置 T CDには注目度検出装置及びグルー ビング装置の機能を備えないものである。 したがって、 第 1の実施 の形態として示した遠隔会議システムと対応する構成については同 一符号を付して詳細な説明を省略する。
この遠隔会議システムにおいて、 各遠隔会議装置 T CDは、 それ それ対応する会議参加者 HMの画像データ及び音声データを取り込 み、 この会議参加者 HMの画像データ及び音声データを通信ネッ ト ワーク NTを介して他の遠隔会議装置 T CDに送信するとともに、 他の遠隔会議装置 T CDから送信されてきた他の会議参加者 HMの 画像データ及び音声データを受信し、 提示することができる。
この遠隔会議システムにおける各遠隔会議装置 T CDは、 それそ れ、 図 64に示すような構成を備えている。 なお、 各遠隔会議装置 TCD l〜TCDnは、 それそれ、 同一の構成を有することから、 図 64には、 これら複数の遠隔会議装置 T CD l〜TCDnのうち、 代表して遠隔会議装置 T CD 1の詳細な構成例を示している。 以下 では、 この遠隔会議装置 T CD 1について説明する。
遠隔会議装置 T CD 1は、 上述したように、 信号処理装置 SPD 1と、 モニタ装置 MD 2〜MDnとを、 少なく とも備える。
遠隔会議装置 T CD 1における信号処理装置 S PD 1は、 ネッ ト ワーク接続端子 TN 1と、 情報送受信部 TRB 1と、 倩報加工部 P B 1と、 出力端子 T◦ 2〜T 0 nと、 入力端子 T I 2〜T I nと、 入力端子 T Sとを備えている。 すなわち、 遠隔会議装置 T CD 1に おける信号処理装置 S PD 1は、 上述したグループ判定用情報生成 部 J B 1と、 グループ判定部 GJD 1とを備えていない。
各モニタ装置 MD 2〜MD nは、 それそれ、 図 48及び図 49に 示したものと同様の構成からなる。 各モニタ装置 MD 2〜MDnの うち少なく とも 1つのモニタ装置 MDに備えられるカメラから取り 込まれた画像データと、 同じく少なく とも 1つのモニタ装置 MDに 備えられるマイクロホンから取り込まれた音声データは、 上述した ように、 信号処理装置 SPD 1及び通信ネッ トワーク NTを介して 各遠隔会議装置 T CD 2〜T CD ηに送信される。
また、 各モニタ装置 MD 2〜MD ηのディスプレイ装置には、 上 述したように、 それそれ対応する遠隔会議装置 T CD 2〜T CDn から送信されてきた画像データに基づく画像が表示され、 スピー力 からは、 同じくそれそれ対応する遠隔会議装置 T CD 2〜T CDn から送信されてきた音声データに基づく音声が出力される。
遠隔会議装置 T CD 1における信号処理装置 S PD 1内の情報送 受信部 TRB 1は、 サーバ SVから送信されてきたグループ情報を 受信し、 このグループ情報を情報加工部 PB 1に供給する。 また、 情報送受信部 TRB 1は、 通信ネッ トワーク NTを介して送信され てきた信号を受信すると、 この信号から各遠隔会議装置 T CD 2〜 T C D nにそれそれ対応する画像データ及び音声データを分離し、 分離した各画像データ及び各音声データをそれそれ情報加工部 P B 1に供給する。 さらに、 情報送受信部 TRB 1は、 会議参加者 HM 1の例えば正面に配置されているモニタ装置 M Dmのカメラから供 給された画像データや上述したスィツチ SWからのスィ ツチ押下情 報をネッ トワーク接続端子 TN 1を介して通信ネッ トワーク NTか ら、 サーバ SVに送信する。 遠隔会議装置 T CD 1における信号処理装置 S PD 1内の情報加 ェ部 PB 1は、 通信ネッ トワーク NTを介して、 サーバ SVから送 信されて情報送受信部 TRB 1によって受信されたグループ情報に 基づいて、 各遠隔会議装置 T CD 2〜T CD ηにそれそれ対応する 画像データ及び/又は音声デ一夕に対して情報加工を行う際に利用 するパラメ一夕を演算し、 さらに、 この演算によって求めたパラメ —夕に基づいて、 各遠隔会議装置 TCD 2〜TCDnにそれそれ対 応して分離された画像デ一夕及び/又は音声データに対して所望の 調整処理を施し、 その調整処理後の各画像データ ·各音声データを、 各遠隔会議装置 T CD 2〜T CD nに対応して設けられている各モ 二夕装置 MD 2〜MD nに対して供給する。
一方、 サーバ SVは、 図 65に示すように構成され、 会議中にお いて同じ話題に参加している各会議参加者をグループ分けするため のグループ判定用情報を生成する注目度検出装置として機能する。 また、 サーバ SVは、 各遠隔会議装置 T CD 1〜T CD nから送信 されてきたグループ判定用情報に基づいてグループ分けを行い、 各 会議参加者 HMが何れのグループに属しているのかを表すグループ 情報を生成するグルーピング装置として機能する。
この図 65において、 サーバ SVは、 上述したネッ トワーク接続 端子 1 1と、 情報送受信部 10とを備えるとともに、 グループ判定 用情報生成部 JBと、 グループ判定部 G J Dとを備えている。
情報送受信部 10は、 通信ネッ トワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD ηから送信されてきた各会議参加者 HMの 例えば正面に配置されているモニタ装置 MDのカメラから供給され た画像データゃスィ ツチ押下情報を受信し、 これらの画像データや スィ ツチ押下情報をグループ判定用情報生成部 J Bに供給する。 ま た、 情報送受信部 1 0は、 グループ判定部 G J Dによって生成され たグループ情報をネッ トワーク接続端子 1 1及び通信ネッ トワーク N Tを介して各遠隔会議装置 T C D 1〜T C D nに送信する。
グループ判定用情報生成部 J Bは、 上述したように、 グループ判 定用情報を生成する。
グループ判定用情報生成部 J Bは、 例えば図 3又は図 4に示した ように、 会議参加者 H Mの例えば正面に配置されているモニタ装置 M D mのカメラから供給された画像デ一夕や上述したスィツチ S W からのスィツチ押下情報に基づいて、 各会議参加者 H Mの注目度を 検出し、 その検出結果に基づいて、 上述したグループ判定用情報を 生成する。 このとき、 グループ判定用情報生成部 J Bは、 上述した 方向検出処理を行う。
グループ判定用情報生成部 J Bによって生成されたグループ判定 用情報は、 グループ判定部 G J Dに供給される。
グループ判定部 G J Dは、 上述したように、 各グループ判定用情 報に基づいてグループ判定を行うとともに、 そのグループ判定結果 に基づいて各会議参加者 H Mが何れのグループに属しているのかを 表すグループ情報を生成する。
ここで、 グループ判定部 G J Dは、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 グループ判定用情報生成 部 J Bからグループ判定用情報を受け取る前段として、 図 8に示し た通信開始時の初期化処理を行う。 また、 グループ判定部 G J Dは、 グループ判定用情報生成部 J Bからグループ判定用情報を受け取る と、 図 9に示したグループ判定用情報発生時の処理を行う。 グルー プ判定部 G J Dは、 生成したグループ情報を情報送受信部 1 0に供 給する。
このような遠隔会議システムは、 サーバ S Vにおけるグルーブ判 定用情報生成部 J Bにより、 会議参加者 H Mの注目度を検出し、 そ の検出結果に基づいて、 各会議参加者 H Mが何れのグループの話題 に参加しているのかを判定するために用いられるグループ判定用情 報を生成し、 サーバ S Vにおけるグループ判定部 G J Dにより、 グ ループ判定用情報に基づいてグループ分けを行い、 各会議参加者 H Mが何れのグループに属しているのかを表すグループ情報を生成す る。 そして、 遠隔会議システムは、 全ての遠隔会議装置 T C Dにお ける情報加工部 P Bにより、 グループ情報に基づいて、 各遠隔会議 装置 T C Dにそれそれ対応する画像データ及び/又は音声データに 所望の調整処理を施す。
以上のように、 本発明を適用した第 6の実施の形態として示す遠 隔会議システムは、 注目度検出装置及びグルービング装置の機能を 1つのサーバ S Vにおいて実現することができる。 そのため、 遠隔 会議システムは、 個々の遠隔会議装置 T C Dの処理負担を軽減する ことができ、 構成を簡易なものとすることができる。 勿論、 遠隔会 議システムにおいては、 同じ話題に参加している各会議参加者の発 言を特に聞き取り易く、 また見易くすることが可能となる。
なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S P Dやサーバ S Vは、 図 5 0に示した例えばパーソナルコ ンピュー夕等の装置で実現することができる。 また、 各遠隔会議装 置 T C Dとしては、 図 5 1乃至図 5 4に示した構成とすることもで き O。 つぎに、 本発明を適用した第 7の実施の形態として示す遠隔会議 システムについて説明する。
この遠隔会議システムは、 遠隔会議装置 T CDには注目度検出装 置及びグルーピング装置の機能を備えない点で、 基本構成を第 6の 実施の形態として示した遠隔会議システムと同様とするが、 注目度 検出装置及びグルーピング装置の機能をそれそれ 2つのサーバ S V 1 , S V 2において実現するものである。 したがって、 第 6の実施 の形態として示した遠隔会議システムと対応する構成については同 一符号を付して詳細な説明を省略する。
この遠隔会議システムにおいて、 各遠隔会議装置 T CDは、 それ それ対応する会議参加者 HMの画像データ及び音声データを取り込 み、 この会議参加者 HMの画像データ及び音声データを通信ネッ ト ワーク NTを介して他の遠隔会議装置 T CDに送信するとともに、 他の遠隔会議装置 T CDから送信されてきた他の会議参加者 HMの 画像デ一夕及び音声データを受信し、 提示することができる。
この遠隔会議システムにおける各遠隔会議装置 T CDは、 それそ れ、 図 64に示したような構成を備えている。 すなわち、 各遠隔会 議装置 T CDは、 それそれ、 信号処理装置 S PD内に情報加工部 P Bを備えており、 通信ネッ トワーク NTを介して、 サーバ SV2か ら送信されて情報送受信部 T R Bによって受信されたグループ情報 に基づいて、 各遠隔会議装置 T CD 1〜T CD ηにそれそれ対応す る画像データ及び/又は音声データに対して情報加工を行う際に利 用するパラメ一夕を演算し、 さらに、 この演算によって求めたパラ メ一夕に基づいて、 各遠隔会議装置 T CD l〜TCDnにそれぞれ 対応して分離された画像データ及び/又は音声デ一夕に対して所望 の調整処理を施す。 また、 各遠隔会議装置 T CDは、 それそれ、 会 議参加者 HMの例えば正面に配置されているモニタ装置 MDのカメ ラから供給された画像データや上述したスィツチ SWからのスイツ チ押下情報をネッ トワーク接続端子 TN 1を介して通信ネッ トヮ一 ク NTから、 サーバ SV 1に送信する。
サーバ SV 1は、 図 66に示すように構成され、 会議中において 同じ話題に参加している各会議参加者をグループ分けするためのグ ループ判定用情報を生成する注目度検出装置として機能する。
この図 66において、 サーバ S V Iは、 上述したネッ トワーク接 続端子 1 1 ,と、 情報送受信部 10!とを備えるとともに、 グループ 判定用情報生成部 J Bを備えている。
情報送受信部 10 ,は、 通信ネッ トワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD ηから送信されてきた各会議参加者 HMの 例えば正面に配置されているモニタ装置 MDのカメラから供給され た画像データゃスィ ツチ押下情報を受信し、 これらの画像データや スィツチ押下情報をグループ判定用情報生成部 J Bに供給する。 ま た、 情報送受信部 1 0 ,は、 グループ判定用情報生成部 JBによって 生成されたグループ判定用情報をネッ トワーク接続端子 1 1!及び通 信ネッ トワーク N Tを介してサーバ S V 2に送信する。
グループ判定用情報生成部 J Bは、 上述したように、 グループ判 定用情報を生成する。
グループ判定用情報生成部 J Bは、 例えば図 3又は図 4に示した ように、 会議参加者 HMの例えば正面に配置されているモニタ装置 MDmのカメラから供給された画像デ一夕や上述したスィツチ SW からのスィツチ押下情報に基づいて、 各会議参加者 HMの注目度を 検出し、 その検出結果に基づいて、 上述したグループ判定用情報を 生成する。 このとき、 グループ判定用情報生成部 J Bは、 上述した 方向検出処理を行う。
グループ判定用情報生成部 J Bは、 生成したグループ判定用情報 を情報送受信部 10 iに供給する。
一方、 サーバ SV2は、 図 67に示すように構成され、 各遠隔会 議装置 T CD 1〜T CD ηから送信されてきたグループ判定用情報 に基づいてグループ分けを行い、 各会議参加者 ΗΜが何れのグルー プに属しているのかを表すグループ情報を生成するグルービング装 置として機能する。
この図 67において、 サーバ SV2は、 上述したネッ トワーク接 続端子 1 12と、 情報送受信部 102とを備えるとともに、 グループ 判定部 GJDを備えている。
情報送受信部 102は、 通信ネッ トワーク NTを介して、 サーバ S V 1から送信されてきた各グループ判定用情報を受信し、 これらの 各グループ判定用情報をグループ判定部 G J Dに供給する。 また、 情報送受信部 102は、 グループ判定部 G J Dによって生成されたグ ループ情報を通信ネッ トワーク NTを介して各遠隔会議装置 T CD 1〜T CD ηに送信する。
グループ判定部 GJDは、 上述したように、 各グループ判定用情 報に基づいてグループ判定を行うとともに、 そのグループ判定結果 に基づいて各会議参加者 HMが何れのグループに属しているのかを 表すグループ情報を生成する。
ここで、 グループ判定部 GJDは、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 サーバ S V 1からグルー ブ判定用情報を受け取る前段として、 図 8に示した通信開始時の初 期化処理を行う。 また、 グループ判定部 GJDは、 サーバ S V Iか らグループ判定用情報を受け取ると、 図 9に示したグループ判定用 情報発生時の処理を行う。 グループ判定部 GJDは、 生成したグル ープ情報を情報送受信部 102及びネッ トワーク接続端子 1 12を介 して通信ネッ トワーク NTから、 各遠隔会議装置 T CD 1〜TCD nに送信する。
このような遠隔会議システムは、 サーバ S V 1におけるグループ 判定用情報生成部 J Bにより、 会議参加者 HMの注目度を検出し、 その検出結果に基づいて、 各会議参加者 HMが何れのグループの話 題に参加しているのかを判定するために用いられるグループ判定用 情報を生成し、 さらに、 サーバ SV 2におけるグループ判定部 G J Dにより、 グループ判定用情報に基づいてグループ分けを行い、 各 会議参加者 HMが何れのグループに属しているのかを表すグループ 情報を生成する。 そして、 遠隔会議システムは、 全ての遠隔会議装 置 T CDにおける情報加工部 PBにより、 グループ情報に基づいて、 各遠隔会議装置 T CDにそれそれ対応する画像データ及び/又は音 声デ一夕に所望の調整処理を施す。
以上のように、 本発明を適用した第 7の実施の形態として示す遠 隔会議システムは、 注目度検出装置及びグルービング装置の機能を それそれ 2つのサーバ SV 1, S V 2において実現することができ る。 そのため、 遠隔会議システムは、 個々の遠隔会議装置 T CDの 処理負担を軽減して構成を簡易なものとすることができるとともに、 サーバ SV 1 , SV 2の処理負担も軽減して構成を簡易なものとす ることができる。 勿論、 遠隔会議システムにおいては、 同じ話題に 参加している各会議参加者の発言を特に聞き取り易く、 また見易く することが可能となる。
なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S P Dやサーバ S V 1, S V 2は、 図 5 0に示した例えばパ 一ソナルコンピュータ等の装置で実現することができる。 また、 各 遠隔会議装置 T C Dとしては、 図 5 1乃至図 5 4に示した構成とす ることもできる。
つぎに、 本発明を適用した第 8の実施の形態として示す遠隔会議 システムについて説明する。
この遠隔会議システムは、 上述したサーバ S Vを設ける点で、 基 本構成を図 2に示した第 1の実施の形態として示した遠隔会議シス テムと同様とするが、 注目度検出装置、 グルーピング装置及び加工 装置の機能を 1つのサーバ S Vにおいて実現し、 遠隔会議装置 T C Dには注目度検出装置、 グルーピング装置及び加工装置の機能を備 えないものである。 したがって、 第 1の実施の形態として示した遠 隔会議システムと対応する構成については同一符号を付して詳細な 説明を省略する。
この遠隔会議システムにおいて、 各遠隔会議装置 T C Dは、 それ それ対応する会議参加者 H Mの画像データ及び音声データを取り込 み、 この会議参加者 H Mの画像データ及び音声データを通信ネッ ト ワーク N Tを介して他の遠隔会議装置 T C Dに送信するとともに、 他の遠隔会議装置 T C Dから送信されてきた他の会議参加者 H Mの 画像データ及び音声データを受信し、 提示するこ'とができる。
この遠隔会議システムにおける各遠隔会議装置 T C Dは、 それそ れ、 図 6 8に示すような構成を備えている。 なお、 各遠隔会議装置 TCD l〜TCDnは、 それそれ、 同一の構成を有することから、 図 68には、 これら複数の遠隔会議装置 T CD l〜TCDnのうち- 代表して遠隔会議装置 T CD 1の詳細な構成例を示している。 以下 では、 この遠隔会議装置 T CD 1について説明する。
遠隔会議装置 T CD 1は、 上述したように、 信号処理装置 SPD 1と、 モニタ装置 MD 2〜MD nとを、 少なく とも備える。
遠隔会議装置 T CD 1における信号処理装置 SPD 1は、 ネッ ト ワーク接続端子 TN 1と、 情報送受信部 TRB 1と、 出力端子 TO 2〜T 0 nと、 入力端子 T I 2〜T I ηと、 入力端子 T Sとを備え ている。 すなわち、 遠隔会議装置 T CD 1における信号処理装置 S PD 1は、 上述したグループ判定用情報生成部 J B 1と、 情報加工 部 PB 1と、 グループ判定部 GJD 1とを備えていない。
各モニタ装置 MD 2〜MD nは、 それそれ、 図 48及び図 49に 示したものと同様の構成からなる。 各モニタ装置 MD 2〜MD nの うち少なく とも 1つのモニタ装置 MDに備えられるカメラから取り 込まれた画像データと、 同じく少なく とも 1つのモニタ装置 MDに 備えられるマイクロホンから取り込まれた音声デ一夕は、 上述した ように、 信号処理装置 SPD 1及び通信ネッ トワーク NTを介して 各遠隔会議装置 T C D 2〜TCDnに送信される。
また、 各モニタ装置 MD 2〜MD nのディスプレイ装置には、 上 述したように、 それそれ対応する遠隔会議装置 T CD 2〜T CD n から送信されてきた画像データに基づく画像が表示され、 スビーカ からは、 同じくそれそれ対応する遠隔会議装置 T CD 2〜T CDn から送信されてきた音声デ一夕に基づく音声が出力される。
遠隔会議装置 TCD 1における信号処理装置 SPD 1内の情報送 受信部 TRB 1は、 会議参加者 HM 1の例えば正面に配置されてい るモニタ装置 MDmのカメラから供給された画像デ一夕や上述した スイ ッチ SWからのスィツチ押下情報をネッ トワーク接続端子 TN 1を介して通信ネッ トワーク NTから、 サーバ SVに送信する。 一方、 サーバ SVは、 図 69に示すように構成され、 会議中にお いて同じ話題に参加している各会議参加者をグループ分けするため のグループ判定用情報を生成する注目度検出装置として機能する。 また、 サーバ SVは、 各遠隔会議装置 T CD 1〜T CD nから送信 されてきたグループ判定用情報に基づいてグループ分けを行い、 各 会議参加者 HMが何れのグループに属しているのかを表すグループ 情報を生成するグルーピング装置として機能する。 さらに、 サーバ SVは、 生成したグループ情報に基づいて、 各遠隔会議装置 T CD 1〜T CD ηにそれぞれ対応する画像データ及び/又は音声データ に対して情報加工を行う加工装置として機能する。
この図 69において、 サーバ SVは、 上述したネッ トワーク接続 端子 1 1と、 情報送受信部 10とを備えるとともに、 グループ判定 用情報生成部 J Βと、 グループ判定部 G J Dと、 情報加工部 PBと を備えている。
情報送受信部 10は、 通信ネッ トワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD ηから送信されてきた各会議参加者 HMの 例えば正面に配置されているモニタ装置 MDのカメラから供給され た画像データゃスィ ツチ押下情報を受信し、 これらの画像デ一夕や スィ ツチ押下情報をグループ判定用情報生成部 J Bに供給する。 ま た、 情報送受信部 10は、 通信ネッ トワーク NTを介して送信され てきた信号を受信すると、 この信号から各遠隔会議装置 T CD 1〜 T C D nにそれそれ対応する画像デ一夕及び音声デ一夕を分離し、 分離した各画像データ及び各音声データをそれそれ情報加工部 P B に供給する。 さらに、 情報送受信部 10は、 情報加工部 PBによつ て調整処理された各画像データ ·各音声デ一夕を通信ネッ トワーク NTを介して各遠隔会議装置 T CD 1〜T CD nに送信する。
グループ判定用情報生成部 J Bは、 上述したように、 グループ判 定用情報を生成する。
グループ判定用情報生成部 j Bは、 例えば図 3又は図 4に示した ように、 会議参加者 HMの例えば正面に配置されているモニタ装置 MDmのカメラから供給された画像データや上述したスィヅチ SW からのスィツチ押下情報に基づいて、 各会議参加者 HMの注目度を 検出し、 その検出結果に基づいて、 上述したグループ判定用情報を 生成する。 このとき、 グループ判定用情報生成部 J Bは、 上述した 方向検出処理を行う。
グループ判定用情報生成部 J Bによって生成されたグループ判定 用情報は、 グループ判定部 GJDに供給される。
グループ判定部 GJDは、 上述したように、 各グループ判定用情 報に基づいてグループ判定を行うとともに、 そのグループ判定結果 に基づいて各会議参加者 HMが何れのグループに属しているのかを 表すグループ情報を生成する。
ここで、 グループ判定部 GJDは、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 グループ判定用情報生成 部 J Bからグループ判定用情報を受け取る前段として、 図 8に示し た通信開始時の初期化処理を行う。 また、 グループ判定部 G J Dは、 グループ判定用情報生成部 J Bからグループ判定用情報を受け取る と、 図 9に示したグループ判定用情報発生時の処理を行う。 グルー プ判定部 G J Dは、 生成したグループ情報を情報加工部 P Bに供給 する。
情報加工部 P Bは、 グループ判定部 G J Dから供給されたグルー プ情報に基づいて、 各遠隔会議装置 T C D 1〜T CD ηにそれそれ 対応する画像デ一夕及び/又は音声データに対して情報加工を行う 際に利用するパラメ一夕を演算し、 さらに、 この演算によって求め たパラメ一夕に基づいて、 各遠隔会議装置 T CD l〜TCDnにそ れそれ対応して分離された画像データ及び/又は音声データに対し て所望の調整処理を施し、 その調整処理後の各画像データ ·各音声 データを、 情報送受信部 10及びネッ トワーク接続端子 1 1を介し て通信ネッ トワーク NTから、 各遠隔会議装置 T CD l〜T CDn に対応して設けられている各モニタ装置 MD 1〜MD nに対して送 信する。
このような遠隔会議システムは、 サーバ S Vにおけるグループ判 定用情報生成部 JBにより、 会議参加者 HMの注目度を検出し、 そ の検出結果に基づいて、 各会議参加者 HMが何れのグループの話題 に参加しているのかを判定するために用いられるグループ判定用情 報を生成し、 さらに、 サーバ SVにおけるグループ判定部 GJDに より、 グループ判定用情報に基づいてグループ分けを行い、 各会議 参加者 HMが何れのグループに属しているのかを表すグループ情報 を生成し、 さらに、 サーバ SVにおける情報加工部 PBにより、 グ ループ倩報に基づいて、 各遠隔会議装置 T CDにそれそれ対応する 画像デ一夕及び/又は音声データに所望の調整処理を施す。
以上のように、 本発明を適用した第 8の実施の形態として示す遠 隔会議システムは、 注目度検出装置、 グルーピング装置及び加工装 置の機能を 1つのサーバ S Vにおいて実現することができる。 その ため、 遠隔会議システムは、 個々の遠隔会議装置 T C Dの処理負担 を軽減することができ、 構成を簡易なものとすることができる。 勿 論、 遠隔会議システムにおいては、 同じ話題に参加している各会議 参加者の発言を特に聞き取り易く、 また見易くすることが可能とな る。
なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S P Dやサーバ S Vは、 図 5 0に示した例えばパーソナルコ ンピュー夕等の装置で実現することができる。 また、 各遠隔会議装 置 T C Dとしては、 図 5 1乃至図 5 4に示した構成とすることもで きる。
つぎに、 本発明を適用した第 9の実施の形態として示す遠隔会議 システムについて説明する。
この遠隔会議システムは、 遠隔会議装置 T C Dには注目度検出装 置、 グルービング装置及び加工装置の機能を備えない点で、 基本構 成を第 8の実施の形態として示した遠隔会議システムと同様とする が、 注目度検出装置及びグルーピング装置、 並びに、 加工装置の機 能をそれそれ 2つのサーバ S V 1 , S V 2において実現するもので ある。 したがって、 第 8の実施の形態として示した遠隔会議システ ムと対応する構成については同一符号を付して詳細な説明を省略す
Ό o
この遠隔会議システムにおいて、 各遠隔会議装置 T C Dは、 それ それ対応する会議参加者 H Mの画像データ及び音声データを取り込 み、 この会議参加者 H Mの画像データ及び音声デ一夕を通信ネッ ト ワーク NTを介して他の遠隔会議装置 T CDに送信するとともに、 他の遠隔会議装置 T CDから送信されてきた他の会議参加者 HMの 画像データ及び音声データを受信し、 提示することができる。
この遠隔会議システムにおける各遠隔会議装置 T CDは、 それそ れ、 図 68に示したような構成を備えている。 すなわち、 各遠隔会 議装置 T CDは、 それそれ、 会議参加者 HMの例えば正面に配置さ れているモニタ装置 MDのカメラから供給された画像データや上述 したスィッチ SWからのスィツチ押下情報をネッ トワーク接続端子 TN 1を介して通信ネッ トワーク NTから、 サーバ S V 1に送信す る。
サーバ SV 1は、 図 70に示すように構成され、 会議中において 同じ話題に参加している各会議参加者をグループ分けするためのグ ループ判定用情報を生成する注目度検出装置として機能する。 また、 サーバ SV 1は、 各遠隔会議装置 T CD l〜TCDnから送信され てきたグループ判定用情報に基づいてグループ分けを行い、 各会議 参加者 HMが何れのグループに属しているのかを表すグループ情報 を生成するグルーピング装置として機能する。
この図 70において、 サーバ S V 1は、 上述したネッ トワーク接 続端子 1 1!と、 情報送受信部 10 とを備えるとともに、 グループ 判定用情報生成部 J Bと、 グループ判定部 G J Dとを備えている。 情報送受信部 1 は、 通信ネッ トワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD ηから送信されてきた各会議参加者 HMの 例えば正面に配置されているモニタ装置 MDのカメラから供給され た画像データゃスィ ツチ押下情報を受信し、 これらの画像デ一夕や スィツチ押下情報をグループ判定用情報生成部 J Bに供給する。 ま た、 情報送受信部 10 iは、 グループ判定部 GJDによって生成され たグループ情報をネッ トワーク接続端子 1 1!及び通信ネッ トワーク NTを介してサーバ SV 2に送信する。
グループ判定用情報生成部 J Bは、 上述したように、 グループ判 定用情報を生成する。
グループ判定用情報生成部 J Bは、 例えば図 3又は図 4に示した ように、 会議参加者 HMの例えば正面に配置されているモニタ装置 MDmのカメラから供給された画像データや上述したスィツチ SW からのスィ ツチ押下情報に基づいて、 各会議参加者 HMの注目度を 検出し、 その検出結果に基づいて、 上述したグループ判定用情報を 生成する。 このとき、 グループ判定用情報生成部 J Bは、 上述した 方向検出処理を行う。
グループ判定用情報生成部 j Bは、 生成したグループ判定用情報 をグループ判定部 G J Dに供給する。
グループ判定部 G J Dは、 上述したように、 各グループ判定用情 報に基づいてグループ判定を行うとともに、 そのグループ判定結果 に基づいて各会議参加者 HMが何れのグループに属しているのかを 表すグループ情報を生成する。
ここで、 グループ判定部 GJDは、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 グループ判定用情報生成 部 J Bからグループ判定用情報を受け取る前段として、 図 8に示し た通信開始時の初期化処理を行う。 また、 グループ判定部 GJDは、 グループ判定用情報生成部 J Bからグループ判定用情報を受け取る と、 図 9に示したグループ判定用情報発生時の処理を行う。 グルー プ判定部 G J Dは、 生成したグループ情報を情報送受信部 1 O i及び ネッ トワーク接続端子 1 1!を介して通信ネヅ トワーク N丁から、 サ —バ S V 2に送信する。
一方、 サーバ SV2は、 図 7 1に示すように構成され、 サーバ S V 1から送信されてきたグループ情報に基づいて、 各遠隔会議装置 T CD 1〜T CD ηにそれそれ対応する画像データ及び/又は音声 デ一夕に対して情報加工を行う加工装置として機能する。
この図 7 1において、 サーバ S V 2は、 上述したネッ トワーク接 続端子 1 12と、 情報送受信部 102とを備えるとともに、 情報加工 部 Ρ Βを備えている。
情報送受信部 102は、 通信ネッ トワーク NTを介して、 サーバ S V 1から送信されてきたグループ情報を受信し、 このグループ情報 を情報加工部 PBに供給する。 また、 情報送受信部 102は、 通信ネ ッ トワーク NTを介して送信されてきた信号を受信すると、 この信 号から各遠隔会議装置 T CD 1〜T CD ηにそれそれ対応する画像 データ及び音声データを分離し、 分離した各画像データ及び各音声 デ一夕をそれそれ情報加工部 ΡΒに供給する。 さらに、 情報送受信 部 102は、 情報加工部 ΡΒによって調整処理された各画像データ · 各音声データを通信ネッ トワーク NTを介して各遠隔会議装置 T C D 1〜T CD nに送信する。
情報加工部 PBは、 情報送受信部 102から供給されたグループ情 報に基づいて、 各遠隔会議装置 T CD 1〜T CDnにそれぞれ対応 する画像データ及び/又は音声データに対して情報加工を行う際に 利用するパラメ一夕を演算し、 さらに、 この演算によって求めたパ ラメ一夕に基づいて、 各遠隔会議装置 T CD l〜TCDnにそれそ れ対応して分離された画像データ及び/又は音声データに対して所 望の調整処理を施し、 その調整処理後の各画像データ '各音声デー 夕を、 情報送受信部 102及びネッ トワーク接続端子 1 12を介して 通信ネッ トワーク NTから、 各遠隔会議装置 T CD l〜TCDnに 対応して設けられている各モニタ装置 MD 1〜MD nに対して送信 する。
このような遠隔会議システムは、 サーバ S V 1におけるグループ 判定用情報生成部 J Bにより、 会議参加者 HMの注目度を検出し、 その検出結果に基づいて、 各会議参加者 HMが何れのグループの話 題に参加しているのかを判定するために用いられるグループ判定用 情報を生成し、 サーバ S V 1におけるグループ判定部 G J Dにより、 グループ判定用情報に基づいてグループ分けを行い、 各会議参加者 HMが何れのグループに属しているのかを表すグループ情報を生成 する。 そして、 遠隔会議システムは、 サーバ SV 2における情報加 ェ部 PBにより、 グループ情報に基づいて、 各遠隔会議装置 T CD にそれそれ対応する画像データ及び/又は音声デ一夕に所望の調整 処理を施す。
以上のように、 本発明を適用した第 9の実施の形態として示す遠 隔会議システムは、 注目度検出装置及びグルーピング装置、 並びに、 加工装置の機能をそれそれ 2つのサーバ SV 1 , S V 2において実 現することができる。 そのため、 遠隔会議システムは、 個々の遠隔 会議装置 T CDの処理負担を軽減して構成を簡易なものとすること ができるとともに、 サーバ SV 1 , SV 2の処理負担も軽減して構 成を簡易なものとすることができる。 勿論、 遠隔会議システムにお いては、 同じ話題に参加している各会議参加者の発言を特に聞き取 り易く、 また見易くすることが可能となる。 なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S P Dやサーバ S V 1, S V 2は、 図 5 0に示した例えばパ 一ソナルコンピュータ等の装置で実現することができる。 また、 各 遠隔会議装置 T C Dとしては、 図 5 1乃至図 5 4に示した構成とす ることもできる。
つぎに、 本発明を適用した第 1 0の実施の形態として示す遠隔会 議システムについて説明する。
この遠隔会議システムは、 遠隔会議装置 T C Dには注目度検出装 置、 グルーピング装置及び加工装置の機能を備えない点で、 基本構 成を第 8の実施の形態として示した遠隔会議システムと同様とする が、 注目度検出装置、 並びに、 グルーピング装置及び加工装置の機 能をそれそれ 2つのサーバ S V 1 , S V 2において実現するもので ある。 したがって、 第 8の実施の形態として示した遠隔会議システ ムと対応する構成については同一符号を付して詳細な説明を省略す o
この遠隔会議システムにおいて、 各遠隔会議装置 T C Dは、 それ それ対応する会議参加者 H Mの画像データ及び音声データを取り込 み、 この会議参加者 H Mの画像データ及び音声データを通信ネッ ト ワーク N Tを介して他の遠隔会議装置 T C Dに送信するとともに、 他の遠隔会議装置 T C Dから送信されてきた他の会議参加者 H Mの 画像データ及び音声データを受信し、 提示することができる。
この遠隔会議システムにおける各遠隔会議装置 T C Dは、 それそ れ、 図 6 8に示したような構成を備えている。 すなわち、 各遠隔会 議装置 T C Dは、 それそれ、 会議参加者 H Mの例えば正面に配置さ れているモニタ装置 M Dのカメラから供給された画像データや上述 したスィ ッチ SWからのスィ ツチ押下情報をネッ トワーク接続端子 TN 1を介して通信ネヅ トワーク NTから、 サーバ S V 1に送信す る。
サーバ SV 1は、 図 72に示すように構成され、 会議中において 同じ話題に参加している各会議参加者をグループ分けするためのグ ループ判定用情報を生成する注目度検出装置として機能する。
この図 72において、 サーバ S V Iは、 上述したネッ トワーク接 続端子 1 1 ,と、 倩報送受信部 10 ,とを備えるとともに、 グループ 判定用情報生成部 J Bを備えている。
情報送受信部 10 ,は、 通信ネッ トワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD nから送信されてきた各会議参加者 HMの 例えば正面に配置されているモニタ装置 MDのカメラから供給され た画像データゃスィ ツチ押下情報を受信し、 これらの画像デ一夕や スィ ツチ押下情報をグループ判定用情報生成部 J Bに供給する。 ま た、 情報送受信部 10 ,は、 グループ判定用情報生成部 J Bによって 生成されたグループ判定用情報をネッ トワーク接続端子 1 1 ,及び通 信ネッ トワーク NTを介してサーバ SV 2に送信する。
グループ判定用情報生成部 J Bは、 上述したように、 グループ判 定用情報を生成する。
グループ判定用情報生成部 J Bは、 例えば図 3又は図 4に示した ように、 会議参加者 HMの例えば正面に配置されているモニタ装置 MDmのカメラから供給された画像データや上述したスィツチ SW からのスィ ツチ押下情報に基づいて、 各会議参加者 HMの注目度を 検出し、 その検出結果に基づいて、 上述したグループ判定用情報を 生成する。 このとき、 グループ判定用情報生成部 J Bは、 上述した 方向検出処理を行う。
グループ判定用情報生成部 J Bは、 生成したグループ判定用情報 を情報送受信部 10 ,に供給する。
一方、 サーバ SV2は、 図 73に示すように構成され、 サーバ S V 1から送信されてきたグループ判定用情報に基づいてグループ分 けを行い、 各会議参加者 HMが何れのグループに属しているのかを 表すグループ情報を生成するグルーピング装置として機能する。 ま た、 サーバ SV2は、 グループ判定部 G J Dから供給されたグルー プ情報に基づいて、 各遠隔会議装置 T CD l〜T CDnにそれそれ 対応する画像データ及び/又は音声データに対して情報加工を行う 加工装置として機能する。
この図 73において、 サーバ S V 2は、 上述したネッ トワーク接 続端子 1 12と、 情報送受信部 102とを備えるとともに、 グループ 判定部 GJDと、 情報加工部 P Bとを備えている。
情報送受信部 102は、 通信ネッ トワーク NTを介して、 サーバ S V 1から送信されてきた各グループ判定用情報を受信し、 これらの 各グループ判定用情報をグループ判定部 G J Dに供給する。 また、 情報送受信部 102は、 通信ネッ トワーク NTを介して送信されてき た信号を受信すると、 この信号から各遠隔会議装置 T CD 1〜TC D nにそれそれ対応する画像データ及び音声デ一夕を分離し、 分離 した各画像デ一夕及び各音声データをそれそれ情報加工部 P Bに供 給する。 さらに、 情報送受信部 102は、 情報加工部 PBによって調 整処理された各画像データ ·各音声データを通信ネッ トワーク NT を介して各遠隔会議装置 T CD 1〜T CD nに送信する。
グループ判定部 GJDは、 上述したように、 各グループ判定用情 報に基づいてグループ判定を行うとともに、 そのグループ判定結果 に基づいて各会議参加者 HMが何れのグループに属しているのかを 表すグループ情報を生成する。
ここで、 グループ判定部 GJDは、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 サーバ SV 1からグルー プ判定用情報を受け取る前段として、 図 8に示した通信開始時の初 期化処理を行う。 また、 グループ判定部 G J Dは、 サーバ S V Iか らグループ判定用情報を受け取ると、 図 9に示したグループ判定用 情報発生時の処理を行う。 グループ判定部 G J Dは、 生成したグル ープ情報を情報加工部 P Bに供給する。
情報加工部 P Bは、 グループ判定部 G J Dから供給されたグルー プ情報に基づいて、 各遠隔会議装置 T CD 1〜T CD ηにそれそれ 対応する画像データ及び/又は音声データに対して情報加工を行う 際に利用するパラメ一夕を演算し、 さらに、 この演算によって求め たパラメ一夕に基づいて、 各遠隔会議装置 T CD l〜TCDnにそ れそれ対応して分離された画像デ一夕及び/又は音声データに対し て所望の調整処理を施し、 その調整処理後の各画像データ ·各音声 データを、 情報送受信部 102及びネッ トワーク接続端子 1 12を介 して通信ネッ トワーク NTから、 各遠隔会議装置 T CD 1〜T CD nに対応して設けられている各モニタ装置 MD 1〜MD nに対して 送信する。
このような遠隔会議システムは、 サーバ S V 1におけるグループ 判定用情報生成部 J Bにより、 会議参加者 HMの注目度を検出し、 その検出結果に基づいて、 各会議参加者 HMが何れのグループの話 題に参加しているのかを判定するために用いられるグループ判定用 情報を生成する。 そして、 遠隔会議システムは、 サーバ S V 2にお けるグループ判定部 G J Dにより、 グループ判定用情報に基づいて グループ分けを行い、 各会議参加者 H Mが何れのグループに属して いるのかを表すグループ情報を生成し、 サーバ S V 2における情報 加工部 P Bにより、 グループ情報に基づいて、 各遠隔会議装置 T C Dにそれそれ対応する画像データ及び/又は音声データに所望の調 整処理を施す。
以上のように、 本発明を適用した第 1 0の実施の形態として示す 遠隔会議システムは、 注目度検出装置、 並びに、 グルービング装置 及び加工装置の機能をそれそれ 2つのサーバ S V 1 , S V 2におい て実現することができる。 そのため、 遠隔会議システムは、 個々の 遠隔会議装置 T C Dの処理負担を軽減して構成を簡易なものとする ことができるとともに、 サーバ S V 1 , S V 2の処理負担も軽減し て構成を簡易なものとすることができる。 勿論、 遠隔会議システム においては、 同じ話題に参加している各会議参加者の発言を特に聞 き取り易く、 また見易くすることが可能となる。
なお、 遠隔会議システムにおける各遠隔会議装置 T C Dの信号処 理装置 S P Dやサーバ S V 1 , S V 2は、 図 5 0に示した例えばパ —ソナルコンピュータ等の装置で実現することができる。 また、 各 遠隔会議装置 T C Dとしては、 図 5 1乃至図 5 4に示した構成とす ることもできる。
つぎに、 本発明を適用した第 1 1の実施の形態として示す遠隔会 議システムについて説明する。
この遠隔会議システムは、 遠隔会議装置 T C Dには注目度検出装 置、 グルービング装置及び加工装置の機能を備えない点で、 基本構 成を第 8の実施の形態として示した遠隔会議システムと同様とする が、 図 7 4に概略構成を示すように、 注目度検出装置、 グルーピン グ装置及び加工装置の機能をそれそれ 3つのサーバ S V 1, S V 2 S V 3において実現するものである。 したがって、 第 8の実施の形 態として示した遠隔会議システムと対応する構成については同一符 号を付して詳細な説明を省略する。
この遠隔会議システムにおいて、 各遠隔会議装置 T C Dは、 それ それ対応する会議参加者 H Mの画像データ及び音声データを取り込 み、 この会議参加者 H Mの画像デ一夕及び音声データを通信ネッ ト ワーク N Tを介して他の遠隔会議装置 T C Dに送信するとともに、 他の遠隔会議装置 T C Dから送信されてきた他の会議参加者 H Mの 画像データ及び音声データを受信し、 提示することができる。
この遠隔会議システムにおける各遠隔会議装置 T C Dは、 それそ れ、 図 6 8に示したような構成を備えている。 すなわち、 各遠隔会 議装置 T C Dは、 それそれ、 会議参加者 H Mの例えば正面に配置さ れているモニタ装置 M Dのカメラから供給された画像デ一夕や上述 したスイ ッチ S Wからのスィツチ押下情報をネッ トワーク接続端子 T 1を介して通信ネヅ トワーク N Tから、 サーバ S V 1に送信す o
サーバ S V 1は、 図 7 5に示すように構成され、 会議中において 同じ話題に参加している各会議参加者をグループ分けするためのグ ループ判定用情報を生成する注目度検出装置として機能する。
この図 7 5において、 サーバ S V Iは、 上述したネッ トワーク接 続端子 1 1 iと、 情報送受信部 1 0 とを備えるとともに、 グループ 判定用情報生成部 J Bを備えている。 情報送受信部 10 ,は、 通信ネッ トワーク NTを介して、 各遠隔会 議装置 T CD 1〜T CD nから送信されてきた各会議参加者 HMの 例えば正面に配置されているモニタ装置 MDのカメラから供給され た画像デ一夕ゃスィ ツチ押下情報を受信し、 これらの画像データや スィツチ押下情報をグループ判定用情報生成部 J Bに供給する。 ま た、 情報送受信部 10 tは、 グループ判定用情報生成部 J Bによって 生成されたグループ判定用情報をネッ トワーク接続端子 1 1 i及び通 信ネッ トワーク N Tを介してサーバ S V 2に送信する。
グループ判定用情報生成部 J Bは、 上述したように、 グループ判 定用情報を生成する。
グループ判定用情報生成部 J Bは、 例えば図 3又は図 4に示した ように、 会議参加者 HMの例えば正面に配置されているモニタ装置 M Dmのカメラから供給された画像デ一夕や上述したスィツチ SW からのスィツチ押下情報に基づいて、 各会議参加者 HMの注目度を 検出し、 その検出結果に基づいて、 上述したグループ判定用情報を 生成する。 このとき、 グループ判定用情報生成部 J Bは、 上述した 方向検出処理を行う。
グループ判定用情報生成部 j Bは、 生成したグループ判定用情報 を情報送受信部 10 に供給する。
サーバ SV2は、 図 76に示すように構成され、 サーバ S V Iか ら送信されてきたグループ判定用情報に基づいてグループ分けを行 い、 各会議参加者 HMが何れのグループに属しているのかを表すグ ループ情報を生成するグルービング装置として機能する。
この図 76において、 サーバ SV2は、 上述したネッ トワーク接 続端子 1 12と、 情報送受信部 102とを備えるとともに、 グループ 判定部 GJDを備えている。
情報送受信部 102は、 通信ネッ トワーク NTを介して、 サーバ S V 1から送信されてきた各グループ判定用情報を受信し、 これらの 各グループ判定用情報をグループ判定部 G J Dに供給する。 また、 情報送受信部 102は、 グループ判定部 GJDによって生成されたグ ループ情報をネッ トワーク接続端子 1 12及び通信ネッ トワーク NT を介してサーバ S V 3に送信する。
グループ判定部 G J Dは、 上述したように、 各グループ判定用情 報に基づいてグループ判定を行うとともに、 そのグループ判定結果 に基づいて各会議参加者 HMが何れのグループに属しているのかを 表すグループ情報を生成する。
ここで、 グループ判定部 GJDは、 図 6に示した注目先表と、 図 7に示したグループ表とを保持しており、 サーバ SV 1からグルー プ判定用情報を受け取る前段として、 図 8に示した通信開始時の初 期化処理を行う。 また、 グループ判定部 G J Dは、 サーバ S V Iか らグループ判定用情報を受け取ると、 図 9に示したグループ判定用 情報発生時の処理を行う。 グループ判定部 G J Dは、 生成したグル ープ情報を情報送受信部 102に供給する。
サーバ SV3は、 図 77に示すように構成され、 サーバ SV2か ら送信されてきたグループ情報に基づいて、 各遠隔会議装置 T CD 1〜T CD ηにそれそれ対応する画像データ及び Ζ又は音声データ に対して情報加工を行う加工装置として機能する。
この図 77において、 サーバ SV3は、 上述したネッ トワーク接 続端子 1 12と、 情報送受信部 102とを備えるとともに、 情報加工 部 ΡΒを備えている。 情報送受信部 103は、 通信ネッ トワーク N Tを介して、 サーバ S V 2から送信されてきたグループ情報を受信し、 このグループ情報 を情報加工部 PBに供給する。 また、 情報送受信部 103は、 通信ネ ッ トワーク NTを介して送信されてきた信号を受信すると、 この信 号から各遠隔会議装置 T CD 1〜T CD ηにそれそれ対応する画像 データ及び音声データを分離し、 分離した各画像データ及び各音声 データをそれそれ情報加工部 ΡΒに供給する。 さらに、 情報送受信 部 103は、 情報加工部 ΡΒによって調整処理された各画像データ · 各音声データを通信ネッ トワーク NTを介して各遠隔会議装置 T C D 1〜T C D ηに送信する。
情報加工部 ΡΒは、 情報送受信部 103から供給されたグループ情 報に基づいて、 各遠隔会議装置 T CD 1〜T CD ηにそれそれ対応 する画像データ及び/又は音声データに対して情報加工を行う際に 利用するパラメ一夕を演算し、 さらに、 この演算によって求めたパ ラメ一夕に基づいて、 各遠隔会議装置 T CD l〜TCDnにそれそ れ対応して分離された画像データ及び/又は音声データに対して所 望の調整処理を施し、 その調整処理後の各画像データ ·各音声デー 夕を、 情報送受信部 103及びネッ トワーク接続端子 1 13を介して 通信ネッ トワーク NTから、 各遠隔会議装置 T CD l〜TCDnに 対応して設けられている各モニタ装置 MD 1〜MD nに対して送信 する。
このような遠隔会議システムは、 サーバ S V 1におけるグループ 判定用情報生成部 J Bにより、 会議参加者 HMの注目度を検出し、 その検出結果に基づいて、 各会議参加者 HMが何れのグループの話 題に参加しているのかを判定するために用いられるグループ判定用 情報を生成する。 そして、 遠隔会議システムは、 サーバ SV2にお けるグループ判定部 GJDにより、 グループ判定用情報に基づいて グループ分けを行い、 各会議参加者 HMが何れのグループに属して いるのかを表すグループ情報を生成する。 さらに、 遠隔会議システ ムは、 サーバ SV3における情報加工部 PBにより、 グループ情報 に基づいて、 各遠隔会議装置 T CDにそれそれ対応する画像データ 及びノ又は音声デ一夕に所望の調整処理を施す。
以上のように、 本発明を適用した第 1 1の実施の形態として示す 遠隔会議システムは、 注目度検出装置、 グルーピング装置及び加工 装置の機能をそれそれ 3つのサーバ S V 1 , S V 2 , SV3におい て実現することができる。 そのため、 遠隔会議システムは、 個々の 遠隔会議装置 T CDの処理負担を大幅に軽減して構成を簡易なもの とすることができるとともに、 サーバ S V I , S V 2 , SV3の処 理負担も軽減して構成を簡易なものとすることができる。 勿論、 遠 隔会議システムにおいては、 同じ話題に参加している各会議参加者 の発言を特に聞き取り易く、 また見易くすることが可能となる。 なお、 遠隔会議システムにおける各遠隔会議装置 T CDの信号処 理装置 S P Dやサーバ S V 1 , S V 2 , SV3は、 図 50に示した 例えばパーソナルコンピュータ等の装置で実現することができる。 また、 各遠隔会議装置 T CDとしては、 図 5 1乃至図 54に示した 構成とすることもできる。
以上説明したように、 本発明の実施の形態として示す遠隔会議シ ステムにおいては、 複数の会議参加者が同時に発言するような場合 でも、 自己が属するグループの発'言を聞き易くなり、 また、 画像も 見易くなる。 したがって、 遠隔会議システムは、 各会議参加者にお いて情報の充足と快適さを与えることができる。
なお、 本発明は、 上述した実施の形態に限定されるものではない, 例えば、 上述した全ての実施の形態では、 各モニタ装置 M Dと信号 処理装置 S P Dとが別構成であるものとして説明したが、 各モニタ 装置 M Dのそれそれ或いは 1つに信号処理装置 S P Dの機能を持た せることも可能である。
また、 上述した全ての実施の形態では、 方向検出の具体例として 視線と顔向き検出をそれそれ別個に行う例を挙げて説明したが、 そ れら両方の方向検出を同時に行うことも可能である。
さらに、 上述した全ての実施の形態では、 1人の会議参加者が所 属できるグループを各時刻において 1つとした例を挙げているが、 それ以外に、 例えば、 主に属しているグループや発言はしないが情 報は得たいグループといった複数のグループを定義しておき、 各人 の会議参加者を複数のグループに所属可能とし、 相手方の会議参加 者の各人がどのグループに属しているかにより、 音声、 画像等の情 報を制御/加工するような例も考えられる。 また、 このとき、 各会 議参加者にそれそれ対応するモニタ装置に照明器が設けられている ような場合には、 相手方の会議参加者の各人がどのグループに属し ているかにより、 照明器を制御することも考えられる。
さらにまた、 上述した全ての実施の形態では、 グループ判定用情 報に基づいてグループ判定した結果を、 グループ情報の生成に用い るものとして説明したが、 このグループ判定結果は、 様々な利用方 法が考えられる。
例えば、 グループ判定結果の他の利用方法としては、 会議に先立 ち、 議論すべき複数の議題と、 議題毎の必要な参加者とを登録して おき、 会議中、 各会話毎にグループ判定した結果に基づいて、 各グ ループ内で話し合える議題を画像や音声で提示するものが考えられ る。 この際、 議題に必要な参加者の全員が揃っていない場合でも、 例えばある議題に必要な参加者の大半からなるグループが存在する ような場合には、 必要な参加者のうちグループ内にいない人、 及び、 議題自体を画像や音声で提示することもできる。
また、 グループ判定結果のさらに他の利用方法としては、 遠隔会 議装置 T C Dの娯楽的利用に供するものである。 すなわち、 グルー プ判定結果のさらに他の利用方法としては、 会議に先立ち、 各会議 参加者が自分の興味のある分野を登録しておき、 会議中、 各グルー プ内にいる参加者に応じて興味の集中分野を調べ、 集中度の高い分 野に関する話題を提供するものが考えられる。 この利用方法を適用 した場合には、 例えば、 野球が好きであると登録している参加者が 多く含まれるグループに対しては、 会議に近い時点で行われた野球 の試合結果等を提示することができる。
このように、 本発明は、 その趣旨を逸脱しない範囲で適宜変更が 可能であることはいうまでもない。 産業上の利用可能性 以上詳細に説明したように、 本発明にかかる通信システムは、 他 の通信装置のそれそれから通信される通信データに対する注目度を 検出するための注目度予測情報を取得する注目度予測情報取得手段 と、 グループ情報に基づいて加工された通信データをそれそれ対応 する提示装置に出力する通信データ出力手段とを有する少なく とも 3つの通信装置と、 注目度予測情報に基づいて、 注目度を検出する 注目度検出手段と、 注目度を出力する注目度出力手段とを有する注 目度検出装置と、 注目度に基づいて、 通信データのグルーピングを 行うグルービング手段と、 グルーピングの結果を示すグループ情報 を出力するグループ情報出力手段とを有するグルーピング装置と、 通信装置のそれそれに対して他の通信装置から送信される通信デー 夕をグループ情報に基づいて加工する加工手段と、 この加工手段に よって加工された通信データを出力する加工データ出力手段とを有 する加工装置とを備える。
したがって、 本発明にかかる通信システムは、 少なく とも 3つの 通信装置間で通信を行う場合に、 各通信装置が送信する通信データ に対する注目度に応じて複数の通信装置が送信する通信データをグ ルービングし、 その複数の通信装置が送信する通信データのグルー ビングに応じて、 他の通信装置からの通信デ一夕を加工することに より、 例えば遠隔会議システムにおいて、 同じ話題に参加している 各会議参加者の発言を特に聞き取り易く、 また見易くすることがで きる。
また、 本発明にかかる通信システムは、 他の通信装置のそれそれ から通信される通信データに対する注目度を検出するための注目度 予測情報を取得する注目度予測情報取得手段と、 グループ情報に基 づいて加工された通信データをそれそれ対応する提示装置に出力す る通信データ出力手段とを有する少なく とも 3つの通信装置と、 注 目度予測情報に基づいて、 注目度を検出する注目度検出手段と、 注 目度を出力する注目度出力手段とを有する注目度検出装置と、 注目 度に基づいて、 通信データのグルーピングを行うグルーピング手段 と、 グルービングの結果を示すグループ情報を出力するグループ情 報出力手段とを有するグルーピング装置と、 通信装置のそれそれに 対して他の通信装置から送信された通信データをグループ情報に基 づいて加工する加工手段と、 この加工手段によって加工された通信 データを出力する加工デ一夕出力手段とを有する加工装置とを備え る
したがって、 本発明にかかる通信システムは、 少なく とも 3つの 通信装置間で通信を行う場合に、 各通信装置が送信する通信データ に対する注目度に応じて複数の通信装置が送信する通信データをグ ルービングし、 その複数の通信装置が送信する通信データのグルー ビングに応じて、 他の通信装置からの通信データを加工することに より、 例えば遠隔会議システムにおいて、 同じ話題に参加している 各会議参加者の発言を特に聞き取り易く、 また見易くすることがで ぎ 。
さらに、 本発明にかかるグルーピング装置は、 少なく とも 3つの 通信装置を含む通信システムで使用され、 通信装置のそれそれに対 して他の通信装置から通信される通信デ一夕をグルーピングするグ ルービング装置において、 通信装置のそれそれに対応するユーザの、 他の通信装置からの通信デ一夕のそれそれに対する注目度に基づい て、 通信データのグルービングを行うグルーピング手段と、 このグ ル一ビング手段によるグルーピングの結果を示すグループ情報を出 力するグループ情報出力手段とを備える。
したがって、 本発明にかかるグルーピング装置は、 少なく とも 3 つの通信装置間で通信を行う場合に適用することにより、 各通信装 置が送信する通信デ一夕に対する注目度に応じて複数の通信装置が 送信する通信データをグルーピングし、 その複数の通信装置が送信 する通信データのグルーピングに応じて、 他の通信装置からの通信 デ一夕を加工することができ、 例えば遠隔会議システムにおいて、 同じ話題に参加している各会議参加者の発言を特に聞き取り易く、 また見易くすることができる。
さらにまた、 本発明にかかるグルーピング方法は、 少なく とも 3 つの通信装置を含む通信システムで使用され、 通信装置のそれそれ に対して他の通信装置から通信される通信データをグルーピングす るグルーピング方法において、 通信装置のそれそれに対応するユー ザの、 他の通信装置からの通信デ一夕のそれそれに対する注目度に 基づいて、 通信データのグルーピングを行うグルーピング工程と、 このグルーピング工程によるグルーピングの結果を示すグループ情 報を出力するグループ情報出力工程とを備える。
したがって、 本発明にかかるグルーピング方法は、 少なく とも 3 つの通信装置間で通信を行う場合に適用することにより、 各通信装 置が送信する通信データに対する注目度に応じて複数の通信装置が 送信する通信デ一夕をグルービングし、 その複数の通信装置が送信 する通信デ一夕のグルーピングに応じて、 他の通信装置からの通信 デ一夕を加工することを可能とし、 例えば遠隔会議システムにおい て、 同じ話題に参加している各会議参加者の発言を特に聞き取り易 く、 また見易くすることを可能とする。
また、 本発明にかかるグルーピングプログラムが記録された記録 媒体は、 少なく とも 3つの通信装置を含む通信システムで使用され、 通信装置のそれそれに対して他の通信装置から通信される通信デ一 夕をグルーピングするコンビユー夕制御可能なグルーピングブログ ラムが記録された記録媒体において、 グルーピングプログラムは、 通信装置のそれそれに対応するユーザの、 他の通信装置からの通信 データのそれそれに対する注目度に基づいて、 通信データのグルー ビングを行うグルービング工程と、 このグル一ビング工程によるグ ルービングの結果を示すグループ情報を出力するグループ情報出力 工程とを備える。
したがって、 本発明にかかるグルーピングプログラムが記録され た記録媒体は、 少なく とも 3つの通信装置間で通信を行う場合に適 用することにより、 各通信装置が送信する通信データに対する注目 度に応じて複数の通信装置が送信する通信デ一夕をグルーピングし、 その複数の通信装置が送信する通信デ一夕のグルーピングに応じて、 他の通信装置からの通信データを加工することが可能となり、 例え ば遠隔会議システムにおいて、 同じ話題に参加している各会議参加 者の発言を特に聞き取り易く、 また見易くすることが可能となる。 さらに、 本発明にかかる情報処理装置は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システムにおける情報処理装置 において、 通信装置のそれそれからの通信データを受信するととも に、 通信装置のそれそれから送信された注目度であり、 通信装置の それそれ自身を除く他の通信装置から送信される通信データに対す る注目度を受信する受信手段と、 注目度に基づいて、 通信データの グルーピングを行うグルーピング手段と、 通信デ一夕のそれぞれが 属するグループに基づいて、 通信装置のそれそれについて、 通信装 置のそれそれ自身を除く他の通信装置から送信された通信データを 加工する加工手段と、 この加工手段によって加工された通信データ を、 通信装置のそれそれに送信する加工データ出力手段とを備える。 したがって、 本発明にかかる情報処理装置は、 少なく とも 3つの 通信装置間で通信を行う場合に、 各通信装置が送信する通信データ に対する注目度に応じて複数の通信装置が送信する通信データをグ ル一ビングし、 その複数の通信装置が送信する通信データのグルー ビングに応じて、 他の通信装置からの通信デ一夕を加工することが でき、 例えば遠隔会議システムにおいて、 同じ話題に参加している 各会議参加者の発言を特に聞き取り易く、 また見易くすることがで きる。
また、 この情報処理装置は、 受信手段が、 注目度の代わりに、 通 信装置のそれそれから送信されたユーザの反応情報であり、 通信装 置のそれそれに対応するユーザの反応情報を受信し、 当該情報処理 装置は、 ユーザの反応情報に基づいて、 通信データのそれそれに対 する注目度を検出する注目度検出手段をさらに備える。
したがって、 この情報処理装置は、 少なく とも 3つの通信装置間 で通信を行う場合に、 各通信装置が送信する通信データに対する注 目度を検出することができ、 さらに、 この注目度に応じて複数の通 信装置が送信する通信データをグルーピングし、 その複数の通信装 置が送信する通信デ一夕のグルーピングに応じて、 他の通信装置か らの通信データを加工することができ、 例えば遠隔会議システムに おいて、 同じ話題に参加している各会議参加者の発言を特に聞き取 り易く、 また見易くすることができる。
さらにまた、 本発明にかかる情報処理方法は、 情報処理装置と少 なく とも 3つの通信装置とを有する通信システムにおける情報処理 方法において、 通信装置のそれそれからの通信データを受信すると ともに、 通信装置のそれそれから送信された注目度であり、 通信装 置のそれそれ自身を除く他の通信装置から送信される通信データに 対する注目度を受信する受信工程と、 注目度に基づいて、 通信デー 夕のグルーピングを行うグルーピング工程と、 通信デ一夕のそれそ れが属するグループに基づいて、 通信装置のそれそれについて、 通 信装置のそれそれ自身を除く他の通信装置から送信された通信デー 夕を加工する加工工程と、 この加工工程にて加工された通信デ一夕 を、 通信装置のそれそれに送信する加工データ出力工程とを備える ( したがって、 本発明にかかる情報処理方法は、 少なく とも 3つの 通信装置間で通信を行う場合に、 各通信装置が送信する通信データ に対する注目度に応じて複数の通信装置が送信する通信データをグ ルービングし、 その複数の通信装置が送信する通信デ一夕のグルー ビングに応じて、 他の通信装置からの通信データを加工することを 可能とし、 例えば遠隔会議システムにおいて、 同じ話題に参加して いる各会議参加者の発言を特に聞き取り易く、 また見易くすること を可能とする。
また、 この情報処理方法は、 受信工程では、 注目度の代わりに、 通信装置のそれそれから送信されたユーザの反応情報であり、 通信 装置のそれそれに対応するユーザの反応情報が受信され、 当該情報 処理方法は、 ユーザの反応情報に基づいて、 通信データのそれそれ に対する注目度を検出する注目度検出工程をさらに備える。
したがって、 この情報処理方法は、 少なく とも 3つの通信装置間 で通信を行う場合に、 各通信装置が送信する通信データに対する注 目度を検出することを可能とし、 さらに、 この注目度に応じて複数 の通信装置が送信する通信デ一夕をグルーピングし、 その複数の通 信装置が送信する通信データのグルーピングに応じて、 他の通信装 置からの通信データを加工することを可能とし、 例えば遠隔会議シ ステムにおいて、 同じ話題に参加している各会議参加者の発言を特 に聞き取り易く、 また見易くすることを可能とする。
また、 本発明にかかる情報処理プログラムが記録された記録媒体 は、 情報処理装置と少なく とも 3つの通信装置とを有する通信シス テムにおけるコンピュータ制御可能な情報処理プログラムが記録さ れた記録媒体において、 情報処理プログラムは、 通信装置のそれそ れからの通信デ一夕を受信するとともに、 通信装置のそれそれから 送信された注目度であり、 通信装置のそれそれ自身を除く他の通信 装置から送信される通信データに対する注目度を受信する受信工程 と、 注目度に基づいて、 通信データのグルーピングを行うグルービ ング工程と、 通信デ一夕のそれそれが属するグループに基づいて、 通信装置のそれそれについて、 通信装置のそれそれ自身を除く他の 通信装置から送信された通信デ一夕を加工する加工工程と、 この加 ェ工程にて加工された通信データを、 通信装置のそれそれに送信す る加工データ出力工程とを備える。
したがって、 本発明にかかる情報処理プログラムが記録された記 録媒体は、 少なく とも 3つの通信装置間で通信を行う場合に、 各通 信装置が送信する通信データに対する注目度に応じて複数の通信装 置が送信する通信デ一夕をグルーピングし、 その複数の通信装置が 送信する通信データのグルーピングに応じて、 他の通信装置からの 通信デ一夕を加工することが可能となり、 例えば遠隔会議システム において、 同じ話題に参加している各会議参加者の発言を特に聞き 取り易く、 また見易くすることが可能となる。
また、 この情報処理プログラムが記録された記録媒体は、 受信ェ 程では、 注目度の代わりに、 通信装置のそれそれから送信されたュ 一ザの反応情報であり、 通信装置のそれそれに対応するユーザの反 応情報が受信され、 情報処理プログラムは、 ユーザの反応情報に基 づいて、 通信デ一夕のそれそれに対する注目度を検出する注目度検 出工程をさらに備える。
したがって、 この情報処理プログラムが記録された記録媒体は、 少なく とも 3つの通信装置間で通信を行う場合に、 各通信装置が送 信する通信デ一夕に対する注目度を検出することが可能となり、 さ らに、 この注目度に応じて複数の通信装置が送信する通信データを グルーピングし、 その複数の通信装置が送信する通信データのグル 一ビングに応じて、 他の通信装置からの通信データを加工すること が可能となり、 例えば遠隔会議システムにおいて、 同じ話題に参加 している各会議参加者の発言を特に聞き取り易く、 また見易くする ことが可能となる。
さらに、 本発明にかかる通信装置は、 情報処理装置と少なく とも
3つの通信装置とを有する通信システムにおける通信装置において、 他の通信装置からの通信データを受信するとともに、 情報処理装置 から送信された通信データの属するグループを示すグループ情報を 受信する受信手段と、 通信装置からの通信データのそれそれに対す るユーザの反応情報を取得する情報取得手段と、 ユーザの反応情報 に基づいて、 通信データのそれそれに対する注目度を検出する注目 度検出手段と、 注目度を情報処理装置に出力する注目度出力手段と、 グループ情報に基づいて、 通信データを加工する加工手段と、 この 加工手段によって加工された通信デ一夕を提示装置に出力する加工 データ出力手段とを備える。 したがって、 本発明にかかる通信装置は、 少なく とも 3つの通信 装置間で通信を行う場合に、 各通信装置が送信する通信デ一夕に対 する注目度に応じて複数の通信装置が送信する通信デ一夕をグルー ビングし、 その複数の通信装置が送信する通信データのグルーピン グに応じて、 他の通信装置からの通信データを加工することができ、 例えば遠隔会議システムにおいて、 同じ話題に参加している各会議 参加者の発言を特に聞き取り易く、 また見易くすることができる。 さらにまた、 本発明にかかる通信方法は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システムにおける通信方法にお いて、 他の通信装置からの通信データを受信する第 1の受信工程と、 通信装置からの通信データのそれそれに対するユーザの反応情報を 取得する情報取得工程と、 ユーザの反応情報に基づいて、 通信デー 夕のそれぞれに対する注目度を検出する注目度検出工程と、 注目度 を情報処理装置に出力する注目度出力工程と、 情報処理装置から送 信された通信データの属するグループを示すグループ情報を受信す る第 2の受信工程と、 グループ情報に基づいて、 通信データを加工 する加工工程と、 この加工工程にて加工された通信データを提示装 置に出力する加工データ出力工程とを備える。
したがって、 本発明にかかる通信方法は、 少なく とも 3つの通信 装置間で通信を行う場合に、 各通信装置が送信する通信データに対 する注目度に応じて複数の通信装置が送信する通信データをグルー ビングし、 その複数の通信装置が送信する通信データのグルーピン グに応じて、 他の通信装置からの通信デ一夕を加工することを可能 とし、 例えば遠隔会議システムにおいて、 同じ話題に参加している 各会議参加者の発言を特に聞き取り易く、 また見易くすることを可 能とする。
また、 本発明にかかる通信プログラムが記録された記録媒体は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システム におけるコンピュータ制御可能な通信プログラムが記録された記録 媒体において、 通信プログラムは、 他の通信装置からの通信デ一夕 を受信する第 1の受信工程と、 通信装置からの通信データのそれそ れに対するユーザの反応情報を取得する情報取得工程と、 ユーザの 反応情報に基づいて、 通信データのそれそれに対する注目度を検出 する注目度検出工程と、 注目度を情報処理装置に出力する注目度出 力工程と、 情報処理装置から送信された通信データの属するグルー プを示すグループ情報を受信する第 2の受信工程と、 グループ情報 に基づいて、 通信デ一夕を加工する加工工程と、 この加工工程にて 加工された通信データを提示装置に出力する加工データ出力工程と を備える。
したがって、 本発明にかかる通信プログラムが記録された記録媒 体は、 少なくとも 3つの通信装置間で通信を行う場合に、 各通信装 置が送信する通信データに対する注目度に応じて複数の通信装置が 送信する通信データをグルーピングし、 その複数の通信装置が送信 する通信データのグルーピングに応じて、 他の通信装置からの通信 データを加工することが可能となり、 例えば遠隔会議システムにお いて、 同じ話題に参加している各会議参加者の発言を特に聞き取り 易く、 また見易くすることが可能となる。
さらに、 本発明にかかる情報処理装置は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システムにおける情報処理装置 において、 通信装置のそれそれから送信された通信データに対する 注目度を受信する受信手段と、 注目度に基づいて、 通信データのグ ル一ビングを行うグルーピング手段と、 このグルーピング手段によ るグルーピングの結果を示すグループ情報を出力するグループ情報 出力手段とを備える。
したがって、 本発明にかかる情報処理装置は、 少なく とも 3つの 通信装置間で通信を行う場合に、 各通信装置が送信する通信データ に対する注目度に応じて複数の通信装置が送信する通信データをグ ルービングし、 その複数の通信装置が送信する通信データのグルー ピングに応じて、 他の通信装置からの通信デ一夕を加工することが でき、 例えば遠隔会議システムにおいて、 同じ話題に参加している 各会議参加者の発言を特に聞き取り易く、 また見易くすることがで きる。
また、 この情報処理装置は、 受信手段が、 注目度の代わりに、 通 信装置のそれそれから送信された通信データを受信し、 当該情報処 理装置は、 通信デ一夕のそれそれに対するユーザの注目度を検出す る注目度検出手段をさらに備える。
したがって、 この情報処理装置は、 少なく とも 3つの通信装置間 で通信を行う場合に、 各通信装置が送信する通信データに対する注 目度を検出することができ、 さらに、 この注目度に応じて複数の通 信装置が送信する通信データをグルーピングし、 その複数の通信装 置が送信する通信デ一夕のグルーピングに応じて、 他の通信装置か らの通信デ一夕を加工することができ、 例えば遠隔会議システムに おいて、 同じ話題に参加している各会議参加者の発言を特に聞き取 り易く、 また見易くすることができる。
さらにまた、 本発明にかかる情報処理方法は、 情報処理装置と少 なく とも 3つの通信装置とを有する通信システムにおける情報処理 方法において、 通信装置のそれそれから送信された通信デ一夕に対 する注目度を受信する受信工程と、 注目度に基づいて、 通信データ のグルーピングを行うグルーピング工程と、 このグルーピング工程 によるグルーピングの結果を示すグループ情報を出力するグループ 情報出力工程とを備える。
したがって、 本発明にかかる情報処理方法は、 少なく とも 3つの 通信装置間で通信を行う場合に、 各通信装置が送信する通信データ に対する注目度に応じて複数の通信装置が送信する通信データをグ ル一ビングし、 その複数の通信装置が送信する通信データのグルー ビングに応じて、 他の通信装置からの通信データを加工することを 可能とし、 例えば遠隔会議システムにおいて、 同じ話題に参加して いる各会議参加者の発言を特に聞き取り易く、 また見易くすること を可能とする。
また、 この情報処理方法は、 受信工程では、 注目度の代わりに、 通信装置のそれそれから送信された通信データが受信され、 当該情 報処理方法は、 通信データのそれそれに対するユーザの注目度を検 出する注目度検出工程をさらに備える。
したがって、 この情報処理方法は、 少なく とも 3つの通信装置間 で通信を行う場合に、 各通信装置が送信する通信データに対する注 目度を検出することを可能とし、 さらに、 この注目度に応じて複数 の通信装置が送信する通信データをグルーピングし、 その複数の通 信装置が送信する通信データのグルーピングに応じて、 他の通信装 置からの通信デ一夕を加工することを可能とし、 例えば遠隔会議シ ステムにおいて、 同じ話題に参加している各会議参加者の発言を特 に聞き取り易く、 また見易くすることを可能とする。
また、 本発明にかかる情報処理プログラムが記録された記録媒体 は、 情報処理装置と少なく とも 3つの通信装置とを有する通信シス テムにおけるコンピュータ制御可能な情報処理プログラムが記録さ れた記録媒体において、 情報処理プログラムは、 通信装置のそれそ れから送信された通信デ一夕に対する注目度を受信する受信工程と、 注目度に基づいて、 通信デ一夕のグルーピングを行うグルービング 工程と、 このグルーピング工程によるグルービングの結果を示すグ ループ情報を出力するグループ情報出力工程とを備える。
したがって、 本発明にかかる情報処理プログラムが記録された記 録媒体は、 少なく とも 3つの通信装置間で通信を行う場合に、 各通 信装置が送信する通信デ一夕に対する注目度に応じて複数の通信装 置が送信する通信データをグルーピングし、 その複数の通信装置が 送信する通信データのグルーピングに応じて、 他の通信装置からの 通信データを加工することが可能となり、 例えば遠隔会議システム において、 同じ話題に参加している各会議参加者の発言を特に聞き 取り易く、 また見易くすることが可能となる。
また、 この情報処理プログラムが記録された記録媒体は、 受信ェ 程では、 注目度の代わりに、 通信装置のそれそれから送信された通 信データが受信され、 情報処理プログラムは、 通信データのそれそ れに対するユーザの注目度を検出する注目度検出工程をさらに備え る o
したがって、 この情報処理プログラムが記録された記録媒体は、 少なく とも 3つの通信装置間で通信を行う場合に、 各通信装置が送 信する通信デ一夕に対する注目度を検出することが可能となり、 さ らに、 この注目度に応じて複数の通信装置が送信する通信データを グルーピングし、 その複数の通信装置が送信する通信デ一夕のグル —ビングに応じて、 他の通信装置からの通信データを加工すること が可能となり、 例えば遠隔会議システムにおいて、 同じ話題に参加 している各会議参加者の発言を特に聞き取り易く、 また見易くする ことが可能となる。
さらに、 本発明にかかる通信装置は、 少なく とも 3つの通信装置 間で通信を行う通信システムにおける通信装置において、 他の通信 装置からの通信データを受信する受信部と、 通信装置からの通信デ 一夕のそれそれに対するユーザの反応情報を取得する情報取得手段 と、 ユーザの反応情報に基づいて、 通信データのそれそれに対する 注目度を検出する注目度検出手段と、 注目度に基づいて、 通信デ一 夕のグルーピングを行うグルーピング手段と、 通信データのそれそ れが属するグループに基づいて、 通信データのそれそれを加工する 加工手段と、 この加工手段によって加工された通信デ一夕を提示装 置に出力する加工デ一夕出力手段とを備える。
したがって、 本発明にかかる通信装置は、 少なく とも 3つの通信 装置間で通信を行う場合に、 各通信装置が送信する通信データに対 する注目度に応じて複数の通信装置が送信する通信データをグルー ビングし、 その複数の通信装置が送信する通信データのグルーピン グに応じて、 他の通信装置からの通信データを加工することができ、 例えば遠隔会議システムにおいて、 同じ話題に参加している各会議 参加者の発言を特に聞き取り易く、 また見易くすることができる。 さらにまた、 本発明にかかる通信方法は、 少なく とも 3つの通信 装置間で通信を行う通信システムにおける通信方法において、 他の 通信装置からの通信データを受信する受信工程と、 通信装置からの 通信データのそれそれに対するユーザの反応情報を取得する情報取 得工程と、 ユーザの反応情報に基づいて、 通信データのそれそれに 対する注目度を検出する注目度検出工程と、 注目度に基づいて、 通 信デ一夕のグルーピングを行うグルーピング工程と、 通信データの それそれが属するグループに基づいて、 通信データのそれそれを加 ェする加工工程と、 この加工工程にて加工された通信データを提示 装置に出力する加工データ出力工程とを備える。
したがって、 本発明にかかる通信方法は、 少なく とも 3つの通信 装置間で通信を行う場合に、 各通信装置が送信する通信データに対 する注目度に応じて複数の通信装置が送信する通信データをグルー ビングし、 その複数の通信装置が送信する通信データのグルービン グに応じて、 他の通信装置からの通信データを加工することを可能 とし、 例えば遠隔会議システムにおいて、 同じ話題に参加している 各会議参加者の発言を特に聞き取り易く、 また見易くすることを可 能とする。
また、 本発明にかかる通信プログラムが記録された記録媒体は、 少なく とも 3つの通信装置間で通信を行う通信システムにおけるコ ンピュー夕制御可能な通信プログラムが記録された記録媒体におい て、 通信プログラムは、 他の通信装置からの通信データを受信する 受信工程と、 通信装置からの通信データのそれそれに対するユーザ の反応情報を取得する情報取得工程と、 ユーザの反応情報に基づい て、 通信データのそれそれに対する注目度を検出する注目度検出ェ 程と、 注目度に基づいて、 通信デ一夕のグルービングを行うグルー ビング工程と、 通信デ一夕のそれそれが属するグループに基づいて、 通信データのそれそれを加工する加工工程と、 この加工工程にて加 ェされた通信データを提示装置に出力する加工データ出力工程とを 備える。
したがって、 本発明にかかる通信プログラムが記録された記録媒 体は、 少なく とも 3つの通信装置間で通信を行う場合に、 各通信装 置が送信する通信データに対する注目度に応じて複数の通信装置が 送信する通信データをグルーピングし、 その複数の通信装置が送信 する通信データのグルーピングに応じて、 他の通信装置からの通信 データを加工することが可能となり、 例えば遠隔会議システムにお いて、 同じ話題に参加している各会議参加者の発言を特に聞き取り 易く、 また見易くすることが可能となる。
さらに、 本発明にかかる通信装置は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システムにおける通信装置において、 通信装置からの通信データのそれそれに対するユーザの反応情報を 取得する情報取得手段と、 情報処理装置からの通信データと、 情報 処理装置から送信された通信データの属するグループを示すグルー プ情報とを受信するとともに、 ユーザの反応情報を情報処理装置に 送信する通信手段と、 グループ情報に基づいて、 通信データを加工 する加工手段と、 この加工手段によって加工された通信データを提 示装置に出力する加工データ出力手段とを備える。
したがって、 本発明にかかる通信装置は、 少なく とも 3つの通信 装置間で通信を行う場合に、 各通信装置が送信する通信デ一夕に対 する注目度に応じて複数の通信装置が送信する通信データをグルー ビングし、 その複数の通信装置が送信する通信デ一夕のグルーピン グに応じて、 他の通信装置からの通信デ一夕を加工することができ、 例えば遠隔会議システムにおいて、 同じ話題に参加している各会議 参加者の発言を特に聞き取り易く、 また見易くすることができる。 さらにまた、 本発明にかかる通信方法は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システムにおける通信方法にお いて、 通信装置からの通信データのそれそれに対するユーザの反応 情報を取得する情報取得工程と、 ユーザの反応情報を情報処理装置 に送信する送信工程と、 情報処理装置からの通信データと、 情報処 理装置から送信された通信データの属するグループを示すグループ 情報とを受信する受信工程と、 グループ情報に基づいて、 通信デー 夕を加工する加工工程と、 この加工工程にて加工された通信データ を提示装置に出力する加工デ一夕出力工程とを備える。
したがって、 本発明にかかる通信方法は、 少なく とも 3つの通信 装置間で通信を行う場合に、 各通信装置が送信する通信データに対 する注目度に応じて複数の通信装置が送信する通信データをグルー ビングし、 その複数の通信装置が送信する通信データのグルーピン グに応じて、 他の通信装置からの通信データを加工することを可能 とし、 例えば遠隔会議システムにおいて、 同じ話題に参加している 各会議参加者の発言を特に聞き取り易く、 また見易くすることを可 能とする。
また、 本発明にかかる通信プログラムが記録された記録媒体は、 情報処理装置と少なく とも 3つの通信装置とを有する通信システム におけるコンピュータ制御可能な通信プログラムが記録された記録 媒体において、 通信プログラムは、 通信装置からの通信データのそ れそれに対するユーザの反応情報を取得する情報取得工程と、 ユー ザの反応情報を情報処理装置に送信する送信工程と、 情報処理装置 からの通信データと、 情報処理装置から送信された通信データの属 するグループを示すグループ情報とを受信する受信工程と、 グルー プ情報に基づいて、 通信デ一夕を加工する加工工程と、 この加工ェ 程にて加工された通信データを提示装置に出力する加工データ出力 工程とを備える。
したがって、 本発明にかかる通信プログラムが記録された記録媒 体は、 少なく とも 3つの通信装置間で通信を行う場合に、 各通信装 置が送信する通信データに対する注目度に応じて複数の通信装置が 送信する通信デ一夕をグルーピングし、 その複数の通信装置が送信 する通信デ一夕のグルーピングに応じて、 他の通信装置からの通信 データを加工することが可能となり、 例えば遠隔会議システムにお いて、 同じ話題に参加している各会議参加者の発言を特に聞き取り 易く、 また見易くすることが可能となる。

Claims

請求の範囲
1 . 他の通信装置のそれそれから通信される通信データに対する注 目度を検出するための注目度予測情報を取得する注目度予測情報取 得手段と、 グループ情報に基づいて加工された通信データをそれそ れ対応する提示装置に出力する通信データ出力手段とを有する少な く とも 3つの通信装置と、
上記注目度予測情報に基づいて、 上記注目度を検出する注目度検 出手段と、 上記注目度を出力する注目度出力手段とを有する注目度 検出装置と、
上記注目度に基づいて、 上記通信デ一夕のグルービングを行うグ ルービング手段と、 上記グルーピングの結果を示す上記グループ情 報を出力するグループ情報出力手段とを有するグルーピング装置と、 上記通信装置のそれそれに対して他の通信装置から送信される上 記通信データを上記グループ情報に基づいて加工する加工手段と、 上記加工手段によって加工された通信データを出力する加工データ 出力手段とを有する加工装置とを備えること
を特徴とする通信システム。
2 . 上記グルーピング手段は、 上記注目度の変化に基づいて、 上記 グルーピングを行うこと
を特徴とする請求の範囲第 1項記載の通信システム。
3 . 上記通信データ出力手段は、 上記グループ情報に基づいて加工 された通信デ一夕を上記提示装置に出力すること
を特徴とする請求の範囲第 1項記載の通信システム。
4 . 上記通信装置は、 上記注目度検出装置を有すること を特徴とする請求の範囲第 1項記載の通信システム。
5 . 上記通信装置は、 上記注目度検出装置と、 上記加工装置とを有 すること
を特徴とする請求の範囲第 1項記載の通信システム。
6 . 少なくとも 3つの上記通信装置は、 それそれ、 上記注目度検出 装置と、 上記グルーピング装置と、 上記加工装置とを有すること を特徴とする請求の範囲第 1項記載の通信システム。
7 . 少なく とも 3つの上記通信装置のうち一の通信装置は、 上記注 目度検出装置と、 上記グルーピング装置と、 上記加工装置とを有す ること
を特徴とする請求の範囲第 1項記載の通信システム。
8 . 上記通信装置は、 上記加工装置を有すること
を特徴とする請求の範囲第 1項記載の通信システム。
9 . 上記注目度検出装置は、 上記グルーピング装置と、 上記加工装 置とを有すること
を特徴とする請求の範囲第 1項記載の通信システム。
1 0 . 他の通信装置のそれそれから通信される通信データに対する 注目度を検出するための注目度予測情報を取得する注目度予測情報 取得手段と、 グループ情報に基づいて加工された通信データをそれ それ対応する提示装置に出力する通信データ出力手段とを有する少 なく とも 3つの通信装置と、
上記注目度予測情報に基づいて、 上記注目度を検出する注目度検 出手段と、 上記注目度を出力する注目度出力手段とを有する注目度 検出装置と、
上記注目度に基づいて、 上記通信データのグルーピングを行うグ ルービング手段と、 上記グルーピングの結果を示す上記グループ情 報を出力するグループ情報出力手段とを有するグルーピング装置と、 上記通信装置のそれそれに対して他の通信装置から送信された上 記通信データを上記グループ情報に基づいて加工する加工手段と、 上記加工手段によって加工された通信データを出力する加工データ 出力手段とを有する加工装置とを備えること
を特徴とする通信システム。
1 1 . 少なく とも 3つの通信装置を含む通信システムで使用され、 上記通信装置のそれそれに対して他の通信装置から通信される通信 データをグルービングするグルーピング装置において、
上記通信装置のそれそれに対応するユーザの、 他の通信装置から の通信データのそれそれに対する注目度に基づいて、 上記通信デ一 夕のグルーピングを行うグルーピング手段と、
上記グルーピング手段による上記グルービングの結果を示すグル ープ情報を出力するグループ情報出力手段とを備えること
を特徴とするグルーピング装置。 .
1 2 . 上記グルーピング手段は、 任意のユーザに対応する一の通信 装置が送信した第 1の通信デ一夕に対する他の通信装置の上記注目 度が所定の値より高い場合には、 上記第 1の通信データと、 上記他 の通信装置が送信した第 2の通信データとを同じグループとするこ と
を特徴とする請求の範囲第 1 1項記載のグルーピング装置。
1 3 . 上記グルーピング手段は、 任意のユーザに対応する一の通信 装置が送信した第 1の通信データに対する他の通信装置の上記注目 度が所定の値より高く、 且つ、 上記他の通信装置が送信した第 2の 通信データに対する上記一の通信装置の上記注目度が所定の値より 高い場合には、 上記第 1の通信データと上記第 2の通信データとを 同じグループとすること
を特徴とする請求の範囲第 1 1項記載のグルーピング装置。
1 4 . 上記グルーピング手段は、 第 1のグループにグルーピングさ れた第 1の通信デ一夕に対する、 第 2のグループにグルーピングさ れた第 2の通信データに対応するユーザの注目度が所定の値より高 い場合には、 上記第 1のグループと上記第 2のグループとを 1つの グループに統合すること
を特徴とする請求の範囲第 1 1項記載のグルーピング装置。
1 5 . 少なく とも 3つの通信装置を含む通信システムで使用され、 上記通信装置のそれそれに対して他の通信装置から通信される通信 データをグルービングするグルーピング方法において、
上記通信装置のそれそれに対応するユーザの、 他の通信装置から の通信データのそれそれに対する注目度に基づいて、 上記通信デ一 夕のグルーピングを行うグルーピング工程と、
上記グルーピング工程による上記グルービングの結果を示すグル ープ情報を出力するグループ情報出力工程とを備えること
を特徴とするグルーピング方法。
1 6 . 上記グルーピング工程では、 任意のユーザに対応する一の通 信装置が送信した第 1の通信データに対する他の通信装置の上記注 目度が所定の値より高い場合には、 上記第 1の通信データと、 上記 他の通信装置が送信した第 2の通信データとが同じグループとされ ること
を特徴とする請求の範囲第 1 5項記載のグルーピング方法。
1 7 . 上記グルーピング工程では、 任意のユーザに対応する一の通 信装置が送信した第 1の通信データに対する他の通信装置の上記注 目度が所定の値より高く、 且つ、 上記他の通信装置が送信した第 2 の通信データに対する上記一の通信装置の上記注目度が所定の値よ り高い場合には、 上記第 1の通信データと上記第 2の通信デ一夕と が同じグループとされること
を特徴とする請求の範囲第 1 5項記載のグルーピング方法。
1 8 . 上記グルーピング工程では、 第 1のグループにグルーピング された第 1の通信データに対する、 第 2のグループにグルーピング された第 2の通信データに対応するユーザの注目度が所定の値より 高い場合には、 上記第 1のグループと上記第 2のグループとが 1つ のグループに統合されること
を特徴とする請求の範囲第 1 5項記載のグルーピング方法。
1 9 . 少なく とも 3つの通信装置を含む通信システムで使用され、 上記通信装置のそれそれに対して他の通信装置から通信される通信 デ一夕をグルービングするコンピュータ制御可能なグルーピングプ ログラムが記録された記録媒体において、
上記グルーピングプログラムは、
上記通信装置のそれそれに対応するユーザの、 他の通信装置から の通信データのそれそれに対する注目度に基づいて、 上記通信デ一 夕のグルーピングを行うグルービング工程と、
上記グル一ビング工程による上記グルーピングの結果を示すグル ープ情報を出力するグループ情報出力工程とを備えること
を特徴とするグルーピングプログラムが記録された記録媒体。 2 0 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおける情報処理装置において、
上記通信装置のそれそれからの通信データを受信するとともに、 上記通信装置のそれそれから送信された注目度であり、 上記通信装 置のそれそれ自身を除く他の通信装置から送信される上記通信デー 夕に対する注目度を受信する受信手段と、
上記注目度に基づいて、 上記通信データのグルーピングを行うグ ル一ビング手段と、
上記通信データのそれそれが属するグループに基づいて、 上記通 信装置のそれそれについて、 上記通信装置のそれそれ自身を除く上 記他の通信装置から送信された上記通信データを加工する加工手段 と、
上記加工手段によって加工された通信データを、 上記通信装置の それぞれに送信する加工データ出力手段とを備えること
を特徴とする情報処理装置。
2 1 . 上記グルーピング手段は、 任意のユーザに対応する一の通信 装置が送信した第 1の通信データに対する他の通信装置の上記注目 度が所定の値より高い場合には、 上記第 1の通信データと、 上記他 の通信装置が送信した第 2の通信データとを同じグループとするこ と
を特徴とする請求の範囲第 2 0項記載の情報処理装置。
2 2 . 上記グルーピング手段は、 任意のユーザに対応する一の通信 装置が送信した第 1の通信デ一夕に対する他の通信装置の上記注目 度が所定の値より高く、 且つ、 上記他の通信装置が送信した第 2の 通信データに対する上記一の通信装置の上記注目度が所定の値より 高い場合には、 上記第 1の通信データと上記第 2の通信データとを 同じグループとすること
を特徴とする請求の範囲第 2 0項記載の情報処理装置。
2 3 . 上記グルーピング手段は、 第 1のグループにグルーピングさ れた第 1の通信データに対する、 第 2のグループにグルーピングさ れた第 2の通信データに対応するユーザの注目度が所定の値より高 い場合には、 上記第 1のグループと上記第 2のグループとを 1つの グループに統合すること
を特徴とする請求の範囲第 2 0項記載の情報処理装置。
2 4 . 上記加工手段は、 所定のグループに属する通信データを、 上 記所定のグループに属さない通信デ一夕に対して相対的に強調され た状態に加工すること
を特徴とする請求の範囲第 2 0項記載の情報処理装置。
2 5 . 上記通信データは音声デ一夕を含むものであり、
上記加工手段は、 上記音声データを加工すること
を特徴とする請求の範囲第 2 0項記載の情報処理装置。
2 6 . 上記加工手段は、 上記音声データの音量を調整することで上 記音声データを加工すること
を特徴とする請求の範囲第 2 5項記載の情報処理装置。
2 7 . 上記加工手段は、 上記音声データの音質を調整することで上 記音声データを加工すること
を特徴とする請求の範囲第 2 5項記載の情報処理装置。
2 8 . 上記通信データは画像データを含むものであり、
上記加工手段は、 上記画像データを加工すること
を特徴とする請求の範囲第 2 0項記載の情報処理装置。
2 9 . 上記加工手段は、 上記画像データの画質を調整することで上 記画像データを加工すること
を特徴とする請求の範囲第 2 8項記載の情報処理装置。
3 0 . 上記受信手段は、 上記注目度の代わりに、 上記通信装置のそ れそれから送信されたユーザの反応情報であり、 上記通信装置のそ れそれに対応するユーザの反応情報を受信し、
当該情報処理装置は、 上記ユーザの反応情報に基づいて、 上記通 信デ一夕のそれそれに対する注目度を検出する注目度検出手段をさ らに備えること
を特徴とする請求の範囲第 2 0項記載の情報処理装置。
3 1 . 上記注目度検出手段は、 上記ユーザによる注目の有無を検出 すること
を特徴とする請求の範囲第 3 0項記載の情報処理装置。
3 2 . 上記注目度検出手段は、 上記ユーザの挙動を検出し、 上記ュ 一ザの挙動に基づいて、 上記他の通信装置からの上記通信データに 対する上記ュ一ザの注目度を検出すること
を特徴とする請求の範囲第 3 0項記載の情報処理装置。
3 3 . 上記注目度検出手段は、 上記ユーザの指示に基づいて、 上記 他の通信装置からの上記通信データに対する上記ユーザの注目度を 検出すること
を特徴とする請求の範囲第 3 0項記載の情報処理装置。
3 4 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおける情報処理方法において、
上記通信装置のそれそれからの通信データを受信するとともに、 上記通信装置のそれそれから送信された注目度であり、 上記通信装 置のそれそれ自身を除く他の通信装置から送信される上記通信デー 夕に対する注目度を受信する受信工程と、
上記注目度に基づいて、 上記通信デ一夕のグルーピングを行うグ ルービング工程と、
上記通信データのそれそれが属するグループに基づいて、 上記通 信装置のそれそれについて、 上記通信装置のそれそれ自身を除く上 記他の通信装置から送信された上記通信データを加工する加工工程 と、
上記加工工程にて加工された通信データを、 上記通信装置のそれ それに送信する加工データ出力工程とを備えること
を特徴とする情報処理方法。
3 5 . 上記グルーピング工程では、 任意のユーザに対応する一の通 信装置が送信した第 1の通信データに対する他の通信装置の上記注 目度が所定の値より高い場合には、 上記第 1の通信データと、 上記 他の通信装置が送信した第 2の通信データとが同じグループとされ ること
を特徴とする請求の範囲第 3 4項記載の情報処理方法。
3 6 . 上記グルーピング工程では、 任意のユーザに対応する一の通 信装置が送信した第 1の通信デ一夕に対する他の通信装置の上記注 目度が所定の値より高く、 且つ、 上記他の通信装置が送信した第 2 の通信データに対する上記一の通信装置の上記注目度が所定の値よ り高い場合には、 上記第 1の通信データと上記第 2の通信データと が同じグループとされること
を特徴とする請求の範囲第 3 4項記載の情報処理方法。
3 7 . 上記グルービング工程では、 第 1のグループにグルービング された第 1の通信デ一夕に対する、 第 2のグループにグルーピング された第 2の通信デ一夕に対応するユーザの注目度が所定の値より 高い場合には、 上記第 1のグループと上記第 2のグループとが 1つ のグループに統合されること
を特徴とする請求の範囲第 3 4項記載の情報処理方法。
3 8 . 上記加工工程では、 所定のグループに属する通信データが、 上記所定のグループに属さない通信デ一夕に対して相対的に強調さ れた状態に加工されること
を特徴とする請求の範囲第 3 4項記載の情報処理方法。
3 9 . 上記通信データは音声データを含むものであり、
上記加工工程では、 上記音声データが加工されること
を特徴とする請求の範囲第 3 4項記載の情報処理方法。
4 0 . 上記加工工程では、 上記音声データの音量が調整されること で上記音声データが加工されること
を特徴とする請求の範囲第 3 9項記載の情報処理方法。
4 1 . 上記加工工程では、 上記音声デ一夕の音質が調整されること で上記音声データが加工されること
を特徴とする請求の範囲第 3 9項記載の情報処理方法。
4 2 . 上記通信データは画像データを含むものであり、
上記加工工程では、 上記画像データが加工されること
を特徴とする請求の範囲第 3 4項記載の情報処理方法。
4 3 . 上記加工工程では、 上記画像データの画質が調整されること で上記画像データが加工されること
を特徴とする請求の範囲第 4 2項記載の情報処理方法。
4 4 . 上記受信工程では、 上記注目度の代わりに、 .上記通信装置の それぞれから送信されたユーザの反応情報であり、 上記通信装置の それそれに対応するユーザの反応情報が受信され、
当該情報処理方法は、 上記ユーザの反応情報に基づいて、 上記通 信データのそれそれに対する注目度を検出する注目度検出工程をさ らに備えること
を特徴とする請求の範囲第 3 4項記載の情報処理方法。
4 5 . 上記注目度検出工程では、 上記ユーザによる注目の有無が検 出されること
を特徴とする請求の範囲第 4 4項記載の情報処理方法。
4 6 . 上記注目度検出工程では、 上記ユーザの挙動が検出され、 上 記ユーザの挙動に基づいて、 上記他の通信装置からの上記通信デ一 夕に対する上記ユーザの注目度が検出されること
を特徴とする請求の範囲第 4 4項記載の情報処理方法。
4 7 . 上記注目度検出工程では、 上記ユーザの指示に基づいて、 上 記他の通信装置からの上記通信データに対する上記ユーザの注目度 が検出されること
を特徴とする請求の範囲第 4 4項記載の情報処理方法。
4 8 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおけるコンビユー夕制御可能な情報処理プログラムが記録 された記録媒体において、
上記情報処理プログラムは、
上記通信装置のそれそれからの通信データを受信するとともに、 上記通信装置のそれそれから送信された注目度であり、 上記通信装 置のそれそれ自身を除く他の通信装置から送信される上記通信デー 夕に対する注目度を受信する受信工程と、
上記注目度に基づいて、 上記通信データのグルーピングを行うグ ルービング工程と、
上記通信データのそれそれが属するグループに基づいて、 上記通 信装置のそれそれについて、 上記通信装置のそれそれ自身を除く上 記他の通信装置から送信された上記通信データを加工する加工工程 と、
上記加工工程にて加工された通信データを、 上記通信装置のそれ それに送信する加工データ出力工程とを備えること
を特徴とする情報処理プログラムが記録された記録媒体。
4 9 . 上記受信工程では、 上記注目度の代わりに、 上記通信装置の それそれから送信されたユーザの反応情報であり、 上記通信装置の それそれに対応するユーザの反応情報が受信され、
上記情報処理プログラムは、 上記ユーザの反応情報に基づいて、 上記通信デ一夕のそれそれに対する注目度を検出する注目度検出ェ 程をさらに備えること
を特徴とする請求の範囲第 4 8項記載の情報処理プログラムが記 録された記録媒体。
5 0 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおける通信装置において、
他の通信装置からの通信データを受信するとともに、 上記情報処 理装置から送信された上記通信データの属するグループを示すグル ープ情報を受信する受信手段と、
上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得手段と、
上記ユーザの反応情報に基づいて、 上記通信データのそれそれに 対する注目度を検出する注目度検出手段と、 上記注目度を上記情報処理装置に出力する注目度出力手段と、 上記グループ情報に基づいて、 上記通信データを加工する加工手 段と、
上記加工手段によって加工された通信データを提示装置に出力す る加工デ一夕出力手段とを備えること
を特徴とする通信装置。
5 1 . 上記注目度検出手段は、 上記ユーザによる注目の有無を検出 すること
を特徴とする請求の範囲第 5 0項記載の通信装置。
5 2 . 上記注目度検出手段は、 上記ユーザの挙動を検出し、 上記ュ 一ザの挙動に基づいて、 上記他の通信装置からの上記通信デ一夕に 対する上記ユーザの注目度を検出すること
を特徴とする請求の範囲第 5 0項記載の通信装置。
5 3 . 上記注目度検出手段は、 上記ユーザの指示に基づいて、 上記 他の通信装置からの上記通信デ一夕に対する上記ユーザの注目度を 検出すること
を特徴とする請求の範囲第 5 0項記載の通信装置。
5 4 . 上記加工手段は、 所定のグループに属する通信デ一夕を、 上 記所定のグループに属さない通信データに対して相対的に強調され た状態に加工すること
を特徴とする請求の範囲第 5 0項記載の通信装置。
5 5 . 上記通信データは音声データを含むものであり、
上記加工手段は、 上記音声データを加工すること
を特徴とする請求の範囲第 5 0項記載の通信装置。
5 6 . 上記加工手段は、 上記音声データの音量を調整することで上 記音声デ一夕を加工すること
を特徴とする請求の範囲第 5 5項記載の通信装置。
5 7 . 上記加工手段は、 上記音声データの音質を調整することで上 記音声データを加工すること
を特徴とする請求の範囲第 5 5項記載の通信装置。
5 8 . 上記通信デ一夕は画像デ一夕を含むものであり、
上記加工手段は、 上記画像デ一夕を加工すること
を特徴とする請求の範囲第 5 0項記載の通信装置。
5 9 . 上記加工手段は、 上記画像データの画質を調整することで上 記画像データを加工すること
を特徴とする請求の範囲第 5 8項記載の通信装置。
6 0 . 上記提示装置は、 上記他の通信装置のそれそれから送信され た上記通信データを入力する入力手段と、 上記他の通信装置のそれ それに対応して、 上記通信データを提示する提示手段とを有するこ と
を特徴とする請求の範囲第 5 0項記載の通信装置。
6 1 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおける通信方法において、
他の通信装置からの通信データを受信する第 1の受信工程と、 上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得工程と、
上記ユーザの反応情報に基づいて、 上記通信データのそれそれに 対する注目度を検出する注目度検出工程と、
上記注目度を上記情報処理装置に出力する注目度出力工程と、 上記情報処理装置から送信された上記通信デ一夕の属するグルー プを示すグループ情報を受信する第 2の受信工程と、
上記グループ倩報に基づいて、 上記通信デ一夕を加工する加工ェ 程と、
上記加工工程にて加工された通信データを提示装置に出力する加 ェデータ出力工程とを備えること
を特徴とする通信方法。
6 2 . 上記注目度検出工程では、 上記ユーザによる注目の有無が検 出されること
を特徴とする請求の範囲第 6 1項記載の通信方法。
6 3 . 上記注目度検出工程では、 上記ユーザの挙動が検出され、 上 記ユーザの挙動に基づいて、 上記他の通信装置からの上記通信デ一 夕に対する上記ユーザの注目度が検出されること
を特徴とする請求の範囲第 6 1項記載の通信方法。
6 4 . 上記注目度検出工程では、 上記ユーザの指示に基づいて、 上 記他の通信装置からの上記通信データに対する上記ユーザの注目度 が検出されること
を特徴とする請求の範囲第 6 1項記載の通信方法。
6 5 . 上記加工工程では、 所定のグループに属する通信データが、 上記所定のグループに属さない通信データに対して相対的に強調さ れた状態に加工されること
を特徴とする請求の範囲第 6 1項記載の通信方法。
6 6 . 上記通信デ一夕は音声データを含むものであり、
上記加工工程では、 上記音声デ一夕が加工されること
を特徴とする請求の範囲第 6 1項記載の通信方法。
6 7 . 上記加工工程では、 上記音声データの音量が調整されること で上記音声データが加工されること
を特徴とする請求の範囲第 6 6項記載の通信方法。
6 8 . 上記加工工程では、 上記音声データの音質が調整されること で上記音声データが加工されること
を特徴とする請求の範囲第 6 6項記載の通信方法。
6 9 . 上記通信データは画像データを含むものであり、
上記加工工程では、 上記画像データが加工されること
を特徴とする請求の範囲第 6 1項記載の通信方法。
7 0 . 上記加工工程では、 上記画像データの画質が調整されること で上記画像データが加工されること
を特徴とする請求の範囲第 6 9項記載の通信方法。
7 1 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおけるコンビユー夕制御可能な通信プログラムが記録され た記録媒体において、
上記通信プログラムは、
他の通信装置からの通信デ一夕を受信する第 1の受信工程と、 上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得工程と、
上記ユーザの反応情報に基づいて、 上記通信データのそれそれに 対する注目度を検出する注目度検出工程と、
上記注目度を上記情報処理装置に出力する注目度出力工程と、 上記情報処理装置から送信された上記通信データの属するグルー プを示すグループ情報を受信する第 2の受信工程と、
上記グループ情報に基づいて、 上記通信データを加工する加工ェ 程と、 上記加工工程にて加工された通信データを提示装置に出力する加 ェデ一夕出力工程とを備えること
を特徴とする通信プログラムが記録された記録媒体。
7 2 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおける情報処理装置において、
上記通信装置のそれそれから送信された通信データに対する注目 度を受信する受信手段と、
上記注目度に基づいて、 上記通信データのグルーピングを行うグ ルービング手段と、
上記グルーピング手段による上記グルーピングの結果を示すグル —プ情報を出力するグループ情報出力手段とを備えること
を特徴とする情報処理装置。
7 3 . 上記グルーピング手段は、 任意のユーザに対応する一の通信 装置が送信した第 1の通信データに対する他の通信装置の上記注目 度が所定の値より高い場合には、 上記第 1の通信データと、 上記他 の通信装置が送信した第 2の通信データとを同じグループとするこ と
を特徴とする請求の範囲第 7 2項記載の情報処理装置。
7 4 . 上記グルーピング手段は、 任意のユーザに対応する一の通信 装置が送信した第 1の通信データに対する他の通信装置の上記注目 度が所定の値より高く、 且つ、 上記他の通信装置が送信した第 2の 通信データに対する上記一の通信装置の上記注目度が所定の値より 高い場合には、 上記第 1の通信データと上記第 2の通信デ一夕とを 同じグループとすること
を特徴とする請求の範囲第 7 2項記載の情報処理装置。
7 5 . 上記グルーピング手段は、 第 1のグループにグルーピングさ れた第 1の通信デ一夕に対する、 第 2のグループにグルーピングさ れた第 2の通信データに対応するユーザの注目度が所定の値より高 い場合には、 上記第 1のグループと上記第 2のグループとを 1つの グループに統合すること
を特徴とする請求の範囲第 7 2項記載の情報処理装置。
7 6 . 上記受信手段は、 上記注目度の代わりに、 上記通信装置のそ れそれから送信された通信データを受信し、
当該情報処理装置は、 上記通信データのそれそれに対するユーザ の注目度を検出する注目度検出手段をさらに備えること
を特徴とする請求の範囲第 7 2項記載の情報処理装置。
7 7 . 上記注目度検出手段は、 上記ユーザによる注目の有無を検出 すること
を特徴とする請求の範囲第 7 6項記載の情報処理装置。
7 8 . 上記注目度検出手段は、 上記ユーザの挙動を検出し、 上記ュ 一ザの挙動に基づいて、 上記他の通信装置からの上記通信データに 対する上記ユーザの注目度を検出すること
を特徴とする請求の範囲第 7 6項記載の情報処理装置。
7 9 . 上記注目度検出手段は、 上記ユーザの指示に基づいて、 上記 他の通信装置からの上記通信データに対する上記ユーザの注目度を 検出すること
を特徴とする請求の範囲第 7 6項記載の情報処理装置。
8 0 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおける情報処理方法において、
上記通信装置のそれそれから送信された通信データに対する注目 度を受信する受信工程と、
上記注目度に基づいて、 上記通信データのグルービングを行うグ ル一ビング工程と、
上記グルーピング工程による上記グルーピングの結果を示すグル ープ情報を出力するグループ情報出力工程とを備えること
を特徴とする情報処理方法。
8 1 . 上記グルーピング工程では、 任意のユーザに対応する一の通 信装置が送信した第 1の通信データに対する他の通信装置の上記注 目度が所定の値より高い場合には、 上記第 1の通信データと、 上記 他の通信装置が送信した第 2の通信データとが同じグループとされ ること
を特徴とする請求の範囲第 8 0項記載の情報処理方法。
8 2 . 上記グルービング工程では、 任意のユーザに対応する一の通 信装置が送信した第 1の通信データに対する他の通信装置の上記注 目度が所定の値より高く、 且つ、 上記他の通信装置が送信した第 2 の通信データに対する上記一の通信装置の上記注目度が所定の値よ り高い場合には、 上記第 1の通信デ一夕と上記第 2の通信データと が同じグループとされること
を特徴とする請求の範囲第 8 0項記載の情報処理方法。
8 3 . 上記グルーピング工程では、 第 1のグループにグルーピング された第 1の通信データに対する、 第 2のグループにグルーピング された第 2の通信データに対応するユーザの注目度が所定の値より 高い場合には、 上記第 1のグループと上記第 2のグループとが 1つ のグループに統合されること
を特徴とする請求の範囲第 8 0項記載の情報処理方法。
8 4 . 上記受信工程では、 上記注目度の代わりに、 上記通信装置の それそれから送信された通信データが受信され、
当該情報処理方法は、 上記通信データのそれそれに対するユーザ の注目度を検出する注目度検出工程をさらに備えること
を特徴とする請求の範囲第 8 0項記載の情報処理方法。
8 5 . 上記注目度検出工程では、 上記ユーザによる注目の有無が検 出されること
を特徴とする請求の範囲第 8 4項記載の情報処理方法。
8 6 . 上記注目度検出工程では、 上記ユーザの挙動が検出され、 上 記ユーザの挙動に基づいて、 上記他の通信装置からの上記通信デー 夕に対する上記ユーザの注目度が検出されること
を特徴とする請求の範囲第 8 4項記載の情報処理方法。
8 7 . 上記注目度検出工程では、 上記ユーザの指示に基づいて、 上 記他の通信装置からの上記通信データに対する上記ユーザの注目度 が検出されること
を特徴とする請求の範囲第 8 4項記載の情報処理方法。
8 8 . 情報処理装置と少なく とも 3つの通信装置とを有する通信シ ステムにおけるコンピュータ制御可能な情報処理プログラムが記録 された記録媒体において、
上記情報処理プログラムは、
上記通信装置のそれそれから送信された通信データに対する注目 度を受信する受信工程と、
上記注目度に基づいて、 上記通信データのグルーピングを行うグ ル一ビング工程と、
上記グルーピング工程による上記グルーピングの結果を示すグル ープ情報を出力するグループ情報出力工程とを備えること を特徴とする情報処理プログラムが記録された記録媒体。
8 9 . 上記受信工程では、 上記注目度の代わりに、 上記通信装置の それそれから送信された通信デ一夕が受信され、
上記情報処理プログラムは、 上記通信データのそれそれに対する ユーザの注目度を検出する注目度検出工程をさらに備えること を特徴とする請求の範囲第 8 8項記載の情報処理プログラムが記 録された記録媒体。
9 0 . 少なく とも 3つの通信装置間で通信を行う通信システムにお ける通信装置において、
他の通信装置からの通信データを受信する受信部と、
上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得手段と、
上記ユーザの反応情報に基づいて、 上記通信データのそれそれに 対する注目度を検出する注目度検出手段と、
上記注目度に基づいて、 上記通信デ一夕のグルーピングを行うグ ルービング手段と、
上記通信データのそれそれが属するグループに基づいて、 上記通 信データのそれそれを加工する加工手段と、
上記加工手段によって加工された通信データを提示装置に出力す る加工データ出力手段とを備えること
を特徴とする通信装置。
9 1 . 上記注目度検出手段は、 上記ユーザによる注目の有無を検出 すること
を特徴とする請求の範囲第 9 0項記載の通信装置。
9 2 . 上記注目度検出手段は、 上記ユーザの挙動を検出し、 上記ュ
—ザの挙動に基づいて、 上記他の通信装置からの上記通信データに 対する上記ユーザの注目度を検出すること
を特徴とする請求の範囲第 9 0項記載の通信装置。
9 3 . 上記注目度検出手段は、 上記ユーザの指示に基づいて、 上記 他の通信装置からの上記通信データに対する上記ユーザの注目度を 検出すること
を特徴とする請求の範囲第 9 0項記載の通信装置。
9 4 . 上記グルーピング手段は、 任意のユーザに対応する一の通信 装置が送信した第 1の通信データに対する他の通信装置の上記注目 度が所定の値より高い場合には、 上記第 1の通信データと、 上記他 の通信装置が送信した第 2の通信データとを同じグループとするこ と
を特徴とする請求の範囲第 9 0項記載の通信装置。
9 5 . 上記グルーピング手段は、 任意のユーザに対応する一の通信 装置が送信した第 1の通信デ一夕に対する他の通信装置の上記注目 度が所定の値より高く、 且つ、 上記他の通信装置が送信した第 2の 通信データに対する上記一の通信装置の上記注目度が所定の値より 高い場合には、 上記第 1の通信データと上記第 2の通信データとを 同じグループとすること
を特徴とする請求の範囲第 9 0項記載の通信装置。
9 6 . 上記グルーピング手段は、 第 1のグループにグルービングさ れた第 1の通信デ一夕に対する、 第 2のグループにグルーピングさ れた第 2の通信データに対応するユーザの注目度が所定の値より高 い場合には、 上記第 1のグループと上記第 2のグループとを 1つの グループに統合すること
を特徴とする請求の範囲第 9 0項記載の通信装置。
9 7 . 上記加工手段は、 所定のグループに属する通信デ一夕を、 上 記所定のグループに属さない通信データに対して相対的に強調され た状態に加工すること
を特徴とする請求の範囲第 9 0項記載の通信装置。
9 8 . 上記通信データは音声デ一夕を含むものであり、
上記加工手段は、 上記音声デ一夕を加工すること
を特徴とする請求の範囲第 9 0項記載の通信装置。
9 9 . 上記加工手段は、 上記音声データの音量を調整することで上 記音声データを加工すること
を特徴とする請求の範囲第 9 8項記載の通信装置。
1 0 0 . 上記加工手段は、 上記音声デ一夕の音質を調整することで 上記音声データを加工すること
を特徴とする請求の範囲第 9 8項記載の通信装置。
1 0 1 . 上記通信データは画像データを含むものであり、
上記加工手段は、 上記画像データを加工すること
を特徴とする請求の範囲第 9 0項記載の通信装置。
1 0 2 . 上記加工手段は、 上記画像データの画質を調整することで 上記画像データを加工すること
を特徴とする請求の範囲第 1 0 1項記載の通信装置。
1 0 3 . 上記提示装置は、 上記他の通信装置のそれそれから送信さ れた上記通信データを入力する入力手段と、 上記他の通信装置のそ れそれに対応して、 上記通信データを提示する提示手段とを有する こと を特徴とする請求の範囲第 9 0項記載の通信装置。
1 0 4 . 少なく とも 3つの通信装置間で通信を行う通信システムに おける通信方法において、
他の通信装置からの通信データを受信する受信工程と、 上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得工程と、
上記ユーザの反応情報に基づいて、 上記通信データのそれそれに 対する注目度を検出する注目度検出工程と、
上記注目度に基づいて、 上記通信データのグルーピングを行うグ ルービング工程と、
上記通信データのそれそれが属するグループに基づいて、 上記通 信デ一夕のそれそれを加工する加工工程と、
上記加工工程にて加工された通信データを提示装置に出力する加 ェデータ出力工程とを備えること
を特徴とする通信方法。
1 0 5 . 上記注目度検出工程では、 上記ユーザによる注目の有無が 検出されること
を特徴とする請求の範囲第 1 0 4項記載の通信方法。
1 0 6 . 上記注目度検出工程では、 上記ユーザの挙動が検出され、 上記ユーザの挙動に基づいて、 上記他の通信装置からの上記通信デ 一夕に対する上記ユーザの注目度が検出されること
を特徴とする請求の範囲第 1 0 4項記載の通信方法。
1 0 7 . 上記注目度検出工程では、 上記ユーザの指示に基づいて、 上記他の通信装置からの上記通信データに対する上記ユーザの注目 度が検出されること を特徴とする請求の範囲第 1 0 4項記載の通信方法。
1 0 8 . 上記グルーピング工程では、 任意のユーザに対応する一の 通信装置が送信した第 1の通信データに対する他の通信装置の上記 注目度が所定の値より高い場合には、 上記第 1の通信デ一夕と、 上 記他の通信装置が送信した第 2の通信データとが同じグループとさ れること
を特徴とする請求の範囲第 1 0 4項記載の通信方法。
1 0 9 . 上記グルーピング工程では、 任意のユーザに対応する一の 通信装置が送信した第 1の通信データに対する他の通信装置の上記 注目度が所定の値より高く、 且つ、 上記他の通信装置が送信した第 2の通信デ一夕に対する上記一の通信装置の上記注目度が所定の値 より高い場合には、 上記第 1の通信データと上記第 2の通信データ とが同じグループとされること
を特徴とする請求の範囲第 1 0 4項記載の通信方法。
1 1 0 . 上記グルーピング工程では、 第 1のグループにグルーピン グされた第 1の通信デ一夕に対する、 第 2のグループにグルーピン グされた第 2の通信データに対応するユーザの注目度が所定の値よ り高い場合には、 上記第 1のグループと上記第 2のグループとが 1 つのグループに統合されること
を特徴とする請求の範囲第 1 0 4項記載の通信方法。
1 1 1 . 上記加工工程では、 所定のグループに属する通信データが、 上記所定のグループに属さない通信データに対して相対的に強調さ れた状態に加工されること
を特徴とする請求の範囲第 1 0 4項記載の通信方法。
1 1 2 . 上記通信デ一夕は音声データを含むものであり、 上記加工工程では、 上記音声データが加工されること
を特徴とする請求の範囲第 104項記載の通信方法。
1 13. 上記加工工程では、 上記音声データの音量が調整されるこ とで上記音声デ一夕が加工されること
を特徴とする請求の範囲第 1 12項記載の通信方法。
1 14. 上記加工工程では、 上記音声データの音質が調整されるこ とで上記音声データが加工されること
を特徴とする請求の範囲第 1 12項記載の通信方法。
1 15. 上記通信データは画像データを含むものであり、
上記加工工程では、 上記画像デ一夕が加工されること
を特徴とする請求の範囲第 104項記載の通信方法。
1 16. 上記加工工程では、 上記画像データの画質が調整されるこ とで上記画像データが加工されること
を特徴とする請求の範囲第 1 15項記載の通信方法。
1 17. 少なく とも 3つの通信装置間で通信を行う通信システムに おけるコンピュータ制御可能な通信プログラムが記録された記録媒 体において、
上記通信プログラムは、
他の通信装置からの通信デ一夕を受信する受信工程と、 上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得工程と、
上記ユーザの反応情報に基づいて、 上記通信データのそれそれに 対する注目度を検出する注目度検出工程と、
上記注目度に基づいて、 上記通信データのグルーピングを行うグ ルービング工程と、 上記通信データのそれそれが属するグループに基づいて、 上記通 信データのそれそれを加工する加工工程と、
上記加工工程にて加工された通信データを提示装置に出力する加 工デ一夕出力工程とを備えること
を特徴とする通信プログラムが記録された記録媒体。
1 1 8 . 情報処理装置と少なく とも 3つの通信装置とを有する通信 システムにおける通信装置において、
上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得手段と、
上記情報処理装置からの通信データと、 上記情報処理装置から送 信された上記通信データの属するグループを示すグループ情報とを 受信するとともに、 上記ユーザの反応情報を上記情報処理装置に送 信する通信手段と、
上記グループ情報に基づいて、 上記通信データを加工する加工手 段と、
上記加工手段によって加工された通信データを提示装置に出力す る加工データ出力手段とを備えること
を特徴とする通信装置。
1 1 9 . 上記加工手段は、 所定のグループに属する通信データを、 上記所定のグループに属さない通信データに対して相対的に強調さ れた状態に加工すること
を特徴とする請求の範囲第 1 1 8項記載の通信装置。
1 2 0 . 上記通信データは音声デ一夕を含むものであり、
上記加工手段は、 上記音声データを加工すること
を特徴とする請求の範囲第 1 1 8項記載の通信装置。
1 2 1 . 上記加工手段は、 上記音声データの音量を調整することで 上記音声データを加工すること
を特徴とする請求の範囲第 1 2 0項記載の通信装置。
1 2 2 . 上記加工手段は、 上記音声データの音質を調整することで 上記音声データを加工すること
を特徴とする請求の範囲第 1 2 0項記載の通信装置。
1 2 3 . 上記通信データは画像データを含むものであり、
上記加工手段は、 上記画像データを加工すること
を特徴とする請求の範囲第 1 1 8項記載の通信装置。
1 2 4 . 上記加工手段は、 上記画像データの画質を調整することで 上記画像データを加工すること
を特徴とする請求の範囲第 1 2 3項記載の通信装置。
1 2 5 . 上記提示装置は、 上記他の通信装置のそれそれから送信さ れた上記通信データを入力する入力手段と、 上記他の通信装置のそ れそれに対応して、 上記通信データを提示する提示手段とを有する こと
を特徴とする請求の範囲第 1 1 8項記載の通信装置。
1 2 6 . 情報処理装置と少なく とも 3つの通信装置とを有する通信 システムにおける通信方法において、
上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得工程と、
上記ユーザの反応情報を上記情報処理装置に送信する送信工程と、 上記情報処理装置からの通信データと、 上記情報処理装置から送 信された上記通信データの属するグループを示すグループ情報とを 受信する受信工程と、 上記グループ情報に基づいて、 上記通信デ一夕を加工する加工ェ 程と、
上記加工工程にて加工された通信データを提示装置に出力する加 ェデ一夕出力工程とを備えること
を特徴とする通信方法。
1 2 7 . 上記加工工程では、 所定のグループに属する通信データが、 上記所定のグループに属さない通信データに対して相対的に強調さ れた状態に加工されること
を特徴とする請求の範囲第 1 2 6項記載の通信方法。
1 2 8 . 上記通信データは音声データを含むものであり、
上記加工工程では、 上記音声データが加工されること
を特徴とする請求の範囲第 1 2 6項記載の通信方法。
1 2 9 . 上記加工工程では、 上記音声データの音量が調整されるこ とで上記音声データが加工されること
を特徴とする請求の範囲第 1 2 8項記載の通信方法。
1 3 0 . 上記加工工程では、 上記音声データの音質が調整されるこ とで上記音声データが加工されること
を特徴とする請求の範囲第 1 2 8項記載の通信方法。
1 3 1 . 上記通信デ一夕は画像データを含むものであり、
上記加工工程では、 上記画像デ一夕が加工されること
を特徴とする請求の範囲第 1 2 6項記載の通信方法。
1 3 2 . 上記加工工程では、 上記画像デ一夕の画質が調整されるこ とで上記画像データが加工されること
を特徴とする請求の範囲第 1 3 1項記載の通信方法。
1 3 3 . 情報処理装置と少なく とも 3つの通信装置とを有する通信 システムにおけるコンピュータ制御可能な通信プログラムが記録さ れた記録媒体において、
上記通信プログラムは、
上記通信装置からの上記通信データのそれそれに対するユーザの 反応情報を取得する情報取得工程と、
上記ユーザの反応情報を上記情報処理装置に送信する送信工程と、 上記情報処理装置からの通信データと、 上記情報処理装置から送 信された上記通信デ一夕の属するグループを示すグループ情報とを 受信する受信工程と、
上記グループ情報に基づいて、 上記通信デ一夕を加工する加工ェ 程と、
上記加工工程にて加工された通信データを提示装置に出力する加 ェデ一夕出力工程とを備えること
を特徴とする通信プログラムが記録された記録媒体。
PCT/JP2000/008303 1999-11-24 2000-11-24 Systeme de communications WO2001039479A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP00977922A EP1146721A4 (en) 1999-11-24 2000-11-24 COMMUNICATION SYSTEM
US09/889,760 US6608644B1 (en) 1999-11-24 2000-11-24 Communication system
JP2001540503A JP4487467B2 (ja) 1999-11-24 2000-11-24 通信システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11/333487 1999-11-24
JP33348799 1999-11-24

Publications (1)

Publication Number Publication Date
WO2001039479A1 true WO2001039479A1 (fr) 2001-05-31

Family

ID=18266622

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/008303 WO2001039479A1 (fr) 1999-11-24 2000-11-24 Systeme de communications

Country Status (5)

Country Link
EP (1) EP1146721A4 (ja)
JP (1) JP4487467B2 (ja)
KR (1) KR100697757B1 (ja)
CN (1) CN1197335C (ja)
WO (1) WO2001039479A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274020A (ja) * 2006-03-30 2007-10-18 Kyocera Corp 通信端末装置および通信制御装置
AU2006235871B2 (en) * 2006-04-11 2008-08-07 Fuji Xerox Co., Ltd. Electronic conference assistance method, and information terminal device in electronic conference system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2849974B1 (fr) * 2003-01-15 2005-08-26 France Telecom Procede de communication interpersonnelle via un reseau de telecommunication.
CN105933557A (zh) * 2016-04-25 2016-09-07 四川联友电讯技术有限公司 一种同步语音会议中与会人员的音量智能调整方法及***
JP2017103801A (ja) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド 通信端末、通信端末の制御方法、通信端末の制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131539A (ja) * 1993-11-08 1995-05-19 Nippon Telegr & Teleph Corp <Ntt> マルチメディア通信システム
JPH09275533A (ja) * 1996-04-08 1997-10-21 Sony Corp 信号処理装置
WO1998056177A1 (en) 1997-06-02 1998-12-10 Northern Telecom Limited Dynamic selection of media streams for display
JPH11234640A (ja) * 1998-02-17 1999-08-27 Sony Corp 通信制御システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6288739B1 (en) * 1997-09-05 2001-09-11 Intelect Systems Corporation Distributed video communications system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131539A (ja) * 1993-11-08 1995-05-19 Nippon Telegr & Teleph Corp <Ntt> マルチメディア通信システム
JPH09275533A (ja) * 1996-04-08 1997-10-21 Sony Corp 信号処理装置
WO1998056177A1 (en) 1997-06-02 1998-12-10 Northern Telecom Limited Dynamic selection of media streams for display
JPH11234640A (ja) * 1998-02-17 1999-08-27 Sony Corp 通信制御システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1146721A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274020A (ja) * 2006-03-30 2007-10-18 Kyocera Corp 通信端末装置および通信制御装置
AU2006235871B2 (en) * 2006-04-11 2008-08-07 Fuji Xerox Co., Ltd. Electronic conference assistance method, and information terminal device in electronic conference system

Also Published As

Publication number Publication date
JP4487467B2 (ja) 2010-06-23
EP1146721A4 (en) 2005-08-24
EP1146721A1 (en) 2001-10-17
CN1338176A (zh) 2002-02-27
KR100697757B1 (ko) 2007-03-21
CN1197335C (zh) 2005-04-13
KR20010101860A (ko) 2001-11-15

Similar Documents

Publication Publication Date Title
JP4465880B2 (ja) 通信装置及び方法
JP4442016B2 (ja) 席順決定装置、グループ判定表作成方法、グループ判定表作成装置
US6608644B1 (en) Communication system
US6208373B1 (en) Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users
JP4372558B2 (ja) 電気通信システム
US20040008423A1 (en) Visual teleconferencing apparatus
US20040254982A1 (en) Receiving system for video conferencing system
JPH07154763A (ja) 在席テレビ会議装置
WO2004028163A1 (ja) 手話対談用映像入力装置、手話対談用映像入出力装置、および手話通訳システム
KR101918676B1 (ko) 복수 개의 영상회의용 단말을 이용하여 영상회의를 제공할 수 있는 영상회의 서버 및 그 카메라 추적방법
JP4501037B2 (ja) 通信制御システムと通信装置および通信方法
WO2001039479A1 (fr) Systeme de communications
US10469800B2 (en) Always-on telepresence device
JP2001057672A (ja) 通信装置および方法、並びに媒体
JPH0758859A (ja) 遠隔会議用情報送信装置及び情報受信装置
WO2017211447A1 (en) Method for reproducing sound signals at a first location for a first participant within a conference with at least two further participants at at least one further location
JPS62209985A (ja) テレビ会議装置
JPS60116293A (ja) テレビ会議システム
JP2017103801A (ja) 通信端末、通信端末の制御方法、通信端末の制御プログラム
KR20000044065A (ko) 화상회의 시스템의 카메라 제어장치
JPH07226930A (ja) 通信会議システム
JPS6320983A (ja) 静止画像伝送システム
JPH04137686U (ja) テレビ会議システムの自動送信画像選択装置
JP2001016365A (ja) 携帯端末装置
JPH09307869A (ja) ビデオ会議システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00803069.3

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

ENP Entry into the national phase

Ref document number: 2001 540503

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2000977922

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09889760

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020017009278

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2000977922

Country of ref document: EP