WO2010072945A1 - Procédé et dispositif de traitement de données textuelles - Google Patents

Procédé et dispositif de traitement de données textuelles Download PDF

Info

Publication number
WO2010072945A1
WO2010072945A1 PCT/FR2009/052559 FR2009052559W WO2010072945A1 WO 2010072945 A1 WO2010072945 A1 WO 2010072945A1 FR 2009052559 W FR2009052559 W FR 2009052559W WO 2010072945 A1 WO2010072945 A1 WO 2010072945A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
data
image
mcu
text
Prior art date
Application number
PCT/FR2009/052559
Other languages
English (en)
Inventor
Stephane Allegro
Original Assignee
France Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom filed Critical France Telecom
Priority to JP2011541556A priority Critical patent/JP2012513693A/ja
Priority to EP09802187A priority patent/EP2368167A1/fr
Priority to US13/139,417 priority patent/US8848015B2/en
Publication of WO2010072945A1 publication Critical patent/WO2010072945A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor

Definitions

  • the invention relates to the field of textual data processing, in particular in the context of videoconferencing between a plurality of users.
  • Conversational videophone services have recently undergone a strong development. Such services consist of the joint use of video, audio and text means to organize a conference between a plurality of participants.
  • chat feature is required to exchange messages as textual data.
  • a chat feature is required to exchange messages as textual data.
  • a point-to-point context between two participants, there are methods of exchanging texts, regardless of the exchange of video, with for example a text input made on the client side and exchanged by entire sentence.
  • FIG. IA An example of such a point-to-point system is shown in FIG. IA.
  • the terminals A and B exchange video data by a first exchange channel 1, audio data by a second exchange channel 2 and text data by a third exchange channel 3.
  • the transfer of Text data is governed by a text communication protocol, such as the T. 140, SIP Message or SIP Info protocols.
  • a text communication protocol such as the T. 140, SIP Message or SIP Info protocols.
  • the terminal A uses a channel 4 for exchanging text data managed by a T.140 type protocol, while the terminal B uses a channel 5 d exchange of text data managed by a SIP Message type protocol, as an example.
  • the terminal B can not receive the textual data provided by the channel 4, and conversely the terminal A can not receive the data provided by the channel 5.
  • This problem is particularly acute in the context of multipoint videoconferencing systems, where a central control unit will manage videoconferencing between a plurality of participants, typically more than three.
  • the terminal A uses a channel 6 for exchanging text data managed by a T.140 protocol. It receives textual data from a terminal B according to a textual data exchange channel 7 managed by the same protocol T.140, as well as textual data from a terminal C according to a textual data exchange channel 8 managed. by the SIP protocol Message. In such a case, the terminal A can communicate verbatim with the terminal B, but is unable to communicate verbatim with the C terminal.
  • a solution to this text conversation problem, during a videoconference between several participants, is of course to require that each participant use the same textual communication protocol, as is the case for the terminals A and B on the figure IC.
  • this constraint is cumbersome to implement, or even simply unfeasible, when the participants' terminals already have their own textual communication protocol and can not change it.
  • participants' terminals do not know how to receive textual data from multiple text sources, even if they use the same protocol.
  • most terminals do not support the multi-point text dialogue function.
  • One of the aims of the invention is to overcome disadvantages of the state of the art cited above.
  • a textual data processing method in telecommunication context between at least a first terminal and a second terminal, having, after receiving from a textual data processing device of the first terminal, the generation of data. image integrating the textual data received, for transmission of these image data at least to the second terminal.
  • the present invention improves the situation, making it possible for multiple text conversations, homogeneously and dynamically, with any terminal supporting at least the sending of textual data.
  • the second terminal does not need to use the same textual communication protocol as the first terminal to receive the text data thereof.
  • the second terminal can now receive multiple text streams from different sources and transferred using the same protocol.
  • the processing device embeds at least a portion of a text corresponding to said text data in at least one source image.
  • the text data of the first terminal will thus be readily available for the second terminal, simply by viewing the image data received from the processing device.
  • the processing device also receives text data from the second terminal and embeds at least part of a text corresponding to said textual data received from the second terminal in said source image.
  • At least part of the source image is communicated from the first terminal to the processing device.
  • Information of a textual nature from the first terminal will thus be supplemented by information of a visual nature.
  • the source image is a composite image of which at least part is communicated from the second terminal to the processing device. Textual information from the terminals will thus be supplemented by visual information from them.
  • the overlay of the text data is performed in a display area defined in said source image.
  • the source image comprises at least a first display area in which at least a portion of a first image communicated from the first terminal to the processing device is displayed, as well as a second display area. wherein at least a portion of a second communicated image of the second terminal is displayed to the processing device.
  • a processing device embeds at least part of a text corresponding to said text data from the first terminal in the first display area and at least a portion of a text corresponding to said text data from the second terminal in the second area. display.
  • the present invention also proposes a device for processing textual data, in the context of telecommunication between at least a first terminal and a second terminal, comprising processing means adapted to implement the method as described above.
  • the processing device comprises pretreatment means for generating the source image according to the method described above.
  • the pretreatment means comprises mixing means for generating said source image in the form of a composite image according to the method described above.
  • the present invention also provides a video-text conversation system comprising a textual data processing device as described above, connected to at least two terminals able to send textual and / or image data to the processing device.
  • the present invention proposes, finally, a computer program for the implementation of the method as described above.
  • a program may be downloadable via a telecommunication network and / or stored in a memory of a processing device and / or stored on a storage medium intended to cooperate with a processing device.
  • FIGS. 1A, 1B, 1C illustrate various conventional videoconferencing systems with textual communication
  • FIG. 2 diagrammatically represents a textual data processing device according to a preferred embodiment of the invention
  • Figures 3A, 3B illustrate different modes of presentation of textual data and images according to the present invention
  • FIG. 4 illustrates a videoconferencing system with textual communication according to a preferred embodiment of the invention
  • Figure 5 illustrates the steps of a textual data processing method according to a preferred embodiment of the invention.
  • FIG. 2 shows schematically a conversation system comprising a textual data processing device MCU according to a preferred embodiment of the invention.
  • text data is understood to mean one or more data corresponding to one or more successive characters forming a part of text, for example characters represented by data coded in the ASCII format. Such data can be entered on the keyboard of a usual terminal.
  • Any textual data communication protocol such as the T. 140 protocol, SIP message or
  • SIP info can be used to transmit the textual data between the terminals and the control unit, from the moment when the protocols used by the different terminals Ti, T 2 , T 3 are recognized by the control unit MCU.
  • the different users do not need to use the same textual communication protocol in the present invention.
  • the control unit MCU thus receives the textual data of at least one terminal, for example Ti, and then generates from these, within a processing means PROC, image data Im which are intended to be transmitted to at least one other terminal, for example T 2 .
  • the control unit MCU generates data image Im intended to be sent to Jen, through the terminal T 2 , or even to Sam through the terminal T 3 .
  • this image data is also sent to the terminal Ti, so that Bob can verify that his di se data have been integrated into the image data Im.
  • the generation of the image data Im can be performed, for example, by embedding a portion of text corresponding to the textual data di in a portion of a source image Im 3 .
  • This source image Im 3 may be a simple still image, such as a completely black image, on which a portion of text corresponding to the textual data di in white characters is embedded.
  • the source image Im 8 may also consist of a succession of images ⁇ Im s ⁇ i, .. ⁇ / k of a video stream, received for example from a medium external to the control unit MCU and generating such video stream, like a TV program for example.
  • the source image data Im 3 come from the users themselves.
  • Bob, Jen and / or Sam can transmit respective image data Im 1 , Im 2 , Im 3 , which will be used to embed a portion of text corresponding to the text data di, d 2 and / or d 3 transmitted.
  • the terminal T 1 transmits textual data di, corresponding to a text entered by the user Bob, as well as image data Imi, corresponding for example to a picture of this user.
  • the processing means PROC uses the image data Iudi as source image data Im 5 , in order to embed a part of the text corresponding to the textual data di input by this user Bob. It then generates image data Im corresponding to this picture of the user Bob on which appears the text he has entered. This image data is then transmitted to the user Jen, or even for example to other users like Sam, and possibly also to the user Bob as described above.
  • the terminal Ti transmits textual data di, corresponding to a text entered by the user Bob, as well as a video stream consisting of a series of image data ⁇ Imi ⁇ i, ..., k / corresponding for example to the video acquisition of a webcam belonging to BOB.
  • the processing means PROC will then use the image data ⁇ Im ⁇ ik successively as source image data ⁇ Im s ⁇ i, ..., k # to embed on each of these images a part of the corresponding text to the text data dl entered by the user Bob.
  • the means PROC then generates a video stream consisting of successive image data ⁇ Im ⁇ i, ...
  • the text corresponding to the transmitted textual data is inlaid character by character, as the textual data arrive at the MCU control unit. This is called a "real-time" text inlay mode, as text data is entered. Such a mode of inlay offers a great interactivity between the participants.
  • the processing means PROC may comprise a memory, of buffer type for example, for storing the received textual data until a data indicative of the end of a sentence (such as the ASCII data corresponding to the "input" key of a keyboard) is received. It is only then that the processing means PROC processes all the stored text data and inserts the entire sentence on the source image Im 3 .
  • the control unit MCU can also very well simultaneously receive text data d ⁇ , d 2 , d 3 respectively from the users Bob, Jen and Sam.
  • the processing means PROC can be made to incrust simultaneously, in real time, the text parts corresponding to these different data within the same image to be broadcast to different terminals.
  • the processing means PROC stores separately the textual data coming from the users Bob, Jen and / or Sam, in order to display the corresponding texts only when an entire sentence has been received from one of them. This storage can be done within a single buffer, common to all these users, or buffers dedicated respectively to each user.
  • the source image Im 5 is a composite image consisting of three images Im 1 , Im 2 , Im 3 each representing one of the participants, Bob, Jen and Sam.
  • a central zone Z of Text is superimposed on this composite image and is used to embed the text parts corresponding to each participant.
  • the control unit MCU comprises a preparation means PREP of the source image receiving image data Im ⁇ , Im 2 and Im 3 of each of the terminals T 1 , T 2 , T 3 .
  • This image data can be first decoded by decoders respective DECODi, DECOD 2 , DECOD 3 , in order to overcome the different types of image coding used during transmission from the terminals to the MCU control unit.
  • each participant has his particular zone Z x , Z 2 or Z 3 , in which an image or a video stream that he has transmitted from his terminal for example, as well as the characters, will be displayed. he will have seized.
  • This type of presentation has, in addition to the advantage of homogeneity, that of differentiating, visually and immediately, which user has entered a particular text.
  • Figure 4 will now illustrate a videoconferencing system with text communication using an MCU control unit according to a preferred embodiment of the invention.
  • the three users Bob, Jen and Sam use the respective terminals A, B, C to communicate with each other via an MCU control unit similar to that described. above.
  • the terminals A, B, C use the video channels 21, 31, 41 and the audio channels 22, 32, 42 to organize the videoconference, followed by established protocols.
  • the terminal A uses the protocol T. 140, the terminal B the SIP protocol Message and the terminal C the SIP Info protocol.
  • FIG. 5 illustrates the steps of a method 100 of textual data processing according to a preferred embodiment of the invention.
  • a first input step 110 textual data di are entered on at least one terminal Ti, by means of a keyboard for example.
  • source image data I sculpture are captured on the same terminal T x during a second capture step 120.
  • This data can consist of a single image, or even a video stream, and be captured. by means of a webcam for example.
  • the capture step 120 is indicated as following the input step 110 in FIG. 5, but these two steps can also be performed simultaneously, or in the reverse order where the image data capturing step precedes the step of entering textual data.
  • a source image preparation step 140 follows, in which the image data Im x is processed, formatted to a specific format, or combined with other image data received from other terminals to form an image. composite source image. This step is performed within the PREP preparation means of the MCU control unit. We then obtain a source image Im 5 , or even a source image stream ⁇ Im s ⁇ i k , composed of a succession of source images.
  • the textual data di are then embedded in the source image Im 5 or the stream ⁇ Im s ⁇ X / ..., k , prepared previously, in one of the presentation modes ci. before, for example.
  • An image Im, or the corresponding image stream (Im) xk, is then obtained.
  • the image Im or the image stream (Im) 1k is broadcast to the participants' terminals during a broadcast step 160 , if necessary by being previously encoded by a coding means COD adapted to these terminals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

L'invention concerne un procédé de traitement de données textuelles, en contexte de télécommunication entre au moins un premier terminal (T1) et un deuxième terminal (T2), comportant, après réception auprès d'un dispositif de traitement (MCU) de données textuelles (d1) du premier terminal (T1), la génération de données d'image (Im) intégrant lesdites données textuelles (d1) reçues, en vue d'une transmission desdites données d'image (Im) au moins au deuxième terminal (T2). L'invention concerne aussi le dispositif correspondant, ainsi qu'un système de conversation incluant un tel dispositif.

Description

Procédé et dispositif de traitement de données textuelles
L'invention concerne le domaine du traitement de données textuelles, en particulier dans le cadre de la visioconférence entre une pluralité d'utilisateurs.
Les services conversationnels en visiophonie ont connu récemment un fort développement. De tels services consistent en l'utilisation conjointe de moyens vidéo, audio et textuels pour organiser une conférence entre une pluralité de participants.
En plus des moyens de conférences vidéo/audio traditionnels, une fonctionnalité de discussion (« chat » en anglais) est nécessaire pour échanger des messages sous forme de données textuelles. Dans un contexte point à point, entre deux participants, il existe des procédés d'échange de textes, indépendamment de l'échange de vidéo, avec par exemple une saisie texte faite du côté client et échangée par phrase entière.
Un exemple d'un tel système point à point est illustré à la fig. IA. Dans ce système classique, les terminaux A et B échange des données vidéo par un premier canal d'échange 1, des données audio par un second canal d'échange 2 et des données textuelles par un troisième canal d'échange 3. Le transfert de données textuelles est régi par un protocole de communication de texte, comme par exemple les protocoles T. 140, SIP Message ou SIP Info. Un premier problème se pose si l'on souhaite effectuer des conversations textuelles entre deux terminaux n'utilisant pas le même protocole de communication de texte, ou des protocoles incompatibles entre eux. Ce problème est illustré à la figure IB. Dans cette figure, outre les canaux habituels d'échange vidéo 1 et audio 2, le terminal A utilise un canal 4 d'échange de données textuelles géré par un protocole de type T.140, tandis que le terminal B utilise un canal 5 d'échange de données textuelles géré par un protocole de type SIP Message, à titre d'exemple. Dans un tel cas, le terminal B ne peut pas recevoir les données textuelles fournies par le canal 4, et réciproquement le terminal A ne peut pas recevoir les données fournies par le canal 5.
Ce problème se pose de façon particulièrement aiguë dans le cadre des systèmes de visioconférence multipoint, où une unité de contrôle centrale va gérer la visioconférence entre une pluralité de participants, typiquement plus de trois.
Ceci est illustré à la fig. IC. Dans cette figure, outre les habituels canaux d'échange vidéo 1 et audio 2, le terminal A utilise un canal 6 d'échange de données textuelles géré par un protocole T.140. Il reçoit des données textuelles d'un terminal B selon un canal d'échange de données textuelles 7 géré par le même protocole T.140, ainsi que des données textuelles d'un terminal C selon un canal d'échange de données textuelles 8 géré par le protocole SIP Message. Dans un tel cas, le terminal A peut bien communiquer textuellement avec le terminal B, mais se trouve dans l'impossibilité de communiquer textuellement avec le terminal C.
On comprend bien, au vu de la figure IC, que plus il y aura de participants à une visioconférence multipoint, plus grandes seront les chances d'avoir un problème d'échange de données textuelles, car il suffit alors qu'un seul des participants n'utilise pas le même protocole de communication textuelle que les autres, ou un protocole incompatible avec ceux-ci, pour que la conversation textuelle échoue.
De plus, la présentation de la conversation texte dans un tel contexte se fera de façon très hétérogène et dépendra des possibilités de chaque terminal.
Une solution à ce problème de conversation textuelle, au cours d'une visioconférence entre plusieurs participants, est bien entendu de requérir que chacun des participants utilise le même protocole de communication textuelle, comme c'est le cas pour les terminaux A et B sur la figure IC. Cependant, cette contrainte est lourde à mettre en œuvre, voire simplement irréalisable quand les terminaux des participants ont déjà leur propre protocole de communication textuelle et ne peuvent pas en changer. De plus, les terminaux des participants ne savent pas comment recevoir des données textuelles provenant de plusieurs sources de texte, quand bien même celles-ci utiliseraient le même protocole. Ainsi, de fait, la plupart des terminaux ne supportent pas la fonction dialogue textuel en multipoint . Un des buts de 1 ' invention est de remédier à des inconvénients de l'état de la technique précité.
Elle propose à cet effet un procédé de traitement de données textuelles, en contexte de télécommunication entre au moins un premier terminal et un deuxième terminal, comportant, après réception auprès d'un dispositif de traitement de données textuelles du premier terminal, la génération de données d'image intégrant les données textuelles reçues, en vue d'une transmission de ces données d'image au moins au deuxième terminal.
La présente invention vient améliorer la situation, rendant possible les conversations texte à plusieurs, de façon homogène et dynamique, avec n'importe quel terminal supportant au minimum l'envoi de données textuelles.
Le deuxième terminal n'a ainsi pas besoin d'utiliser le même protocole de communication textuelle que le premier terminal pour recevoir les données textuelles de celui-ci.
De plus, le deuxième terminal peut maintenant recevoir plusieurs flux de texte provenant de sources différentes et transférés au moyen d'un même protocole.
Dans un mode de réalisation préféré, le dispositif de traitement incruste au moins une partie d'un texte correspondant auxdites données textuelles dans au moins une image source. Les données textuelles du premier terminal seront ainsi aisément disponibles pour le deuxième terminal, par simple visionnage des données images reçues depuis le dispositif de traitement.
Selon une caractéristique avantageuse de l'invention, le dispositif de traitement reçoit en outre des données textuelles du deuxième terminal et incruste au moins une partie d'un texte correspondant auxdites données textuelles reçues du deuxième terminal dans ladite image source .
Il devient ainsi possible de faire de la conversation sans avoir besoin d'utiliser le même protocole de communication textuelle, en affichant simultanément des données textuelles provenant de différents terminaux.
Avantageusement, une partie au moins de l'image source est communiquée du premier terminal au dispositif de traitement .
L'information de nature textuelle en provenance du premier terminal sera ainsi complétée par de l'information de nature visuelle.
Préférentiellement , l'image source est une image composite dont une partie au moins est communiquée du deuxième terminal au dispositif de traitement. L'information de nature textuelle en provenance des terminaux sera ainsi complétée par de l'information de nature visuelle en provenance de ceux-ci.
Dans une première variante, l'incrustation des données textuelles s'effectue dans une zone d'affichage définie dans ladite image source.
Une telle disposition du texte permet de suivre la conversation entre participants de façon immédiate.
Dans une autre variante, l'image source comporte au moins une première zone d'affichage dans laquelle s'affiche au moins une partie d'une première image communiquée du premier terminal au dispositif de traitement, ainsi qu'une deuxième zone d'affichage dans laquelle s'affiche au moins une partie d'une deuxième image communiquée du deuxième terminal au dispositif de traitement. Un tel dispositif de traitement incruste au moins une partie d'un texte correspondant auxdites données textuelles provenant du premier terminal dans la première zone d'affichage et au moins une partie d'un texte correspondant auxdites données textuelles provenant du deuxième terminal dans la deuxième zone d'affichage.
Une telle disposition du texte permet d'associer immédiatement le texte saisi, au cours de la conversation, à son auteur.
La présente invention propose, en outre, un dispositif de traitement de données textuelles, en contexte de télécommunication entre au moins un premier terminal et un deuxième terminal, comportant un moyen de traitement apte à mettre en œuvre le procédé tel que décrit ci-avant.
Avantageusement, le dispositif de traitement comporte un moyen de prétraitement pour générer l'image source selon le procédé décrit ci-avant.
Préférentiellement , le moyen de prétraitement comprend un moyen de mixage pour générer ladite image source sous la forme d'une image composite selon le procédé décrit ci- avant .
La présente invention vise aussi un système de conversation vidéo-textuelle comprenant un dispositif de traitement de données textuelles tel que décrit ci-avant, connecté à au moins deux terminaux aptes à envoyer des données textuelles et/ou d'image au dispositif de traitement .
La présente invention propose, enfin, un programme informatique pour la mise en œuvre du procédé tel que décrit ci-avant. Un tel programme peut être téléchargeable via un réseau de télécommunication et/ou stocké dans une mémoire d'un dispositif de traitement et/ou stocké sur un support mémoire destiné à coopérer avec un dispositif de traitement .
D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci- après, et des dessins annexés sur lesquels : - les figures IA, IB, IC illustrent différents systèmes classiques de visioconférence avec communication textuelle;
- la figure 2 représente schématiquement un dispositif de traitement de données textuelles selon un mode de réalisation préféré de l'invention ; les figures 3A, 3B illustrent différents modes de présentation des données textuelles et d'images selon la présente invention ; - la figure 4 illustre un système de visioconférence avec communication textuelle selon un mode de réalisation préféré de 1 ' invention ; la figure 5 illustre les étapes d'un procédé de traitement de données textuelles selon un mode de réalisation préféré de l'invention.
On se réfère tout d'abord à la figure 2 sur laquelle est représenté schématiquement un système de conversation comprenant un dispositif de traitement de données textuelles MCU selon un mode préféré de l'invention.
Dans ce système de conversation, trois utilisateurs Bob, Jen et Sam conversent ensemble par le biais de leurs terminaux respectifs Ti, T2 et T3. Ces terminaux sont reliés au dispositif de traitement MCU qui, dans l'exemple représenté, est une unité de contrôle MCU (pour « Multipoint Control Unit » en anglais) . Le système illustré à la figure 2 est utilisé par trois utilisateurs à titre d'exemple, mais il est bien évident que la présente invention peut s'appliquer à tout système utilisé par deux ou plus utilisateurs, équipés chacun d'un terminal connecté à l'unité de contrôle MCU.
Les trois utilisateurs Bob, Jen et Sam peuvent saisir des données textuelles di, d2, d3 sur leurs terminaux respectifs Ti, T2 et T3 et les envoyer vers l'unité de contrôle MCU. On entend ici par « données textuelles » une ou plusieurs données correspondant à un ou plusieurs caractères successifs formant une partie de texte, par exemple des caractères représentés par des données codées dans le format ASCII. De telles données peuvent être saisies sur le clavier d'un terminal usuel.
N'importe quel protocole de communication de données textuelles, tel que le protocole T. 140, SIP message ou
SIP info, peut être utilisé pour transmettre les données textuelles entre les terminaux et l'unité de contrôle, à partir du moment où les protocoles utilisés par les différents terminaux Ti, T2, T3 sont reconnus par l'unité de contrôle MCU. Ainsi, les différents utilisateurs n'ont pas besoin d'utiliser le même protocole de communication textuelle, dans la présente invention.
L'unité de contrôle MCU reçoit donc les données textuelles d'au moins un terminal, par exemple Ti, et génère alors à partir de celles-ci, au sein d'un moyen de traitement PROC, des données d'image Im qui sont destinées à être transmises à au moins un autre terminal, par exemple T2.
Ainsi, si Bob envoie des données dl par le biais du terminal Ti, l'unité de contrôle MCU génère des données d'image Im destinées à être envoyées à Jen, par le biais du terminal T2, voire aussi à Sam par le biais du terminal T3. Préférentiellement , ces données d'image sont aussi envoyées au terminal Ti, afin que Bob puisse vérifier que ses données di saisies ont bien été intégrées au sein des données d'image Im.
La génération des données d'image Im peut être effectuée, par exemple, en incrustant une partie de texte correspondant aux données textuelles di dans une partie d'une image source Im3. Cette image source Im3 peut être une simple image fixe, comme par exemple une image complètement noire, sur laquelle on incruste une partie de texte correspondant aux données textuelles di en caractères blancs. L'image source Im8 peut aussi consister en une succession d'images {Ims}i,..ι/k d'un flux vidéo, reçu par exemple depuis un média extérieur à l'unité de contrôle MCU et générant un tel flux vidéo, comme un programme télévisé par exemple.
Avantageusement, les données d'image source Im3 sont issues des utilisateurs eux-mêmes. Par exemple, Bob, Jen et/ou Sam peuvent transmettre des données d'image respectives Imi , Im2 , Im3 , lesquelles vont servir à incruster une partie de texte correspondant aux données textuelles di, d2 et/ou d3 transmises.
Dans un premier exemple, le terminal T1 transmet des données textuelles di, correspondant à un texte saisi par l'utilisateur Bob, ainsi que des données d'image Imi , correspondant par exemple à une photo de cet utilisateur Bob. Le moyen de traitement PROC utilise alors les données d'image Iirii en tant que données d'image source Im5, pour y incruster une partie du texte correspondant aux données textuelles di saisies par cet utilisateur Bob. Il génère alors des données d'image Im correspondant à cette photo de l'utilisateur Bob sur laquelle apparait le texte qu'il a saisi. Ces données d'image sont alors transmises à l'utilisateur Jen, voire par exemple à d'autres utilisateurs comme Sam, et possiblement aussi à l'utilisateur Bob comme décrit ci-avant.
Dans un autre exemple, le terminal Ti transmet des données textuelles di, correspondant à un texte saisi par l'utilisateur Bob, ainsi qu'un flux vidéo constitué d'une suite de données d'image {Imi}i,...,k/ correspondant par exemple à l'acquisition vidéo d'une webcam appartenant à BOB. Le moyen de traitement PROC va alors utiliser les données d'image { Imχ } i k successivement en tant que données d'image source {Ims}i,...,k# pour incruster sur chacune de ces images une partie du texte correspondant aux données textuelles dl saisies par l'utilisateur Bob. Le moyen PROC génère alors un flux vidéo constitué de données d'image {Im}i,.../k successives correspondant à l'acquisition vidéo de la webcam de l'utilisateur Bob sur laquelle s'affiche le texte qu'il a saisi. Ce flux vidéo est alors transmis à l'utilisateur Jen, ainsi qu'à d'autres utilisateurs comme Sam par exemple, et possiblement à l'utilisateur Bob, encore une fois.
Dans un exemple de réalisation, le texte correspondant aux données textuelles transmises est incrusté caractère par caractère, au fur et à mesure de l'arrivée des données textuelles auprès de l'unité de contrôle MCU. On parle alors d'un mode d'incrustation textuelle « temps réel », au fur et à mesure de la saisie des données textuelles. Un tel mode d'incrustation offre une grande interactivité entre les participants .
On peut cependant imaginer un autre mode d'incrustation textuelle, dans lequel le moyen de traitement PROC attend d'avoir une phrase complète avant de l'afficher dans une image. Pour réaliser un tel mode d'incrustation « phrase par phrase », le moyen de traitement PROC peut comprendre une mémoire, de type buffer par exemple, servant à mémoriser les données textuelles reçues jusqu'à ce qu'une donnée indicative de la fin d'une phrase (comme par exemple la donnée ASCII correspondant à la touche « entrée » d'un clavier) soit reçue. Ce n'est qu'alors que le moyen de traitement PROC traite l'ensemble des données textuelles mémorisées et incruste la phrase entière sur l ' image source Im3.
L'unité de contrôle MCU peut par ailleurs très bien recevoir simultanément des données textuelles dχ,d2,d3 provenant respectivement des utilisateurs Bob, Jen et Sam. Dans ce cas, le moyen de traitement PROC peut être amené à incruster simultanément, en temps réel, les parties de textes correspondant à ces différentes données au sein d'une même image à diffuser aux différents terminaux. On peut aussi imaginer, à l'instar de ce qui a été décrit précédemment, que le moyen de traitement PROC mémorise séparément les données textuelles provenant des utilisateurs Bob, Jen et/ou Sam, afin de n'afficher les textes correspondants que lorsqu'une phrase entière a été reçue de l'un d'entre eux. Cette mémorisation peut être faite au sein d'un buffer unique, commun à tous ces utilisateurs, ou de buffers dédiés respectivement à chacun des utilisateurs.
On peut avantageusement afficher les différentes parties de texte, correspondant aux différentes données textuelles di,d2/d3 reçues, au sein d'une même zone située au centre de l'image source Ims . Les textes appartenant aux différents utilisateurs peuvent alors être différenciés en mentionnant une donnée spécifique, telle que le nom ou le prénom de l'utilisateur, à proximité du texte saisi par celui-ci. Un tel exemple est illustré à la figure 3A.
Dans cet exemple de la figure 3A où trois participants conversent, l'image source Im5 est une image composite constituée de trois images Imi,Im2,Im3 représentant chacune un des participants, Bob, Jen et Sam. Une zone centrale Z de texte est superposée sur cette image composite et sert à incruster les parties de texte correspondant à chacun des participants. Une telle présentation, en plus d'être homogène, permet d'avoir un aperçu rapide de la conversation d'un simple coup d'œil à cette unique zone centrale.
Afin d'obtenir une telle image composite, l'unité de contrôle MCU comprend un moyen de préparation PREP de l'image source recevant des données d'image Imx, Im2 et Im3 de chacun des terminaux T1, T2, T3. Ces données d'image peuvent être tout d'abord décodées au moyen de décodeurs respectifs DECODi , DECOD2 , DECOD3 , afin de s'affranchir des différents types de codage d'image utilisés pendant la transmission depuis les terminaux vers l'unité de contrôle MCU.
Ces données d'image ImI1Im2 et Im3 sont ensuite envoyées vers un moyen de mixage (MIX) qui les traite, afin par exemple de réaliser une image source Im8 composite, présentant trois images provenant respectivement des trois terminaux Ti, T2, T3, par exemple trois images des différents utilisateurs comme illustré sur la figure 3A. D'autres effets peuvent être envisagés, et réalisés par les moyens MIX et PROC, comme par exemple l'animation sur les caractères les plus récemment reçus pour plus de dynamisme .
On peut aussi envisager, avantageusement, d'afficher les textes saisis par les utilisateurs dans une zone correspondant à leur image respective, et non plus seulement dans une zone centrale. Un tel exemple d' implémentation est illustré à la figure 3B.
Dans l'exemple de cette figure 3B, chaque participant a sa zone particulière Zx, Z2 ou Z3, dans laquelle s'affiche une image ou un flux vidéo qu'il aura transmis de son terminal par exemple, ainsi que les caractères qu'il aura saisi. Ce type de présentation présente, outre l'avantage de l'homogénéité, celui de différencier, visuellement et immédiatement, quel utilisateur a saisi un texte en particulier . La figure 4 va maintenant illustrer un système de visioconférence avec communication textuelle utilisant une unité de contrôle MCU selon un mode de réalisation préféré de l'invention.
Dans le système de visioconférence avec communication textuelle de cette figure 4, les trois utilisateurs Bob, Jen et Sam utilisent les terminaux respectifs A, B, C pour communiquer entre eux, par l'intermédiaire d'une unité de contrôle MCU similaire à celle décrite ci-avant.
Les terminaux A, B, C utilisent les canaux vidéo 21, 31, 41 et les canaux audio 22, 32, 42 pour organiser la visioconférence, suivi des protocoles établis. En ce qui concerne les données textuelles, le terminal A utilise le protocole T. 140, le terminal B le protocole SIP Message et le terminal C le protocole SIP Info.
Avec une unité de contrôle multipoint classique, une conversation textuelle entre ces différents terminaux serait impossible, du fait des protocoles de communication textuelle différents, comme illustré précédemment à la figure IC. Mais ici, les canaux textuels 23, 33, 43 ne sont utilisés que dans le sens montant, i.e. des terminaux vers l'unité de contrôle MCU. L'unité de contrôle MCU incruste alors, de la manière décrite ci-avant, les différentes données textuelles reçues par les canaux textuels dans un flux vidéo à retransmettre vers les terminaux, dans le sens descendant, par les canaux vidéo 21, 31, 41. Le problème de compatibilité entre les protocoles textuels est ainsi résolu, de même que le problème de réception d'une pluralité de flux de texte provenant de sources différentes, et la conversation textuelle peut avoir lieu.
Enfin, la figure 5 illustre les étapes d'un procédé 100 de traitement de données textuelles selon un mode de réalisation préféré de l'invention.
Au cours d'une première étape de saisie 110, des données textuelles di sont saisies sur au moins un terminal Ti, au moyen d'un clavier par exemple.
De façon préférée, mais optionnelle, des données d'image source Iirii sont capturées sur ce même terminal Tx au cours d'une deuxième étape de capture 120. Ces données peuvent consister en une image unique, voire un flux vidéo, et être capturées au moyen d'une webcam par exemple.
L'étape de capture 120 est indiquée comme suivant l'étape de saisie 110 dans la figure 5, mais ces deux étapes peuvent également être effectuées simultanément, ou dans l'ordre inverse où l'étape de capture de données d'image précède l'étape de saisie de données textuelles.
Les données textuelles saisies di, et éventuellement les données d'image capturées Imx, sont alors transmises par le terminal Tx et reçues par l'unité de contrôle MCU, au cours d'une étape de réception 130. S'ensuit une étape 140 de préparation de l'image source, dans laquelle les données d'image Imx sont traitées, formatées à un format spécifique, ou combinées à d'autres données d'image reçues d'autres terminaux pour former une image source composite. Cette étape est effectuée au sein du moyen de préparation PREP de l'unité de contrôle MCU. On obtient alors une image source Im5, voire un flux d'images source {Ims}i k, composé d'une succession d' images source .
Au cours d'une étape d'incrustation 150, les données textuelles di sont alors incrustées dans l'image source Im5 ou le flux {Ims}X/...,k, préparée précédemment, dans un des modes de présentation ci-avant par exemple. On obtient alors une image Im, ou le flux d'images (Im)x k correspondant .
Une fois ces données textuelles incrustées dans une image source ou un flux d'images source, l'image Im ou le flux d'images (Im)1 k est diffusé vers les terminaux des participants, au cours d'une étape de diffusion 160, au besoin en étant préalablement encodées par un moyen de codage COD adapté à ces terminaux.
Bien entendu, l'invention n'est pas limitée aux exemples de réalisation ci-dessus décrits et représentés, à partir desquels on pourra prévoir d'autres modes et d'autres formes de réalisation, sans pour autant sortir du cadre de 1 ' invention.

Claims

Revendications
1. Procédé de traitement de données textuelles, en contexte de télécommunication entre au moins un premier terminal (Ti) et un deuxième terminal (T2) , caractérisé en ce qu'il comporte, après réception (130) auprès d'un dispositif de traitement (MCU) de données textuelles (di) du premier terminal (Tx), la génération (150) de données d'image (Im) intégrant lesdites données textuelles (di) reçues, en vue d'une transmission (160) desdites données d'image (Im) au moins au deuxième terminal (T2) .
2. Procédé selon la revendication 1, caractérisé en ce que ledit dispositif de traitement (MCU) incruste au moins une partie d'un texte correspondant auxdites données textuelles (di) dans au moins une image source (Im "ss;
3. Procédé selon la revendication 2, caractérisé en ce que ledit dispositif de traitement (MCU) reçoit en outre des données textuelles (d2) du deuxième terminal (T2) et incruste au moins une partie d'un texte correspondant auxdites données textuelles (d2) reçues du deuxième terminal (T2) dans ladite image source (Im8) .
4. Procédé selon l'une des revendications 2 ou 3, caractérisé en ce qu'une partie au moins de l'image source (Im3) est communiquée du premier terminal (Tx) au dispositif de traitement (MCU) .
5. Procédé selon la revendication 4, caractérisé en ce que l'image source (Im5) est une image composite dont une partie au moins est communiquée du deuxième terminal (T2) au dispositif de traitement (MCU) .
6. Procédé selon l'une des revendications 2 à 5, caractérisé en ce que l'incrustation des données textuelles (di,d2) s'effectue dans une zone d'affichage (Z) définie dans ladite image source (Im3) .
7. Procédé selon la revendication 6, dans lequel l'image source (Im5) comporte au moins une première zone d'affichage (Zi) dans laquelle s'affiche au moins une partie d'une première image (Imi) communiquée du premier terminal (T1) au dispositif de traitement (MCU) , ainsi qu'une deuxième zone d'affichage (Z2) dans laquelle s'affiche au moins une partie d'une deuxième image (Im2) communiquée du deuxième terminal (T2) au dispositif de traitement (MCU) , caractérisé en ce que ledit dispositif de traitement (MCU) incruste au moins une partie d'un texte correspondant auxdites données textuelles (di) provenant du premier terminal (Ti) dans la première zone d'affichage (Z1) et au moins une partie d'un texte correspondant auxdites données textuelles (d2) provenant du deuxième terminal (T2) dans la deuxième zone d'affichage (Z2) .
8. Dispositif de traitement de données textuelles (MCU), en contexte de télécommunication entre au moins un premier terminal (T1) et un deuxième terminal (T2) , caractérisé en ce qu'il comporte un moyen de traitement (PROC) pour, sur réception de données textuelles (di) d'un premier terminal (Tx), générer des données d'image (Im) intégrant lesdites données textuelles (dx) reçues, en vue d'une transmission desdites données d'image au moins à un deuxième terminal (T2) .
9. Dispositif de traitement de données textuelles (MCU) selon la revendication précédente, caractérisé en ce que ledit moyen de traitement (PROC) est apte à incruster au moins une partie d'un texte correspondant auxdites données textuelles (dx) dans au moins une image source (Im5) en vue de générer lesdites données d'image (Im) .
10. Dispositif de traitement de données textuelles (MCU) selon la revendication précédente, caractérisé en ce que ledit moyen de traitement (PROC) est en outre apte à incruster au moins une partie d'un texte correspondant à des données textuelles (d2) reçues du deuxième terminal (T2) dans ladite image source (Ims) en vue de générer lesdites données d'image (Im) .
11. Dispositif de traitement de données textuelles (MCU) selon l'une des revendications 9 ou 10, caractérisé en ce qu'il comporte un moyen de prétraitement (PREP) pour générer ladite image source (Im5) à partir de données d'image (Imx) reçues du premier terminal (Tx) .
12. Dispositif de traitement de données textuelles (MCU) selon la revendication précédente, caractérisé en ce que le moyen de prétraitement (PREP) comprend un moyen de mixage (MIX) pour générer ladite image source (Im5) sous la forme d'une image composite dont au moins une première partie est générée en fonction de données d'image (Imi) reçues du premier terminal (Ti) et au moins une deuxième partie est générée en fonction de données d'image (Im2) reçues du deuxième terminal (T2) .
13. Système de conversation vidéo-textuelle comprenant un dispositif de traitement de données textuelles (MCU) selon l'une des revendications 8 à 10, connecté à au moins deux terminaux (Ti, T2) aptes à envoyer des données textuelles (di,d2) audit dispositif de traitement (MCU) .
14. Système de conversation vidéo-textuelle comprenant un dispositif de traitement de données textuelles (MCU) selon l'une des revendications 11 à 12, connecté à au moins deux terminaux (Ti, T2) aptes à envoyer des données textuelles
(di,d2) et des données d'image (Imi,Im2) audit dispositif de traitement (MCU) .
15. Programme informatique, pour la mise en œuvre du procédé selon l'une des revendications 1 à 7, téléchargeable via un réseau de télécommunication et/ou stocké dans une mémoire d'un dispositif de traitement et/ou stocké sur un support mémoire destiné à coopérer avec un dispositif de traitement.
PCT/FR2009/052559 2008-12-22 2009-12-16 Procédé et dispositif de traitement de données textuelles WO2010072945A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011541556A JP2012513693A (ja) 2008-12-22 2009-12-16 テキストデータを処理するための方法および装置
EP09802187A EP2368167A1 (fr) 2008-12-22 2009-12-16 Procédé et dispositif de traitement de données textuelles
US13/139,417 US8848015B2 (en) 2008-12-22 2009-12-16 Method and device for processing text data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0858907 2008-12-22
FR0858907 2008-12-22

Publications (1)

Publication Number Publication Date
WO2010072945A1 true WO2010072945A1 (fr) 2010-07-01

Family

ID=40897699

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2009/052559 WO2010072945A1 (fr) 2008-12-22 2009-12-16 Procédé et dispositif de traitement de données textuelles

Country Status (4)

Country Link
US (1) US8848015B2 (fr)
EP (1) EP2368167A1 (fr)
JP (1) JP2012513693A (fr)
WO (1) WO2010072945A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108810443A (zh) * 2017-04-28 2018-11-13 南宁富桂精密工业有限公司 视频画面合成方法及多点控制单元
US10546402B2 (en) 2014-07-02 2020-01-28 Sony Corporation Information processing system, information processing terminal, and information processing method

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5892021B2 (ja) * 2011-12-26 2016-03-23 キヤノンマーケティングジャパン株式会社 会議サーバ、会議システム、会議サーバの制御方法、プログラムおよび記録媒体
JP6089516B2 (ja) * 2012-09-11 2017-03-08 沖電気工業株式会社 多地点会議サーバ及び多地点会議サーバプログラム、並びに、多地点会議システム
JP2019049854A (ja) * 2017-09-10 2019-03-28 益満 大 プログラム及び情報処理システム
US11563701B2 (en) 2021-05-05 2023-01-24 Rovi Guides, Inc. Message modification based on message format
US11463389B1 (en) * 2021-05-05 2022-10-04 Rovi Guides, Inc. Message modification based on device compatability
US11562124B2 (en) * 2021-05-05 2023-01-24 Rovi Guides, Inc. Message modification based on message context
US12015581B1 (en) * 2023-07-13 2024-06-18 Kyndryl, Inc. Selectively exclude recipients from an end-to-end encryption enabled group chat

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1239652A1 (fr) * 2001-03-01 2002-09-11 Square Co., Ltd. Procédé et système de téléconférence
US20080005269A1 (en) * 2006-06-29 2008-01-03 Knighton Mark S Method and apparatus to share high quality images in a teleconference
US20080313550A1 (en) * 2007-06-15 2008-12-18 Fujitsu Limited RECORDING MEDIUM ON WHICH Web CONFERENCE SUPPORT PROGRAM IS RECORDED AND Web CONFERENCE SUPPORT APPARATUS

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6253082A (ja) * 1985-09-02 1987-03-07 Nippon Telegr & Teleph Corp <Ntt> 多地点間映像会議方式
US5689641A (en) * 1993-10-01 1997-11-18 Vicor, Inc. Multimedia collaboration system arrangement for routing compressed AV signal through a participant site without decompressing the AV signal
US6069622A (en) * 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
AU2001245426A1 (en) * 2000-03-03 2001-09-17 Lawrence R. Jones Picture communications system and associated network services
US20020198716A1 (en) * 2001-06-25 2002-12-26 Kurt Zimmerman System and method of improved communication
JP2003219047A (ja) * 2002-01-18 2003-07-31 Matsushita Electric Ind Co Ltd 通信装置
JP2004128614A (ja) * 2002-09-30 2004-04-22 Toshiba Corp 画像表示制御装置及び画像表示制御プログラム
JP3819852B2 (ja) * 2003-01-29 2006-09-13 富士通株式会社 通信支援方法、通信支援装置、通信支援プログラム及び通信支援プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004274342A (ja) * 2003-03-07 2004-09-30 Cni Kk Tv会議システム
JP2004304601A (ja) * 2003-03-31 2004-10-28 Toshiba Corp Tv電話装置、tv電話装置のデータ送受信方法
JP2005222431A (ja) * 2004-02-09 2005-08-18 Fuji Xerox Co Ltd 共同作業システム
JP2005346252A (ja) * 2004-06-01 2005-12-15 Nec Corp 情報伝達システムおよび情報伝達方法
US8123782B2 (en) 2004-10-20 2012-02-28 Vertiflex, Inc. Interspinous spacer
US8373799B2 (en) * 2006-12-29 2013-02-12 Nokia Corporation Visual effects for video calls
KR101341504B1 (ko) * 2007-07-12 2013-12-16 엘지전자 주식회사 휴대 단말기 및 휴대 단말기에서의 멀티미디어 컨텐츠 생성방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1239652A1 (fr) * 2001-03-01 2002-09-11 Square Co., Ltd. Procédé et système de téléconférence
US20080005269A1 (en) * 2006-06-29 2008-01-03 Knighton Mark S Method and apparatus to share high quality images in a teleconference
US20080313550A1 (en) * 2007-06-15 2008-12-18 Fujitsu Limited RECORDING MEDIUM ON WHICH Web CONFERENCE SUPPORT PROGRAM IS RECORDED AND Web CONFERENCE SUPPORT APPARATUS

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2368167A1 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10546402B2 (en) 2014-07-02 2020-01-28 Sony Corporation Information processing system, information processing terminal, and information processing method
CN108810443A (zh) * 2017-04-28 2018-11-13 南宁富桂精密工业有限公司 视频画面合成方法及多点控制单元

Also Published As

Publication number Publication date
EP2368167A1 (fr) 2011-09-28
JP2012513693A (ja) 2012-06-14
US20110249083A1 (en) 2011-10-13
US8848015B2 (en) 2014-09-30

Similar Documents

Publication Publication Date Title
WO2010072945A1 (fr) Procédé et dispositif de traitement de données textuelles
EP2255527B1 (fr) Procede permettant la mise en oeuvre de la video enrichie sur les terminaux mobiles
CA2284884C (fr) Systeme de visioconference
WO2006134055A1 (fr) Procede de gestion de l&#39;execution par un serveur d&#39;une application offrant au moins un service multimedia interactif a au moins un terminal, produit programme d&#39;ordinateur et serveur correspondants
EP1856901B1 (fr) Procede et systeme d&#39;information des participants a une conversation telephonique
WO2004017636A1 (fr) Procede de diffusion en temps reel de fichiers multimedias au cours d&#39;une visioconference, sans rupture de communication, et interface homme-machine pour la mise en oeuvre
WO2009147348A2 (fr) Procédé et système d&#39;enregistrement automatique d&#39;une session de communication
FR3092718A1 (fr) Procédé de traitement de flux audiovidéo en conférence multipartite, dispositifs, système et programme correspondants
EP2064900B1 (fr) Procede de transfert d&#39;un flux audio entre plusieurs terminaux
EP1964363B1 (fr) Procédé de transfert de flux de communication
FR3113447A1 (fr) Procede de connexion a une visio-conference securisee par authentification forte
EP2684353A1 (fr) Dispositif et procédé de mixage reparti de flux de données
WO2008046697A1 (fr) Enrichissement de la signalisation dans une session de communication de type &#39; push to talk &#39; par insertion d&#39;une carte de visite
EP1985093A1 (fr) Procédé et dispositif de gestion d&#39;au moins un groupe d&#39;utilisateurs, produit programme d&#39;ordinateur correspondant
WO2007015012A1 (fr) Service de personnalisation de communications par traitement des flux media audio et/ou video
EP2064855B1 (fr) Procede de communication entre plusieurs terminaux
WO2017103480A1 (fr) Système et procédé de réalisation d&#39;un tour de table lors d&#39;une réunion à distance
FR2776457A1 (fr) Systeme de visioconference multipoint a presence permanente
EP4165889A1 (fr) Procede d&#39;acces et dispositif de gestion d&#39;acces a une session de communication securisee entre des terminaux de communication participants par un terminal de communication requerant
FR2984651A1 (fr) Procede, dispositif et systeme de diffusion de conferences sur un reseau etendu
FR3000357A1 (fr) Procede de transfert de communication audio et/ou video depuis un premier terminal vers un deuxieme terminal
FR2930699A1 (fr) Negociation optimisee de ressources de codage entre clients de communication
FR2992808A1 (fr) Systeme, serveur, procede, produit programme d&#39;ordinateur et moyen de stockage pour la mise en oeuvre d&#39;une conference multipoints
EP1065590A1 (fr) Architecture de système de traitement multimédia
FR2786348A1 (fr) Systeme multimedia de transmission de donnees

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09802187

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009802187

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011541556

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13139417

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE