FR3059861A1 - Procede de mise a disposition de contenu contextuel en cours de conversation, et equipements pour la mise en oeuvre du procede - Google Patents

Procede de mise a disposition de contenu contextuel en cours de conversation, et equipements pour la mise en oeuvre du procede Download PDF

Info

Publication number
FR3059861A1
FR3059861A1 FR1661894A FR1661894A FR3059861A1 FR 3059861 A1 FR3059861 A1 FR 3059861A1 FR 1661894 A FR1661894 A FR 1661894A FR 1661894 A FR1661894 A FR 1661894A FR 3059861 A1 FR3059861 A1 FR 3059861A1
Authority
FR
France
Prior art keywords
terminal
keywords
data
communication
contextual content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1661894A
Other languages
English (en)
Inventor
Corinne Leveque
Arnaud Brun
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1661894A priority Critical patent/FR3059861A1/fr
Publication of FR3059861A1 publication Critical patent/FR3059861A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1059End-user terminal functionalities specially adapted for real-time communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/06Generation of reports
    • H04L43/065Generation of reports related to network devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/30Network architectures or network communication protocols for network security for supporting lawful interception, monitoring or retaining of communications or communication related information
    • H04L63/302Network architectures or network communication protocols for network security for supporting lawful interception, monitoring or retaining of communications or communication related information gathering intelligence information for situation awareness or reconnaissance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/4061Push-to services, e.g. push-to-talk or push-to-video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/303Terminal profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Technology Law (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Un procédé de fourniture de contenu contextuel à un premier terminal (1) de communication en communication avec un second terminal (3) de communication, la communication comprenant un contenu vocal (20). Le procédé comprend : a) identifier une pluralité de mots-clés (21) dans le contenu vocal (20), b) obtenir des données de contenu contextuel (25, 26) relatif à une combinaison de mots-clés (21), et c) transmettre au premier terminal (1) les données de contenu contextuel (25, 26), en vue d'un rendu du contenu contextuel (25, 26) à un utilisateur du premier terminal (1). Un programme, un système et un terminal relatifs au procédé.

Description

® RÉPUBLIQUE FRANÇAISE
INSTITUT NATIONAL DE LA PROPRIÉTÉ INDUSTRIELLE © N° de publication :
(à n’utiliser que pour les commandes de reproduction) (© N° d’enregistrement national
059 861
61894
COURBEVOIE © Int Cl8 : H 04 L 29/02 (2017.01)
DEMANDE DE BREVET D'INVENTION
A1
©) Date de dépôt : 02.12.16. (® Priorité : (® Demandeur(s) : ORANGE Société anonyme — FR.
Date de mise à la disposition du public de la demande : 08.06.18 Bulletin 18/23. @ Inventeur(s) : LEVEQUE CORINNE et BRUN ARNAUD.
®) Liste des documents cités dans le rapport de recherche préliminaire : Se reporter à la fin du présent fascicule
(® Références à d’autres documents nationaux apparentés : (® Titulaire(s) : ORANGE Société anonyme.
®) Demande(s) d’extension : ® Mandataire(s) : CABINET PLASSERAUD.
PROCEDE DE MISE A DISPOSITION DE CONTENU CONTEXTUEL EN COURS DE CONVERSATION, ET EQUIPEMENTS POUR LA MISE EN OEUVRE DU PROCEDE.
FR 3 059 861 - A1
Un procédé de fourniture de contenu contextuel à un premier terminal (1) de communication en communication avec un second terminal (3) de communication, la communication comprenant un contenu vocal (20). Le procédé comprend:
a) identifier une pluralité de mots-clés (21) dans le contenu vocal (20),
b) obtenir des données de contenu contextuel (25, 26) relatif à une combinaison de mots-clés (21), et
c) transmettre au premier terminal (1) les données de contenu contextuel (25, 26), en vue d'un rendu du contenu contextuel (25, 26) à un utilisateur du premier terminal (1). Un programme, un système et un terminal relatifs au procédé.
3
Procédé de mise à disposition de contenu contextuel en cours de conversation, et équipements pour la mise en œuvre du procédé
L’invention relève du domaine des télécommunications.
Classiquement, deux utilisateurs conversant par l’intermédiaire de deux terminaux distants échangent des informations sous forme vidéo, audio et/ou de texte. Il est en outre connu de transmettre d’autres types d’information. Par exemple, la position géographique d’un utilisateur peut être transmise à son interlocuteur sous forme de coordonnées issues de données de géolocalisation établies par le terminal émetteur. De telles données sont ensuite interprétées par le terminal destinataire, par exemple pour afficher une position sur une carte. De telles informations annexes sont indépendantes du contenu de la conversation.
L’invention vient améliorer la situation.
La demanderesse propose un procédé de fourniture de contenu contextuel à un premier terminal de communication en communication avec un second terminal de communication, la communication comprenant un contenu vocal, le procédé comprenant :
a) identifier une pluralité de mots-clés dans le contenu vocal,
b) obtenir des données de contenu contextuel relatif à une combinaison de mots-clés, et
c) transmettre au premier terminal les données de contenu contextuel, en vue d’un rendu du contenu contextuel à un utilisateur du premier terminal.
Un tel procédé permet de mettre à disposition d’utilisateurs du contenu contextuel relatif à la teneur d’une conversation. Un tel contenu est rendu disponible sans action spécifique des utilisateurs. Ainsi, la conversation peut évoluer en fonction du contenu rendu disponible, sans interruption. Les utilisateurs sont dispensés de recherches complémentaires relatives à la conversation, que ce soit pendant ou après la conversation.
Selon un second aspect de l’invention, la demanderesse propose un système de fourniture de contenu contextuel comprenant au moins un serveur et un premier terminal de communication apte à communiquer avec un second terminal de communication, la communication comprenant un contenu vocal. Le premier terminal comprend un module d’analyse agencé pour identifier des mots-clés dans le contenu vocal. Le serveur est agencé pour obtenir des données de contenu contextuel relatif à une combinaison de mots-clés identifiés, et pour transmettre au premier terminal les données de contenu obtenues.
Selon un second aspect de l’invention, la demanderesse propose un terminal de communication apte à communiquer avec un autre terminal de communication, la communication comprenant un contenu vocal. Le premier terminal comprend un module d’analyse agencé pour identifier des mots-clés dans le contenu vocal. Le terminal est en outre agencé pour obtenir des données de contenu contextuel relatif à une combinaison de mots-clés identifiés.
Selon un autre aspect de l’invention, la demanderesse propose un programme d’ordinateur apte à être mis en œuvre en un procédé de fourniture de contenu contextuel tel que décrit ci-avant. Selon encore un autre aspect de l’invention, la demanderesse propose un support d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme comprenant des instructions pour l’exécution des étapes du procédé défini ci-avant.
D’autres caractéristiques, détails et avantages de l’invention apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :
- la figure 1 montre un système pour la mise en œuvre du procédé proposé selon un ou plusieurs modes de réalisation ;
- la figure 2 montre un diagramme illustrant le procédé proposé selon un ou plusieurs modes de réalisation ;
- la figure 3 montre un exemple d’architecture de terminal de communication pour la mise en œuvre du procédé proposé selon un ou plusieurs modes de réalisation.
Les dessins et la description ci-après contiennent, pour l’essentiel, des éléments de caractère certain. Ils pourront donc non seulement servir à mieux faire comprendre la présente invention, mais aussi contribuer à sa définition, le cas échéant.
Dans la description détaillée ci-après de modes de réalisation de l’invention, de nombreux détails spécifiques sont présentés pour apporter une compréhension plus complète. Néanmoins, l’homme du métier peut se rendre compte que des modes de réalisation peuvent être mis en pratique sans ces détails spécifiques. Dans d’autres cas, des caractéristiques bien connues ne sont pas décrites en détail pour éviter de compliquer inutilement la description.
On entend ici par « réseau » une ou plusieurs liaisons de données permettant le transport de données entre des systèmes informatiques, des terminaux et/ou tous types d’équipement électroniques ou informatiques.
Dans l’exemple représenté sur la figure 1, un système de fourniture de contenu contextuel 100 comprend un premier terminal 1 de communication, un second terminal 3 de communication et un serveur 5.
Le premier terminal 1 et le second terminal 3 sont en communication l’un avec l’autre. La communication comprend un contenu vocal 20. Ici, la communication est synchrone, par exemple sous forme de téléphonie ou de vidéophonie. Chacun des terminaux 1, 3 comprend des moyens de communication aptes à mettre en communication les terminaux 1, 3 l’un avec l’autre par l’intermédiaire d’un réseau de télécommunication propre à transmettre du contenu vocal 20.
La figure 3 illustre un exemple d’architecture fonctionnelle de terminal de communication 300 pouvant être adoptée pour les terminaux 1 et 3 de la figure 1 pour la mise en œuvre du procédé proposé dans un ou plusieurs modes de réalisation. Le terminal de communication inclut plusieurs modules et composants, parmi lesquels un ou plusieurs processeurs 301 qui commandent les opérations du terminal de communication 300, comme une unité centrale (CPU) ou un autre processeur matériel, et une mémoire associée 303 (par exemple, une mémoire vive (RAM), une mémoire morte (ROM), une mémoire cache et/ou une mémoire flash, ou tout autre medium de stockage apte au stockage de code logiciel sous forme d’instructions exécutables par un processeur ou de structures de données accessibles par un processeur 301) couplée de manière opérationnelle au(x) processeur(s) 301. Le terminal 300 est en outre configuré pour effectuer des fonctions de communications comprenant un contenu vocal, telles que des communications de voix ou des communications de vidéophonie, par le biais d’un module de communication 302, agencé pour communiquer des données avec un autre terminal de communication via un réseau de communication 304. En fonction du mode de réalisation, le réseau de communication 304 pourra être de différents types, tels que, de manière non limitative, un réseau de transmission de données, un réseau de transmission de voix, un réseau de transmission de données et de voix, un réseau de radiocommunications, un réseau cellulaire, un réseau ad-hoc, etc. Le terminal 300 pourra en outre comprendre plusieurs interfaces d’entrée/sortie, tel qu’un microphone 306 apte à capter la voix, un haut-parleur 307 apte à émettre une voix, et une interface graphique incluant un écran 305. L’écran 305 pourra être choisi de tout type apte à afficher des informations, incluant par exemple du type à cristaux liquides (LCD), ou à LEDs (LED pour « light-emitting diode » ou « diode électroluminescente » en français).
Le terminal de communication 300 inclut un système d’exploitation et des programmes, composants, modules, applications sous forme de logiciels exécutés par le(s) processeur(s) 301, qui peuvent être, dans un ou plusieurs modes de réalisation, stockés dans une mémoire non-volatile telle que la mémoire 303.
Dans l’exemple illustré par la figure 1, les terminaux 1, 3 sont des smartphones (« smartphone » étant ici équivalent à « ordiphone », ou « téléphone intelligent »). Les moyens de communication sont compatibles avec un réseau de télécommunication du type téléphonie mobile, par exemple compatibles GSM, GPRS, EDGE, 3G, 4G ou LTE. D’autres moyens pourront être envisagés.
L’homme du métier peut se rendre compte que bien que le procédé proposé soit décrit dans ses différents modes de réalisation avec des terminaux 1, 3 de type smartphone, différents modes de réalisation du procédé proposé peuvent être mis en œuvre en utilisant différents types de terminaux de communication configurés pour effectuer des communications comportant un contenu vocal, tels que des téléphones filaires, des mobiles, des tablettes ou encore des ordinateurs.
Le contenu de la communication peut comprendre essentiellement du contenu vocal 20 ou du contenu vocal 20 associé à d’autres types de contenus tels que du contenu vidéo, par exemple dans le cadre de la vidéophonie. La communication peut être restreinte à deux terminaux ou s’établir entre plus de deux terminaux en mode « conférence ».
Dans l’exemple illustré par la figure 1, les terminaux 1,3, sous forme de smartphones, comprennent en outre un microphone apte à capter la voix, un haut-parleur apte à émettre une voix et un écran apte à afficher des informations.
Les terminaux 1, 3 comprennent en outre divers capteurs propres à fournir d’autres données, indépendantes du contenu vocal 20, par exemple des données de géolocalisation, de température ou de pression.
En variante, les microphones, haut-parleurs, écrans et/ou d’autres capteurs peuvent être déportés sous forme de périphériques reliés au terminal de communication. Des objets connectés reliés au terminal de communication peuvent, par exemple, prendre la forme de casques audio et/ou de vision, d’oreillettes, de bracelets, de montres ou encore de lunettes. La figure 1 montre par exemple des objets connectés 11 et 13 reliés respectivement au premier terminal 1 et au second terminal 3.
Les terminaux du type smartphone et les objets connectés permettent, par exemple, de centraliser et de rendre disponibles:
- des données environnementales telles qu’une géolocalisation, le bruit ambiant, la météo ;
- des données relatives à l’activité courante de l’utilisateur du terminal telles que le moyen de locomotion, la vitesse, l’accélération, la direction, la position du corps (assis, couché ou debout) ;
- des données personnelles : l’emploi du temps et la disponibilité de l’utilisateur, son rythme cardiaque, ou encore son humeur.
En référence aux figures 1 et 2, le système 100 est agencé pour la mise en œuvre du procédé proposé dans un ou plusieurs modes de réalisation en effectuant une identification d’une pluralité de mots-clés 21 dans le contenu vocal 20.
Dans un ou plusieurs modes de réalisation, l’identification des mots-clés 21 peut être mise en œuvre par l’un et/ou l’autre des processeurs respectifs des terminaux 1, 3. Ainsi, lors de la transmission ultérieure des données au serveur 5, la quantité de données transmise correspond sensiblement aux mots-clés 21 identifiés et est donc faible par comparaison à une transmission de données de contenu vocal 20 brutes. En variante, l’identification des mots-clés 21 peut être mise en œuvre par un processeur distant des terminaux 1,3, par exemple un processeur du serveur 5. Dans ce cas, des données de contenu vocal 20 doivent préalablement être transmises au processeur distant.
Dans un ou plusieurs modes de réalisation, les processeurs des terminaux 1, 3 sont configurés en une relation du type maître-maître. Spécifiquement, chaque processeur est configuré pour identifier une pluralité de mots-clés 21 dans le contenu vocal 20 émis depuis le terminal 1, 3 auquel il appartient vers l’autre terminal 3, 1. Autrement dit, le processeur du terminal 1 identifie des mots-clés 21 dans le contenu vocal 20 émis depuis le premier terminal 1 vers le second terminal 3 tandis que le processeur du second terminal 3 identifie des mots-clés 21 dans le contenu vocal 20 émis depuis le second terminal 3 vers le premier terminal 1. En variante, chaque processeur traite le contenu vocal 20 capté par le microphone du terminal auquel il appartient. Ainsi, la qualité du contenu vocal 20 traité n’est pas dégradée par d’éventuels défauts ou pertes de qualité lors de la communication.
Dans un autre mode de réalisation, les deux processeurs sont configurés en une relation du type maître-maître mais la répartition du traitement du contenu vocal 20 par chacun des processeurs des terminaux 1, 3 est définie au moyen d’une communication supplémentaire entre les terminaux 1,3.
Dans d’autres modes de réalisation, les deux processeurs sont configurés en une relation du type maître-esclave, par exemple au moyen d’un protocole de type « handshake ». La répartition du traitement du contenu vocal 20 par chacun des processeurs des terminaux 1, 3 est déterminée par l’un des processeurs des terminaux 1, 3. La répartition peut, par exemple, être définie en fonction de la puissance de calcul disponible pour chaque processeur. La répartition peut dépendre de la puissance intrinsèque des processeurs de chaque terminal 1, 3 et/ou des taches annexes prises en charge par les processeurs à chaque instant.
Dans d’autres modes de réalisation, par exemple lorsque le premier terminal 1 est en communication avec un terminal quelconque (non conforme au présent système), le processeur du premier terminal 1 est agencé pour assurer seul l’identification des motsclés 21 dans l’intégralité, ou une partie seulement, du contenu vocal 20.
Dans un ou plusieurs modes de réalisation, le procédé proposé est mis en œuvre par l’intermédiaire d’une application préalablement installée sur le premier terminal 1 et sur le second terminal 3. Ainsi, des terminaux 1, 3 existants peuvent être rendus conformes au système par une modification logicielle (« software ») sans qu’il soit nécessaire d’intervenir matériellement sur le terminal (« hardware »). En outre, des améliorations peuvent être apportées par des mises à jour du logiciel.
Dans un ou plusieurs modes de réalisation, l’un et/ou l’autre des processeurs des terminaux 1, 3 peuvent comprendre un module d’analyse agencé pour mettre en œuvre l’identification des mots-clés 21 dans le contenu vocal 20.
Dans un mode de réalisation préféré, l’identification 200 des mots-clés 21 comprend, en référence à la figure 2 :
- identifier 211 des mots dans le contenu vocal 20, et
- sélectionner 212 des mots-clés 21 parmi les mots identifiés, par exemple par comparaison avec une liste de mots-clés prédéterminée.
Dans un ou plusieurs modes de réalisation, l’identification 211 de mots dans le contenu vocal 20 peut comprendre la conversion de phrases vocales prononcées en une liste de mots. Le contenu de type audio est, alors, converti en un contenu de type texte. Ainsi, les données représentatives des mots sous forme de texte présentent une taille sensiblement inférieure aux données représentatives du contenu audio original. En outre, le traitement du contenu sous forme de texte est moins complexe et donc plus rapide que le traitement direct du contenu audio. Il existe des méthodes permettant l’identification des mots-clés 21 dans le contenu vocal 20, mises en œuvre au moyen de modules de reconnaissance automatique de la parole (en anglais, « speech to text »). La solution « Sphinx » décrite à l’URL http://cmusphinx.sourceforge.net/ est un exemple de solution mettant en œuvre une technologie de reconnaissance automatique de la parole.
Dans un ou plusieurs modes de réalisation, la liste de mots-clés prédéterminée utilisée pour sélectionner 212 des mots-clés 21 parmi les mots identifiés peut par exemple être stockée dans un espace de stockage du terminal 1, 3 ou dans un espace de stockage accessible au processeur mettant en œuvre la sélection des mots-clés. Il existe des méthodes permettant de sélectionner des mots-clés 21 parmi les mots identifiés, mises en œuvre au moyen de modules d’extraction automatique de mots clés (en anglais « word spotting »). La technologie « LanguageWare » (https://en.wikipedia.org/wiki/LanguageWare) est un exemple de solution de traitement de langage naturel qui propose différentes fonctions d’analyse de texte en langage naturel, y compris l’extraction automatique de mots clés.
Dans un ou plusieurs modes de réalisation, lorsque les mots-clés 21 sont identifiés par l’un des processeurs des terminaux 1, 3, les mots-clés 21 sont transmis au serveur 5. La communication entre chaque terminal 1, 3 d’une part et le serveur 5 d’autre part peut mettre en œuvre des moyens de communications différents de ceux mis en œuvre pour la communication entre les terminaux 1, 3. Par exemple, la communication entre les terminaux 1, 3 peut être mise en œuvre par l’intermédiaire d’un réseau de téléphonie et par transport de signal audio uniquement tandis que la communication de données avec le serveur 5 peut être réalisée via le réseau Internet et impliquer des protocoles de transferts de données par paquets (comme par exemple le protocole IP (en anglais, « Internet Protocol »)).
Le serveur 5 comprend plusieurs modules et composants, parmi lesquels un ou plusieurs processeurs qui commandent les opérations du serveur 5, comme une unité centrale (CPU) ou un autre processeur matériel, et une mémoire associée (par exemple, une mémoire vive (RAM), une mémoire morte (ROM), une mémoire cache et/ou une mémoire flash, ou tout autre medium de stockage apte au stockage de code logiciel sous forme d’instructions exécutables par un processeur ou de structures de données accessibles par un processeur) couplée de manière opérationnelle au(x) processeur(s).
Le serveur 5 est en outre configuré pour effectuer des fonctions de communications de données par le biais d’un module de communication, agencé pour communiquer des données avec les terminaux 1, 3 via un ou plusieurs premiers réseaux de communication et avec la base de données 7 via un ou plusieurs seconds réseaux de communication. Les premiers et seconds réseaux de communication peuvent être au moins en partie communs. Les premiers réseaux de communication (avec les terminaux 1, 3) peuvent comprendre, par exemple, le réseau de communication 304 lorsque ce dernier est compatible avec la transmission de données. Les premiers et seconds réseaux de communication peuvent être de différents types, tels que, de manière non limitative, un réseau de transmission de données, un réseau de transmission de données et de voix, un réseau de radiocommunications, un réseau cellulaire, un réseau ad-hoc, etc.
Le serveur 5 inclut un système d’exploitation et des programmes, composants, modules, applications sous forme de logiciels exécutés par le(s) processeur(s), qui peuvent être, dans un ou plusieurs modes de réalisation, stockés dans une mémoire non-volatile.
En référence à la figure 2, le procédé proposé comprend en outre l’obtention 201 de données de contenu contextuel 25 relatif à une combinaison de mots-clés 21.
Dans un ou plusieurs modes de réalisation, l’obtention de données de contenu contextuel 25 peut être mise en œuvre par le serveur 5. Le serveur 5 peut dans ce cas ίο être configuré pour avoir accès à une base de données de classification et à une base de données d’actions.
Dans un ou plusieurs modes de réalisation, la base de données de classification peut 5 comprendre des listes Lx de mots-clés Mxy, chaque liste étant associée à un type.
Autrement dit, les données de la base de données de classification peuvent être organisées en regroupant les mots-clés Mxy par type. Le tableau I suivant est une représentation d’un exemple de base de données de classification.
Tableau I :
Nom des listes (Lx) Type Mots clés (Mx y)
U Moyens de transports M11 = bus Mij2 = avion Mi>3 = voiture Mi>4 = train
L2 Dates M2ji = avant-hier M2.2 = hier M2j3 = demain M2j4 = après-demain M2j5 = lundi M2j6 = mardi M2j7 = mercredi M2j8 = jeudi M2j9 = vendredi
L3 Lieux géographiques M3ji = Paris M3j2 = Marseille M3j3 = Lyon M3j4 = Toulouse M3j5 = Nice M3j6 = Nantes M3j7 = Strasbourg M3j8 = Montpellier M3j9 = Bordeaux
l4 Activités M4ji = Agent immobilier M4j2 = Avocat M4j3 = Assureur M4j4 = Banque M4., = Coiffeur M4j6 = Dentiste M4j7 = Garagiste M4j8 = Hôtel M4j9 = Médecin
Dans un ou plusieurs modes de réalisation, la base de données actions peut comprendre des combinaisons de types de mots-clés auxquelles sont associés des actions, ou des instructions. Autrement dit, la base de données actions peut regrouper les types de motsclés Lx en des combinaisons et y associer une action logique. Le tableau II suivant est une représentation d’un exemple de base de données actions.
Tableau II :
Associations de mots clés Actions
[MiJ + [M3,y] Moyen de transport + Lieu géographique Interroger un site commercial de vente de billets de transport, par exemple www.vovages-sncf.com, avec pour paramètres la destination du lieu [M3 y] à la date [M2jX] depuis le ou les lieux [M3z]. La date [M2jX] peut être tirée de l’identification des mots-clés ou, à défaut, correspondre à la date du jour. Les lieux de départ [M3z] peuvent correspondre par exemple aux positions actuelles des terminaux 1, 3 déduites des données de géolocalisation.
[M1>x]+[M3,y] Moyen de transport + Lieu géographique Interroger un site de prévision météorologique, par exemple www.meteofrance.com, avec pour paramètres le lieu [M3y] et la date [M2jX], La date [M2jX] peut être tirée de l’identification des mots- clés ou, à défaut, correspondre à la date du jour.
[M3,x]+[M4,y] Lieu géographique + activité Interroger un site de coordonnées de professionnels, par exemple www.118712.fr, avec pour paramètres le type de professionnels [M4y] et le lieu [M3x].
En référence aux figures 1 et 2, dans un mode de réalisation préféré, l’obtention 201 de 10 données de contenu contextuel 25 comprend une recherche dans une ou plusieurs bases de données 7. Dans la suite, les termes « base de données » au singulier peuvent désigner une base de données unique ou un ensemble de plusieurs bases de données distinctes.
Dans un ou plusieurs modes de réalisation, le serveur 5 peut être configuré pour préalablement classifier en catégories des mots-clés parmi les mots-clés 21 reçus des terminaux 1, 3. Dans un mode de réalisation préféré, chaque mot-clé 21 reçu est comparé aux mots-clés contenus dans la base de données de classification (colonne de droite du tableau I). Il est attribué à chaque mot-clé 21 reconnu une catégorie correspondant à une liste Lx et un type. Par exemple, le mot-clé « lundi » se voit attribué la catégorie L2, soit le type « Date ».
Chaque mot-clé associé à une catégorie peut être vu comme un couple de données, ou un mot-clé classifié 23. D’autres marqueurs peuvent être associés aux mots-clés 21. Dans un ou plusieurs modes de réalisation, des marqueurs temporels sont générés pour ordonnancer les mots-clés 21 les uns par rapport aux autres en fonction de leur ordre de prononciation ou d’apparition dans le contenu vocal 20. Les combinaisons décrites ciaprès peuvent alors être sélectionnées de manière à privilégier les combinaisons de mots-clés 21 ayant été prononcés à de faibles intervalles de temps les uns des autres, par exemple dans une même phrase, afin d’améliorer la pertinence des résultats et ne pas traiter des combinaisons de mots-clés 21 ayant été prononcés à de longs intervalles de temps les uns des autres.
Dans un ou plusieurs modes de réalisation, les mots-clés classifiés 23 sont stockés en mémoire, au moins temporairement.
Dans un ou plusieurs modes de réalisation, la recherche pour l’obtention des données de contenu contextuel 25 comprend : interroger la base de données 7 avec des paramètres tirés d’une combinaison de mots-clés classifiés 23. Par exemple, le serveur 5 peut être configuré pour formuler la recherche en utilisant la base de données actions (tableau II dans l’exemple donné ci-dessus). En parcourant les mots-clés classifiés 23 stockés, des combinaisons de mots-clés classifiés 25 sont reconnues par comparaison avec la base de données actions (colonne de gauche du tableau II). Une action correspondante, par exemple une recherche, est déduite (colonne de droite du tableau II).
Dans un ou plusieurs modes de réalisation, le serveur 5 peut être configuré pour appeler au moins une base de données 7, locale ou distante. En référence à la figure 2, la base de données 7 à appeler peut être identifiée 220 en fonction de la catégorie d’au moins un mot-clé classifié 25 de chaque combinaison. Par exemple, la catégorie « Moyen de transport » du mot « Avion » permet d’identifier la base de données 7 d’un fournisseur de contenu du domaine du transport tel que la base de données 7 accessible via le site internet de la société « SNCF » dans l’exemple du tableau II donné ci-dessus.
Dans un ou plusieurs modes de réalisation, les paramètres, ou arguments, utilisés en tant que données d’entrée pour interroger 221 la base de données 7 peut comprendre au moins un mot-clé classifié 25 de la combinaison. Par exemple, le mot « Marseille » peut être utilisé comme donnée d’entrée pour interroger le site de la SNCF, par exemple en tant que destination d’un voyage.
En variante, la base de données 7 à appeler est identifiée 220 en fonction d’au moins un mot-clé classifié 25 de chaque combinaison, indépendamment de sa catégorie. La base de données 7 peut aussi être identifiée 220 en fonction d’un premier mot-clé classifié 25 de la combinaison et en fonction de la catégorie d’un second mot-clé classifié 25 de la combinaison. Le premier mot-clé et le second mot-clé peuvent être distincts ou être le même mot clé.
En variante, les paramètres utilisés en tant que données d’entrée pour interroger 221 la base de données 7 peut aussi comprendre une catégorie d’un mot-clé classifié 25 de la combinaison, un mot-clé classifié 25 de la combinaison, ou les deux.
Dans les exemples décrits ici en référence aux figures 1 et 2, l’interrogation 221 de la base de données 7 est mise en œuvre via un réseau de transmission de données par paquets, tel que le réseau Internet, les smartphones 1, 3 étant aptes à s’y connecter. Dans ce cas de figure non limitatif, la base de données 7 peut être appelée par l’intermédiaire de requêtes, l’adressage des requêtes étant sélectionné en fonction des mots-clés identifiés 21, ou des mots-clés classifiés 25.
En référence à la figure 2, le serveur 5 reçoit 222 des données de contenu contextuel 25 en réponse à une interrogation de la base de données 7. Les données de contenu contextuel 25 peuvent correspondre au contenu lui-même ou à un pointeur, par exemple un hyperlien, renvoyant vers le contenu contextuel 25. En fonction du mode de réalisation, le contenu contextuel 25 peut être relatif à une combinaison de mots-clés identifiés 21 et/ou de mots-clés classifiés 23.
En référence à la figure 2, le procédé proposé comprend en outre, dans un ou plusieurs modes de réalisation, une transmission 202 au premier terminal 1 des données de contenu contextuel 25, en vue d’un rendu du contenu contextuel 25 à un utilisateur du premier terminal 1.
Dans un ou plusieurs modes de réalisation, le serveur 5 peut être configuré pour transmettre des données de contenu contextuel 26 déduites des données de contenu contextuel 25 reçues. A ce stade, le serveur 5 fait office de relais, dans la mesure où, en fonction du mode de réalisation, les données de contenu contextuel 26 et les données de contenu contextuel 25 peuvent être plus ou moins similaires, voire être sensiblement identiques. En variante, les données de contenu contextuel 26 transmises du serveur 5 au premier terminal 1 peuvent être basées sur les données de contenu contextuel 25 reçues de la base de données 7 tout en étant modifiées, par exemple pour combiner plusieurs contenus contextuels 25, modifier les contenus contextuels 25 ou encore y adjoindre des contenus annexes.
Le contenu contextuel 26 peut, par exemple, comprendre du texte, des images, du son et/ou des vidéos. Le serveur 5 peut être agencé pour transmettre soit les données du contenu contextuel 26 lui-même, soit seulement un pointeur, en fonction du poids des données correspondant au contenu contextuel 26. Par exemple, transmettre un hyperlien pointant vers une vidéo stockée sur un serveur externe plutôt que de transmettre la vidéo elle-même permet de limiter la quantité de données à transmettre du serveur 5 au premier terminal 1.
Dans un ou plusieurs modes de réalisation, le terminal 1 est configuré pour mettre le contenu contextuel 26 à disposition d’un utilisateur du premier terminal 1 sur réception des données de contenu contextuel 26. La forme de cette mise à disposition peut être rendue dépendante du type de contenu, de l’équipement du premier terminal 1, des périphériques qui y sont reliés et/ou de réglages préétablis par l’utilisateur. Par exemple, les vidéos peuvent être affichées sur l’écran du smartphone 1, les sons peuvent être joués par une oreillette et/ou les textes peuvent être affichés sur une montre connectée au smartphone 1.
Dans les exemples de modes de réalisation du procédé proposé décrits ci-dessus, les terminaux 1, 3 sont configurés pour transmettre au serveur 5 les mots-clés identifiés 21. Dans un ou plusieurs modes de réalisation, le serveur 5 peut en outre être configuré pour recevoir du premier terminal 1 et/ou du second terminal 3 des données indépendantes du contenu vocal 20, par exemple des données tirées des dispositifs 11, 13 connectés au premier terminal 1 ou au second terminal 3. Les données indépendantes du contenu vocal 20 peuvent comprendre, par exemple, des données disponibles au cours de la conversation, par exemple relatives à la géolocalisation courante, au bruit ambiant, à la météo, la vitesse, l’accélération et la direction du terminal 1, la position du corps de l’utilisateur (assis, couché ou debout), l’emploi du temps et la disponibilité de l’utilisateur, le rythme cardiaque, ou encore l’humeur. Les données indépendantes du contenu vocal 20 peuvent être transmises directement ou être au moins temporairement stockées sur une mémoire du terminal 1,3.
Les données indépendantes du contenu vocal 20 peuvent aussi comprendre des données issues de dispositifs non directement connectés au terminal 1, 3 mais qui remontent des données vers un serveur accessible au terminal 1,3. Par exemple, des capteurs météo ou pour le jardinage et collectant des données d’humidité, d’ensoleillement et de fertilité de la terre d’un jardin peuvent transmettre les données issues des mesures sur un serveur externe. Les données peuvent ensuite être récupérées par le terminal 1, 3 via une plateforme de type « agrégateur de données » telle que la plateforme « Datavenue » de la demanderesse.
Une fois les données indépendantes du contenu vocal 20 transmises au serveur 5, elles peuvent être traitées puis combinées avec les mots-clés 21. Notamment, les données indépendantes du contenu vocal 20 peuvent être classifiées en fonction de leur origine et mises en forme pour être homogènes avec les mots-clés classifiés 23. La position courante et géolocalisée du terminal 1, 3 peut prendre une forme similaire à celle d’un mot-clé, par exemple « Paris », si la position géolocalisée est située dans la ville de Paris. Le mot peut aussi être classifié en « lieu géographique ». Ensuite, la donnée indépendante du contenu vocal 20 est combinée avec le mot-clé « Marseille » pour obtenir des informations sur un trajet de Paris à Marseille. La suite du procédé est similaire à ce qui a été décrit jusqu’ici. Les données indépendantes du contenu vocal 20 sont traitées de manière à pouvoir être combinées avec les mots-clés classifiés 23.
Dans ce qui précède, l’étape de transmission des données de contenu contextuel 26, en vue d’un rendu du contenu contextuel 26, est effectuée à destination du premier terminal 1 et de l’utilisateur correspondant. En variante, l’étape de transmission peut être réalisée à destination du second terminal 3 et de son utilisateur ou bien à destination de chacun des terminaux 1, 3 et de leur utilisateur respectif. Dans le cas d’une transmission à chacun des terminaux 1, 3, les contenus contextuels 26 transmis peuvent être identiques ou différents. Par exemple, des informations sur un trajet peuvent être adaptées en fonction de la position courante et géolocalisée de chacun des terminaux, 1,
3.
Dans un ou plusieurs modes de réalisation, les opérations d’identification de mots-clés, d’obtention de données de contenu contextuel, et de transmission au(x) terminal(aux) décrites ci-avant peuvent être mises en œuvre répétitivement et de manière sensiblement continue au cours de la communication. Le(s) terminal(aux) peuvent être configurés pour qu’au cours de la conversation vocale, les mots-clés 21 soient identifiés au fur et à mesure, ou « au fil de l’eau ». En outre, ou en variante, le(s) terminal(aux) peuvent être configurés pour que les mots-clés 21 soient transmis au serveur 5 de manière quasiimmédiate. Autrement dit, les mots-clés identifiés 21 peuvent être transmis dès que possible au serveur 5 sans être enregistrés durablement par le(s) terminal(aux) 1, 3. Chacune des opérations d’obtention de données de contenu contextuel et de transmission au(x) terminal(aux) peuvent aussi, dans un ou plusieurs modes de réalisation, être mise en œuvre répétitivement et de manière sensiblement continue. Ainsi, le contenu contextuel 26 peut être mis à disposition des utilisateurs rapidement, généralement au cours de la conversation.
Par exception, les données 21, 23, 25, 26 peuvent être stockés provisoirement dans une mémoire tampon, par exemple pour pallier une erreur de transmission lorsque la connexion est imparfaite entre les dispositifs 1, 3, 5, 7, 11, 13, en réitérant des transmissions qui auraient échouées.
Une fois que le logiciel est correctement installé sur le terminal 1,3, par exemple via une application, et que le logiciel est rendu opérationnel, aucune action spécifique de la part de l’utilisateur n’est nécessaire pour que le procédé soit mis en œuvre automatiquement lors d’une communication comprenant un contenu vocal 20. Par rendre le logiciel « opérationnel », on entend notamment le paramétrage des autorisations d’accès du logiciel aux diverses données décrites ci-avant. L’utilisateur du terminal peut, par exemple, restreindre à une partie seulement des données disponibles, les données utilisées en tant que données d’entrée des différents modes de réalisation du procédé proposé.
Dans un exemple, trois utilisateurs discutant par l’intermédiaire de leur terminal respectif peuvent se fixer un rendez-vous le soir même Place de la Bastille, à Paris. Le serveur 5 reçoit les informations de géolocalisation de chacun des utilisateurs. Les terminaux extraient notamment les mots clés suivants : « rendez-vous », « ce soir », « Place de la Bastille » puis les transmettent au serveur 5. En cours de conversation, chacun des interlocuteurs reçoit sur son terminal respectif, ou sur un dispositif connecté au terminal, des informations pertinentes correspondant au sujet évoqué, par exemple :
- une estimation du temps qu’il faudra pour rejoindre la place de la Bastille ce soir depuis l’endroit où chacun se trouve actuellement, par exemple par une requête sur un site internet de transports en communs locaux tel que celui de la RATP ;
- la météo prévue ce soir à la Place de la Bastille, par exemple par une requête sur un site de prévisions météorologiques tel que celui de Météo France.
Ainsi, les interlocuteurs peuvent faire évoluer les détails du rendez-vous en fonction des informations contextuelles reçues. Les échanges entre interlocuteurs sont ainsi plus efficaces.
En fonction du mode de réalisation choisi, certains actes, actions, évènements ou fonctions de chacune des méthodes et procédés décrits dans le présent document peuvent être effectués ou se produire selon un ordre différent de celui dans lequel ils ont été décrits, ou peuvent être ajoutés, fusionnés ou bien ne pas être effectués ou ne pas se produire, selon le cas. En outre, dans certains modes de réalisation, certains actes, actions ou évènements sont effectués ou se produisent concurremment et non pas successivement.
Bien que décrits à travers un certain nombre d’exemples de réalisation détaillés, le procédé de fourniture de contenu contextuel proposé et l’équipement pour la mise en œuvre du procédé comprennent différentes variantes, modifications et perfectionnements qui apparaîtront de façon évidente à l’homme de l’art, étant entendu que ces différentes variantes, modifications et perfectionnements font partie de la portée de l’invention, telle que définie par les revendications qui suivent. De plus, différents aspects et caractéristiques décrits ci-dessus peuvent être mis en œuvre ensemble, ou séparément, ou bien substitués les uns aux autres, et l’ensemble des différentes combinaisons et sous combinaisons des aspects et caractéristiques font partie de la portée de l’invention. En outre, il se peut que certains systèmes et équipements décrits ci-dessus n’incorporent pas la totalité des modules et fonctions décrits pour les modes de réalisation préférés.
L’invention ne se limite pas aux exemples de systèmes, terminaux et procédés décrits ci-avant, seulement à titre d’exemple, mais elle englobe toutes les variantes que pourra envisager l’homme de l’art dans le cadre des revendications ci-après.

Claims (14)

  1. Revendications
    1. Procédé de fourniture de contenu contextuel à un premier terminal (1) de communication en communication avec un second terminal (3) de communication, la communication comprenant un contenu vocal (20), le procédé comprenant :
    a) identifier (200) une pluralité de mots-clés (21) dans le contenu vocal (20),
    b) obtenir (201) des données de contenu contextuel (25, 26) relatif à une combinaison de mots-clés (21), et
    c) transmettre (202) au premier terminal (1) les données de contenu contextuel (25, 26), en vue d’un rendu du contenu contextuel (25, 26) à un utilisateur du premier terminal (1).
  2. 2. Procédé selon la revendication 1, dans lequel l’identification (211) des mots-clés (21) est mise en œuvre par un processeur (301) du premier terminal (1) et/ou un processeur du second terminal (3).
  3. 3. Procédé selon l’une des revendications précédentes, dans lequel les mots-clés (21) identifiés sont transmis à un serveur (5), le serveur (5) mettant en œuvre une recherche de données de contenu contextuel (25, 26), puis transmettant au premier terminal (1) les données de contenu contextuel (25, 26).
  4. 4. Procédé selon l’une des revendications précédentes, dans lequel l’identification (200) des mots-clés (21) comprend :
    al) identifier (211) des mots dans le contenu vocal (20), et a2) relever (212) des mots-clés (21) parmi les mots identifiés par comparaison avec une liste (Lx) de mots-clés prédéterminée.
  5. 5. Procédé selon l’une des revendications précédentes, comprenant en outre
    d) transmettre au second terminal (3) les données de contenu contextuel (25, 26) en vue d’un rendu du contenu contextuel (25, 26) à un utilisateur du second terminal (3).
  6. 6. Procédé selon l’une des revendications précédentes, dans lequel les étapes a) à c) sont mises en œuvre répétitivement et de manière sensiblement continue au cours de la communication.
  7. 7. Procédé selon l’une des revendications précédentes, dans lequel un processeur (301) du premier terminal (1) effectue une identification de mots-clés (21) parmi des données du contenu vocal (20) transmises du premier terminal (1) vers le second terminal (3), et dans lequel un processeur (301) du second terminal (3) effectue une identification de mots-clés (21) parmi des données du contenu vocal (20) transmises du second terminal (3) vers le premier terminal (1).
  8. 8. Procédé selon l’une des revendications précédentes, comprenant en outre : obtenir des données de contenu contextuel (25, 26) par une recherche dans une ou plusieurs bases de données (7).
  9. 9. Procédé selon la revendication 8, dans lequel :
    - l’obtention des données de contenu contextuel (25, 26) relatif à une combinaison de mots-clés (21) comprend : classifier des mots-clés (23) parmi la pluralité de mots-clés (21) en catégories, et
    - la recherche comprend : interroger (221) l’une ou plusieurs bases de données (7) avec des paramètres tirés d’une combinaison de mots-clés (23) classifiés en des catégories de mots-clés.
  10. 10. Procédé selon l’une des revendications 8 et 9, dans lequel l’une ou plusieurs bases de données (7) est appelée par l’intermédiaire de requêtes sur le réseau internet, l’adressage des requêtes étant sélectionné en fonction desdits mots-clés (21, 23) identifiés.
  11. 11. Procédé selon l’une des revendications précédentes, comprenant en outre : obtenir des données de contenu contextuel (25, 26) en relation avec la combinaison de motsclés (25, 26) et en relation avec des données indépendantes du contenu vocal (20), les données indépendantes étant fournies par le premier terminal (1) et/ou le second terminal (3) et/ou des dispositifs connectés (11 ; 13) aux premier terminal (1) ou au second terminal (3).
  12. 12. Programme informatique caractérisé en ce qu’il comporte des instructions pour la 5 mise en œuvre du procédé selon l’une des revendications 1 à 11, lorsque ce programme est exécuté par un processeur.
  13. 13. Système de fourniture de contenu contextuel comprenant au moins un serveur (5) et un premier terminal (1) de communication apte à communiquer avec un second
    10 terminal (3) de communication, la communication comprenant un contenu vocal (20), le premier terminal (1) comprenant un module d’analyse agencé pour identifier des mots-clés (21) dans le contenu vocal (20), le serveur (5) étant agencé pour obtenir des données de contenu contextuel (25, 26) relatif à une combinaison de mots-clés identifiés (21, 23), et pour transmettre au premier
    15 terminal (1) les données de contenu (25, 26) obtenues.
  14. 14. Terminal (1) de communication apte à communiquer avec un autre terminal (3) de communication, la communication comprenant un contenu vocal (20), le terminal (1) comprenant un module d’analyse agencé pour identifier des mots-clés
    20 (21) dans le contenu vocal (20), le terminal (1) étant en outre agencé pour obtenir des données de contenu contextuel (25, 26) relatif à une combinaison de mots-clés identifiés (21, 23).
    1/3
    2/3
FR1661894A 2016-12-02 2016-12-02 Procede de mise a disposition de contenu contextuel en cours de conversation, et equipements pour la mise en oeuvre du procede Withdrawn FR3059861A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1661894A FR3059861A1 (fr) 2016-12-02 2016-12-02 Procede de mise a disposition de contenu contextuel en cours de conversation, et equipements pour la mise en oeuvre du procede

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1661894A FR3059861A1 (fr) 2016-12-02 2016-12-02 Procede de mise a disposition de contenu contextuel en cours de conversation, et equipements pour la mise en oeuvre du procede
FR1661894 2016-12-02

Publications (1)

Publication Number Publication Date
FR3059861A1 true FR3059861A1 (fr) 2018-06-08

Family

ID=58547583

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1661894A Withdrawn FR3059861A1 (fr) 2016-12-02 2016-12-02 Procede de mise a disposition de contenu contextuel en cours de conversation, et equipements pour la mise en oeuvre du procede

Country Status (1)

Country Link
FR (1) FR3059861A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100086110A1 (en) * 2008-09-11 2010-04-08 Alcatel-Lucent Via The Electronic Patent Assignment System (Epas) Communication method and system for determining a sequence of services linked to a conversation
US20120179551A1 (en) * 2009-09-28 2012-07-12 Telefonaktiebolaget Lm Ericsson (Publ) Personalised Items in Mobile Devices based on User Behaviour
CN105245609A (zh) * 2015-10-23 2016-01-13 小米科技有限责任公司 推送信息的方法、装置、设备及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100086110A1 (en) * 2008-09-11 2010-04-08 Alcatel-Lucent Via The Electronic Patent Assignment System (Epas) Communication method and system for determining a sequence of services linked to a conversation
US20120179551A1 (en) * 2009-09-28 2012-07-12 Telefonaktiebolaget Lm Ericsson (Publ) Personalised Items in Mobile Devices based on User Behaviour
CN105245609A (zh) * 2015-10-23 2016-01-13 小米科技有限责任公司 推送信息的方法、装置、设备及***
US20170118298A1 (en) * 2015-10-23 2017-04-27 Xiaomi Inc. Method, device, and computer-readable medium for pushing information

Similar Documents

Publication Publication Date Title
US8223932B2 (en) Appending content to a telephone communication
US8856167B2 (en) System and method for context based query augmentation
US20170277993A1 (en) Virtual assistant escalation
KR102058131B1 (ko) 패킷화된 오디오 신호의 변조
KR102115540B1 (ko) 패킷 기반 데이터 메시지 전송의 시퀀스 의존 동작 처리
US11200891B2 (en) Communications utilizing multiple virtual assistant services
US12033629B2 (en) Systems and methods for automating voice commands
US20100178903A1 (en) Systems and Methods to Provide Personal Information Assistance
US20150139508A1 (en) Method and apparatus for storing and retrieving personal contact information
US20170286133A1 (en) One Step Task Completion
CN114303132A (zh) 在虚拟个人助手中使用唤醒词进行上下文关联和个性化的方法和***
US20200258523A1 (en) Activation of remote devices in a networked system
US9343069B2 (en) Methods and systems for name pronunciation
JP2016006607A (ja) 対話型通信システム、端末装置およびプログラム
US20240070171A1 (en) Systems and methods for predicting where conversations are heading and identifying associated content
US20150334145A1 (en) Populating a Content Stream
US10862841B1 (en) Systems and methods for automating voice commands
US11973733B2 (en) Enhancing a social media post with content that is relevant to the audience of the post
US20220311766A1 (en) Sensor-based authentication, notification, and assistance systems
FR3059861A1 (fr) Procede de mise a disposition de contenu contextuel en cours de conversation, et equipements pour la mise en oeuvre du procede
WO2019200044A1 (fr) Système et procédé de recherche assistée par ia basée sur des évènements et un emplacement
JP2024509816A (ja) 音声会話に基づくユーザ指向のアクション
US20210385319A1 (en) Systems and Methods for Detecting Voice Commands to Generate a Peer-to-Peer Communication Link
US11436408B2 (en) Targeted natural language responses for electronic communications
WO2021092415A1 (fr) Systèmes et procédés d'automatisation de commandes vocales

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20180608

ST Notification of lapse

Effective date: 20180831