FR3044816A1 - VIDEO EDITING METHOD USING AUTOMATIC ADAPTIVE MODELS - Google Patents

VIDEO EDITING METHOD USING AUTOMATIC ADAPTIVE MODELS Download PDF

Info

Publication number
FR3044816A1
FR3044816A1 FR1561756A FR1561756A FR3044816A1 FR 3044816 A1 FR3044816 A1 FR 3044816A1 FR 1561756 A FR1561756 A FR 1561756A FR 1561756 A FR1561756 A FR 1561756A FR 3044816 A1 FR3044816 A1 FR 3044816A1
Authority
FR
France
Prior art keywords
editing
video sequence
sequence
original video
video content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1561756A
Other languages
French (fr)
Inventor
Pascal Manchon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Actvt
Original Assignee
Actvt
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Actvt filed Critical Actvt
Priority to FR1561756A priority Critical patent/FR3044816A1/en
Priority to PCT/EP2016/079553 priority patent/WO2017093467A1/en
Publication of FR3044816A1 publication Critical patent/FR3044816A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Procédé d'édition de contenus vidéo utilisant un appareil, tel qu'un téléphone portable, ayant accès à au moins une séquence vidéo d'origine, procédé dans lequel : - on analyse la séquence vidéo d'origine pour en extraire des caractéristiques prédéfinies, - on établit une liste restreinte de modèles d'édition possibles choisis dans une base de modèles d'édition en fonction desdites caractéristiques prédéfinies de la séquence vidéo d'origine, et - on génère de façon automatisée une séquence vidéo éditée au moins en appliquant à la séquence vidéo d'origine une liste de décisions d'édition propre à un modèle d'édition sélectionné par l'utilisateur parmi la liste restreinte de modèles établie à l'étape précédente.A method for editing video content using a device, such as a mobile phone, having access to at least one original video sequence, wherein: - the original video sequence is analyzed to extract predefined characteristics, a restricted list of possible editing models selected in an edition template database is established based on said predefined characteristics of the original video sequence, and an edited video sequence is generated automatically by applying to the original video sequence a list of editing decisions specific to a user-selected editing model from the restricted list of models established in the previous step.

Description

Procédé d’édition vidéo utilisant des modèles adaptatifs automatisablesVideo editing method using automatable adaptive templates

La présente invention concerne les procédés d’édition et de gestion de contenus vidéo utilisant un appareil, tel qu’un téléphone portable, ayant accès à un contenu vidéo d’origine, et exécutant une application d’édition de contenus vidéo. L’invention concerne également une application pour la mise en œuvre de tels procédés.The present invention relates to methods for editing and managing video content using a device, such as a mobile phone, having access to original video content, and executing a video content editing application. The invention also relates to an application for the implementation of such methods.

On connaît du brevet US 6 970 639 un système d’édition de contenus vidéo utilisant un modèle d’édition présélectionné et des outils de reconnaissance de métadonnées du contenu, incluant entre autres un marqueur d’un moment intéressant dans le contenu.US Patent 6,970,639 discloses a video content editing system using a preselected editing model and content metadata recognition tools, including among others a marker of an interesting moment in the content.

La demande US 2006/0233514 décrit un système permettant d’enregistrer un marqueur associé à un moment intéressant d’un contenu vidéo, dans le but de retrouver aisément l’image correspondant à ce marqueur.The application US 2006/0233514 describes a system for recording a marker associated with an interesting moment of a video content, in order to easily find the image corresponding to this marker.

On connaît de la demande EP 1 524 667 l’édition d’un contenu vidéo selon des modèles à thème bien précis, comme un anniversaire ou un mariage, à sélectionner au préalable par l’utilisateur pour obtenir l’effet désiré.Application EP 1 524 667 discloses the editing of video content according to very specific theme models, such as an anniversary or a wedding, to be selected beforehand by the user in order to obtain the desired effect.

La demande WO 2000/039997 décrit l’édition de contenus vidéo utilisant des données media provenant de bases de données, et des modèles associés à ces données.The application WO 2000/039997 describes the editing of video contents using media data coming from databases, and models associated with these data.

La demande WO 2006/065223 décrit la production automatique d’un contenu audiovisuel à partir de plusieurs séquences disponibles ayant trait à un même sujet, par exemple pour des journalistes ayant plusieurs enregistrements d’une même scène.The application WO 2006/065223 describes the automatic production of audiovisual content from several available sequences relating to the same subject, for example for journalists having several recordings of the same scene.

Il est connu de la demande EP 1 241 673 de proposer un système générique d’édition de contenus vidéo, où l’utilisateur peut contrôler manuellement certains paramètres. Aucune prévisualisation n’est possible.It is known from application EP 1 241 673 to propose a generic video content editing system, where the user can manually control certain parameters. No preview is possible.

La demande WO 2013/150176 divulgue un système pour générer une séquence vidéo à partir de rushes fournis par l’utilisateur, en utilisant les paramètres sélectionnés et les choix de ce dernier lors d’une utilisation précédente. L’éditeur de contenu vidéo de la marque GoPro contient des modèles faits de cellules, l’utilisateur pouvant attribuer une cellule à chaque séquence pour générer un contenu vidéo final.The application WO 2013/150176 discloses a system for generating a video sequence from rushes provided by the user, using the selected parameters and the choices of the latter during a previous use. The video content editor of the GoPro brand contains templates made of cells, the user being able to assign a cell to each sequence to generate final video content.

Des applications d’édition de contenus vidéo sont connues, telles Magisto ou Replay, où l’édition est faite par l’appareil, de manière totalement automatique, en se fondant sur des critères arbitraires, ce qui ne permet aucun contrôle créatif, et peut faire perdre tout rythme à la vidéo éditée. En outre, quelle que soit la taille du contenu vidéo d’origine, celui-ci est téléchargé dans son entier sur l’appareil, ce qui peut prendre du temps, et l’édition est faite en local dans l’appareil. L’utilisation basique de modèles d’édition stricts ne convient pas automatiquement à chaque contenu vidéo et au rendu désiré. En outre, les applications d’édition connues utilisant des modèles stricts nécessitent souvent des actions spécifiques de l’utilisateur pour essayer d’adapter au mieux un modèle à un contenu vidéo d’origine.Video content editing applications are known, such Magisto or Replay, where the editing is done by the device, completely automatically, based on arbitrary criteria, which allows no creative control, and can lose all rhythm to the edited video. In addition, regardless of the size of the original video content, it is downloaded in its entirety onto the device, which can be time consuming, and editing is done locally in the device. Basic use of strict editing templates does not automatically match each video content and rendering desired. In addition, known publishing applications using strict templates often require user-specific actions to try to best fit a template to original video content.

Il existe un besoin pour permettre à un utilisateur de bénéficier d’une application d’édition de contenus vidéo facile d’utilisation, permettant de produire des séquences vidéo éditées d’une grande qualité créative, et peu gourmande en bande passante. L'invention a pour but de répondre à ce besoin et elle y parvient, selon l'un de ses aspects, grâce à un procédé d’édition de contenus vidéo utilisant un appareil, tel qu’un téléphone portable, ayant accès à un contenu vidéo d’origine, et exécutant une application d’édition de contenus vidéo, procédé dans lequel : - on permet à l’utilisateur de sélectionner dans le contenu vidéo d’origine, à l’aide de l’application exécutée sur l’appareil, au moins un moment clé, en plaçant un marqueur temporel sur ledit contenu, et - on génère de façon automatisée une séquence vidéo éditée, à partir d’un extrait du contenu vidéo d’origine dont la durée correspond à un premier laps de temps prédéfini avant le marqueur temporel et à un deuxième laps de temps prédéfini après ce marqueur.There is a need to allow a user to benefit from an easy-to-use video content editing application for producing edited video sequences of high creative quality and low bandwidth usage. The invention aims to meet this need and it achieves, in one aspect, through a method of editing video content using a device, such as a mobile phone, having access to content original video, and running a video content editing application, in which method: - the user is allowed to select from the original video content, using the application running on the device at least one key moment, placing a time marker on said content, and - automatically generating an edited video sequence, from an extract of the original video content whose duration corresponds to a first period of time predefined before the time marker and at a second predefined time after this marker.

La séquence vidéo éditée est avantageusement générée par un serveur distant auquel est relié l’appareil par le biais d’un réseau de télécommunications. L’extrait du contenu vidéo d’origine peut être transmis par l’application au serveur distant dans une définition inférieure à la définition du contenu vidéo d’origine. Cela permet une rapide boucle de retour entre l’utilisateur et l’application.The edited video sequence is advantageously generated by a remote server to which the device is connected via a telecommunications network. The extract of the original video content may be transmitted by the application to the remote server in a definition less than the definition of the original video content. This allows a quick feedback loop between the user and the application.

Le procédé d’édition de contenus vidéo selon l’invention comporte de préférence les étapes suivantes, l’appareil ayant accès à au moins une séquence vidéo d’origine : - on analyse la séquence vidéo d’origine pour en extraire des caractéristiques prédéfinies, - on établit une liste restreinte de modèles d’édition possibles choisis dans une base de modèles d’édition en fonction desdites caractéristiques prédéfinies de la séquence vidéo d’origine, et - on génère de façon automatisée une séquence vidéo éditée au moins en appliquant à la séquence vidéo d’origine une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur parmi la liste restreinte de modèles établie à l’étape précédente.The video content editing method according to the invention preferably comprises the following steps, the apparatus having access to at least one original video sequence: the original video sequence is analyzed in order to extract predefined characteristics, a restricted list of possible editing models selected in an edition template database is established based on said predefined characteristics of the original video sequence, and an edited video sequence is generated automatically by applying to the original video sequence a list of editing decisions specific to a user-selected editing model from the restricted list of models established in the previous step.

La séquence vidéo d’origine correspond avantageusement à un extrait du contenu vidéo d’origine dont la durée correspond à un premier laps de temps prédéfini avant le marqueur temporel et à un deuxième laps de temps prédéfini après ce marqueur.The original video sequence advantageously corresponds to an extract of the original video content whose duration corresponds to a first predefined period of time before the time marker and to a second predefined time after this marker.

La séquence vidéo d’origine est avantageusement analysée par ledit serveur distant auquel est relié l’appareil par le biais dudit réseau de télécommunications, la séquence vidéo éditée étant générée par le serveur.The original video sequence is advantageously analyzed by said remote server to which the device is connected through said telecommunications network, the edited video sequence being generated by the server.

La séquence vidéo éditée est avantageusement publiée sur le réseau de télécommunications auquel est relié l’appareil, notamment par le biais de l’application ou du serveur distant. L'invention a encore pour objet, selon un autre encore de ses aspects, un procédé de gestion de contenus vidéo pour leur édition, utilisant un serveur distant d’un réseau de télécommunications, et une application d’édition de contenus vidéo exécutable sur un appareil, tel qu’un téléphone portable, destiné à être relié audit serveur distant par le biais du réseau de télécommunications et ayant accès à un contenu vidéo d’origine, procédé dans lequel : - l’application transmet au moins un extrait présélectionné du contenu vidéo d’origine au serveur distant dans une définition inférieure à la définition du contenu vidéo d’origine, - le serveur applique au moins une opération d’édition à l’extrait présélectionné reçu et génère une séquence vidéo éditée intermédiaire, - le serveur transmet à l’appareil cette séquence vidéo éditée intermédiaire, - la séquence vidéo intermédiaire générée par le serveur est prévisualisée sur l’appareil à une définition de prévisualisation inférieure à la définition du contenu vidéo d’origine, puis - une séquence vidéo éditée finale est générée par le serveur sur la base de la séquence vidéo intermédiaire et mise à disposition sur le réseau de télécommunications à une définition de publication supérieure à ladite définition inférieure de l’extrait présélectionné.The edited video sequence is advantageously published on the telecommunications network to which the device is connected, in particular via the application or the remote server. According to another of its aspects, another subject of the invention is a video content management method for editing them, using a remote server of a telecommunications network, and an application for editing video content executable on a network. apparatus, such as a mobile telephone, for connection to said remote server over the telecommunications network and having access to original video content, wherein: - the application transmits at least one preselected content extract original video to the remote server in a definition less than the definition of the original video content, - the server applies at least one editing operation to the received preselected extract and generates an intermediate edited video sequence, - the server transmits to the device this intermediate edited video sequence, - the intermediate video sequence generated by the server is previewed on the device to a preview definition less than the definition of the original video content, then - a final edited video sequence is generated by the server on the basis of the intermediate video sequence and made available on the telecommunications network a publication definition greater than said lower definition of the preselected extract.

Après acceptation de Γutilisateur de la séquence vidéo éditée intermédiaire, la séquence vidéo éditée finale est mise à disposition par le biais de l’application sur le réseau de télécommunications, notamment après sa génération par le serveur distant à la définition de publication. Par « mise à disposition », il faut comprendre que la séquence vidéo éditée finale est mise à disposition pour une exploitation quelconque par l’utilisateur, notamment un téléchargement pour sauvegarde sur l’appareil, par exemple pour modification ultérieure de la séquence à l’aide d’un logiciel tiers, une sauvegarde dans un nuage de données, ou « cloud » en anglais, ou une publication pour un partage privé ou public sur un ou des réseaux sociaux, tels Facebook® ou Instagram®. L’application d’édition de contenus vidéo pour mettre en œuvre le procédé selon l’invention permet à ses utilisateurs de sélectionner les moments importants de leurs contenus vidéo et ensuite, de façon automatisée, de générer une séquence vidéo éditée dans un court format, prête à être partagée sur les réseaux sociaux.After acceptance of the user of the intermediate edited video sequence, the final edited video sequence is made available through the application on the telecommunications network, in particular after its generation by the remote server to the publication definition. By "making available", it is to be understood that the final edited video sequence is made available for any use by the user, in particular a download for saving on the device, for example for later modification of the sequence to the using a third-party software, a backup in a cloud, or a publication for private or public sharing on one or more social networks, such as Facebook® or Instagram®. The video content editing application for implementing the method according to the invention enables its users to select the important moments of their video contents and then, automatically, to generate a video sequence edited in a short format, ready to be shared on social networks.

Grâce à l'invention, l’utilisateur sélectionne le contenu qu’il désire partager et/ou conserver en plaçant seulement un marqueur temporel pour chaque moment important à mettre en avant. Il n’est pas nécessaire que l’utilisateur sélectionne le début et la fin de la scène à mettre en avant. L’invention permet de limiter grandement le temps passé par l’utilisateur à sélectionner le rush désiré. L’invention vise le partage de moments, ainsi la séquence à mettre en avant est de préférence courte, par exemple inférieure à 10 s. L’établissement d’une liste restreinte de modèles d’édition possibles choisis dans une base de modèles d’édition en fonction de caractéristiques prédéfinies de la séquence vidéo d’origine permet une flexibilité dans la génération automatique de contenus édités. Les modèles d’édition de la base de modèles ont été établis au préalable, et sont bien adaptés à de nombreuses contraintes provenant de la séquence disponible, comme la longueur de la séquence, les moments à mettre en avant, ou le rythme de la bande son choisie. L’utilisation de modèles d’édition établis au préalable permet d’apporter des compétences de réalisateurs de films expérimentés dans l’application selon l’invention, procurant ainsi une grande qualité d’édition.Thanks to the invention, the user selects the content he wants to share and / or keep by placing only a time marker for each important moment to highlight. It is not necessary for the user to select the beginning and the end of the scene to be highlighted. The invention greatly limits the time spent by the user to select the desired rush. The invention aims to share moments, so the sequence to be put forward is preferably short, for example less than 10 s. The establishment of a short list of possible editing models selected from a base of editing templates based on predefined characteristics of the original video sequence allows flexibility in the automatic generation of edited contents. The templates of the model database have been pre-established, and are well adapted to many constraints from the available sequence, such as the length of the sequence, the moments to highlight, or the rhythm of the tape. his chosen. The use of previously established editing models makes it possible to bring the skills of experienced filmmakers into the application according to the invention, thus providing a high quality of editing.

Le procédé selon l'invention mettant en œuvre la transmission d’un extrait à une définition inférieure pour édition permet en outre de limiter les coûts en termes de bande passante. Un téléchargement rapide de l’extrait à éditer est ainsi possible. La séquence vidéo éditée finale peut être téléchargée ultérieurement, par exemple par une connexion sans fil de type Wi-Fi.The method according to the invention implementing the transmission of an extract to a lower definition for editing also makes it possible to limit the costs in terms of bandwidth. A quick download of the extract to edit is possible. The final edited video sequence can be downloaded later, for example by a Wi-Fi wireless connection.

Moment cléKey moment

De préférence, on permet à l’utilisateur de sélectionner le moment clé en plaçant le marqueur temporel via une action unique, notamment une action tactile. L’appareil comportant un écran tactile, le marqueur temporel peut être placé sur le contenu vidéo d’origine en touchant une zone prédéfinie de l’écran.Preferably, the user is allowed to select the key moment by placing the time marker via a single action, including tactile action. Since the device has a touch screen, the time marker can be placed on the original video content by touching a predefined area of the screen.

Dans une variante où l’appareil comporte un micro, le placement du marqueur temporel sur le contenu vidéo d’origine est déclenché par le biais d’un son émis par l’utilisateur.In a variant where the apparatus comprises a microphone, the placement of the time marker on the original video content is triggered by means of a sound emitted by the user.

Dans une variante encore, le placement du marqueur temporel sur le contenu vidéo d’origine est déclenché par le biais d’un appui sur une touche, notamment d’un clavier ou d’une souris.In yet another variation, the placement of the time marker on the original video content is triggered by pressing a key, such as a keyboard or a mouse.

Les premier et deuxième laps de temps prédéfinis peuvent être de durée égale, la séquence vidéo éditée étant générée à partir d’un extrait du contenu vidéo d’origine dont la durée est centrée sur le marqueur temporel du moment clé sélectionné.The first and second predefined periods of time may be of equal duration, the edited video sequence being generated from an extract of the original video content whose duration is centered on the time marker of the selected key moment.

Les premier et deuxième laps de temps prédéfinis peuvent être compris chacun entre 5 s et 300 s, étant par exemple égaux à 25 s environ. Dans le cas où le contenu vidéo d’origine n’est pas assez long pour permettre d’extraire totalement la durée souhaitée, par exemple si le moment clé est choisi 2 secondes avant la fin du contenu vidéo d’origine, les premier et deuxième laps de temps sont avantageusement raccourcis par l’application pour se limiter au contenu vidéo disponible.The first and second predefined periods of time may each be between 5 s and 300 s, for example being equal to about 25 s. In the case where the original video content is not long enough to fully extract the desired duration, for example if the key moment is chosen 2 seconds before the end of the original video content, the first and second time is advantageously shortened by the application to limit the video content available.

Plusieurs moments clés peuvent être sélectionnés par l’utilisateur le cas échéant, l’opération de placement du marqueur étant alors répétée plusieurs fois, notamment entre 2 et 50 fois, par exemple 10 fois.Several key moments can be selected by the user if necessary, the marker placement operation then being repeated several times, in particular between 2 and 50 times, for example 10 times.

On peut permettre à l’utilisateur, à l’aide de l’application, de modifier l’ordre temporel des extraits du contenu vidéo d’origine correspondants aux différents moments clés sélectionnés pour générer la séquence vidéo éditée.The user can be allowed, using the application, to modify the temporal order of the original video content extracts corresponding to the different key moments selected to generate the edited video sequence.

Modèles d’éditionEditing templates

Par « modèles d’édition », il faut comprendre une liste de décisions d’édition possibles et adaptables. Par exemple : une liste d’effets possibles parmi lesquels un ou plusieurs effets peuvent être sélectionnés pour effectuer le montage de la séquence vidéo éditée ; une liste de transitions possibles entre les différents extraits sélectionnés ; la définition des temps théoriques alloués à chacune des séquences vidéo en fonction du nombre d’extraits disponibles, chacun des temps théoriques étant adapté en fonction de la durée des extraits sélectionnés et/ou des caractéristiques extraites des extraits. Un modèle d’édition peut contenir des contraintes spécifiques d’application : durée minimale disponible dans le contenu vidéo d’origine, quantité de mouvement minimal ou maximal, luminosité minimale ou maximale.By "publishing models" is meant a list of possible and adaptable editing decisions. For example: a list of possible effects among which one or more effects can be selected to edit the edited video sequence; a list of possible transitions between the selected extracts; the definition of the theoretical times allocated to each of the video sequences as a function of the number of extracts available, each of the theoretical times being adapted as a function of the duration of the selected extracts and / or characteristics extracted from the extracts. An edit template may contain application-specific constraints: minimum available time in the original video content, minimum or maximum amount of motion, minimum or maximum brightness.

Par « décision d’édition », il faut comprendre l’ensemble des paramètres décrivant l’application d’un effet, transition ou changement de plan ; par exemple les temps de début et de fin de chaque séquence, le type d’effet, le temps marquant le début de l’effet, la durée de cet effet, la vitesse, la transparence, les couleurs choisies pour cet effet, éventuellement un texte à afficher grâce à l’effet, ou de manière générale tout paramètre spécifique à l’effet considéré. L’ensemble des décisions d’édition permet de décrire de manière unique et reproductible un montage spécifique à opérer ....By "publishing decision", it is necessary to understand all the parameters describing the application of an effect, transition or change of plan; for example the start and end times of each sequence, the type of effect, the time marking the beginning of the effect, the duration of this effect, the speed, the transparency, the colors chosen for this effect, possibly a text to display through the effect, or in general any parameter specific to the effect considered. The set of editing decisions makes it possible to describe in a unique and reproducible way a specific assembly to operate.

Les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine sont de préférence des caractéristiques techniques de la vidéo, telles que notamment la résolution, le nombre de trames par seconde, le niveau de compression ou l’orientation, et/ou sont représentatives de la colorimétrie de la vidéo, notamment la luminosité, la saturation, le contraste, ou les couleurs prédominantes.The predefined characteristics to be extracted from the original video sequence are preferably technical characteristics of the video, such as in particular the resolution, the number of frames per second, the level of compression or the orientation, and / or are representative of video colorimetry, including brightness, saturation, contrast, or predominant colors.

En variante ou en combinaison, les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine sont représentatives des mouvements présents dans la séquence, notamment leur direction et leur vitesse.As a variant or in combination, the predefined characteristics to be extracted from the original video sequence are representative of the movements present in the sequence, in particular their direction and their speed.

En variante encore ou en combinaison, les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine sont représentatives d’un découpage en scènes de la séquence.As a further variant or in combination, the predefined characteristics to be extracted from the original video sequence are representative of a division into scenes of the sequence.

Les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine peuvent être représentatives du son présent dans la séquence, notamment la résolution, la fréquence d’échantillonnage et/ou le niveau de compression du son, ou l’ambiance sonore générale, ou la reconnaissance de sons particuliers, par exemple une ou plusieurs voix ou de la musique. L’extraction de nombreuses caractéristiques prédéfinies n’est pas utilisée uniquement pour filtrer la liste de modèles disponibles, mais également pour multiplier le nombre de possibilités. L’établissement de la liste restreinte de modèles d’édition possibles choisis dans la base de modèles d’édition peut se faire par filtrage de ladite base par application des contraintes spécifiques d’application définies pour chaque modèle.The predefined characteristics to be extracted from the original video sequence may be representative of the sound present in the sequence, including the resolution, the sampling frequency and / or the level of compression of the sound, or the general sound environment, or the recognition of particular sounds, for example one or more voices or music. The extraction of many predefined features is not only used to filter the list of available models, but also to multiply the number of possibilities. The shortlisting of possible editing models selected from the publishing model database can be done by filtering said database by applying the specific application constraints defined for each model.

Les modèles d’édition présents dans la base de modèles sont de préférence créés au préalable, en décrivant et généralisant des montages spécifiques réalisés manuellement en vue de renforcer une émotion spécifique.The models of edition present in the base of models are preferably created beforehand, by describing and generalizing specific montages realized manually to reinforce a specific emotion.

La base de modèles est avantageusement accessible par le serveur distant et/ou l’appareil par le biais du réseau de télécommunications.The model base is advantageously accessible by the remote server and / or the device via the telecommunications network.

La liste de décisions d’édition propre à un modèle d’édition comporte avantageusement les temps de début et de fin souhaités de la séquence vidéo, et/ou un mode de vitesse de lecture de la séquence vidéo, notamment accéléré ou ralenti, et/ou les types de transitions dans la séquence et les temps de début et de fin de chaque transition, et/ou les types d’effets à inclure sur la séquence, tels qu’un changement de colorimétrie, une incrustation d’informations, notamment de texte ou d’image(s) fixes ou animées, et les temps de début et de fin de chaque effet, et/ou des paramètres décrivant les contraintes de montage vidéo associées, telles que les nombres minimum et maximum de séquences d’origine, la durée minimale et/ou maximale de chaque séquence, et/ou la définition de règles particulières d’adaptation du modèle, telles que la modification des temps de début et de fin de chaque séquence en fonction de la vitesse du mouvement, de l’analyse de scènes, des changements de vitesse ou direction des mouvements des différents objets identifiés sur chaque séquence, et/ou de la durée des séquences.The editing decision list specific to an editing model advantageously comprises the desired start and end times of the video sequence, and / or a video playback speed mode, in particular accelerated or slowed, and / or or the types of transitions in the sequence and the start and end times of each transition, and / or the types of effects to be included in the sequence, such as a change in colorimetry, an overlay of information, including text or still or animated image (s), and the start and end times of each effect, and / or parameters describing the associated video editing constraints, such as the minimum and maximum numbers of original sequences, the minimum and / or maximum duration of each sequence, and / or the definition of particular adaptation rules of the model, such as the modification of the start and end times of each sequence as a function of the speed of the movement, the anal yse of scenes, changes of speed or direction of movements of the different objects identified on each sequence, and / or the duration of the sequences.

En variante ou en combinaison, la liste de décisions d’édition propre à un modèle d’édition comporte l’ajout d’une bande son sur la séquence vidéo éditée, associé notamment à des moments acceptables de coupure dudit morceau.As a variant or in combination, the list of editing decisions specific to an editing model includes the addition of a soundtrack on the edited video sequence, associated in particular with acceptable moments of cutoff of said piece.

La génération de la séquence vidéo éditée peut prendre en compte des paramètres supplémentaires rentrés par l’utilisateur sur l’appareil, notamment par le biais d’une application d’édition de contenus vidéo exécutable sur l’appareil, notamment le genre de musique désiré, des choix d’effets supplémentaires, des filtres de colorimétrie et/ou de stabilisation à appliquer à la séquence vidéo d’origine, ou des données à incruster dans la séquence, telles que par exemple un titre, un nom de lieu, un ensemble de coordonnées GPS, une position GPS ou des métriques provenant de capteurs, telles que par exemple une vitesse, une altitude, une accélération, une profondeur, une fréquence cardiaque, un dénivelé, ou des données météorologiques.The generation of the edited video sequence may take into account additional parameters entered by the user on the device, in particular by means of an application for editing video content executable on the device, in particular the kind of music desired. , additional effects choices, colorimetric and / or stabilization filters to be applied to the original video sequence, or data to be embedded in the sequence, such as for example a title, a place name, a set GPS coordinates, GPS position or metrics from sensors, such as, for example, speed, altitude, acceleration, depth, heart rate, elevation gain, or meteorological data.

Le procédé d’analyse pour extraire des caractéristiques prédéfinies peut être répété pour plusieurs séquences vidéo d’origine correspondant à des extraits d’un même contenu vidéo d’origine. L’ordre temporel des extraits pour générer la séquence vidéo éditée est avantageusement choisi par l’utilisateur à l’aide de l’appareil. Chaque extrait est de préférence analysé séparément. La liste de décisions d’édition propre au modèle d’édition sélectionné est ensuite appliquée avantageusement à l’ensemble des extraits compilés.The analysis method for extracting predefined characteristics may be repeated for several original video sequences corresponding to extracts of the same original video content. The temporal order of the extracts for generating the edited video sequence is advantageously chosen by the user using the apparatus. Each extract is preferably analyzed separately. The list of editing decisions specific to the selected edition model is then advantageously applied to all compiled extracts.

La liste de décisions d’édition propre à un modèle d’édition peut comporter une indication sur la façon de faire le lien entre plusieurs extraits d’un même contenu vidéo d’origine, notamment la durée relative entre deux extraits.The edition decision list specific to an editing template may include an indication of how to link several clips of the same original video content, including the relative duration between two clips.

Une séquence vidéo éditée intermédiaire peut être générée par le serveur distant dans une définition de prévisualisation inférieure à la définition du contenu vidéo d’origine duquel provient la séquence vidéo d’origine, avant la mise à disposition de la séquence vidéo éditée finale à la fin des opérations d’édition sur le réseau de télécommunications à une définition de publication supérieure à la définition de prévisualisation.An intermediate edited video sequence may be generated by the remote server in a preview definition less than the definition of the original video content from which the original video sequence originates, before the final edited video sequence is made available at the end. editing operations on the telecommunications network to a publication definition greater than the preview definition.

Serveur distant et définitionsRemote Server and Definitions

Par « serveur distant », il faut comprendre un système informatique, par exemple hébergé chez le prestataire du service d’édition de contenus vidéo selon l’invention, ou délocalisé chez un fournisseur de centres de données, ou « datacenters » en anglais. Le serveur distant comporte avantageusement le code informatique nécessaire au bon fonctionnement de l’application d’édition de contenus vidéo selon l’inventionBy "remote server", it is necessary to understand a computer system, for example hosted at the service provider of the video content editing service according to the invention, or relocated to a data center provider, or "datacenters" in English. The remote server advantageously comprises the computer code necessary for the proper operation of the video content editing application according to the invention

Plusieurs extraits du contenu vidéo d’origine étant sélectionnés et transmis à la définition inférieure au serveur distant pour leur appliquer au moins une opération d’édition, l’application transmet de préférence au serveur distant les séquences vidéo éditées à la définition de publication pour la génération de la séquence vidéo éditée finale. L’extrait à la définition inférieure peut être généré par l’application en compressant l’extrait d’origine pour atteindre ladite définition inférieure.Since several snippets of the original video content are selected and transmitted at the lower definition to the remote server to apply to them at least one editing operation, the application preferably transmits to the remote server the video sequences edited at the publication definition for the generation of the final edited video sequence. The lower definition snippet can be generated by the application by compressing the original snippet to reach said lower definition.

La définition de prévisualisation peut être de 5 à 20 fois inférieure à la définition d’origine, mieux de 10 à 15 fois inférieure.The preview definition can be 5 to 20 times smaller than the original definition, better 10 to 15 times smaller.

La définition de publication de la séquence vidéo éditée finale peut être de 5 à 20 fois supérieure à la définition de prévisualisation, mieux de 10 à 15 fois supérieure.The publication definition of the final edited video sequence can be 5 to 20 times greater than the preview definition, better 10 to 15 times higher.

La définition de prévisualisation peut être comprise entre 240p et 480p (nombre de lignes), la définition d’origine étant notamment comprise entre la définition 720p et la définition 4K, correspondant à une résolution de 4096 χ 2160 pixels. La définition de prévisualisation est de préférence fonction de la taille totale de l’extrait à transmettre, qui est notamment inférieure à 8Mo, mieux inférieure à 4Mo. La définition choisie pour l’extrait à transmettre peut dépendre du débit du réseau de télécommunication utilisé. La définition de prévisualisation est en outre, de préférence, fonction de la définition du contenu vidéo d’origine ainsi que du débit disponible entre l’appareil et le serveur.The preview definition can be between 240p and 480p (number of lines), the original definition being notably between the definition 720p and the definition 4K, corresponding to a resolution of 4096 χ 2160 pixels. The preview definition is preferably a function of the total size of the extract to be transmitted, which is in particular less than 8Mo, better less than 4Mo. The definition chosen for the extract to be transmitted may depend on the bit rate of the telecommunication network used. In addition, the preview definition is preferably a function of the definition of the original video content as well as the available bit rate between the device and the server.

La séquence vidéo éditée peut être prévisualisée plusieurs fois à la définition de prévisualisation, avant la publication de la séquence vidéo éditée finale.The edited video clip can be previewed several times at the preview setting before the final edited video clip is released.

La durée de l’extrait transmis à la définition inférieure correspond à un premier laps de temps prédéfini avant un marqueur temporel placé sur le contenu vidéo d’origine par le biais de l’application et désignant un moment clé sélectionné au préalable par l’utilisateur, et à un deuxième laps de temps prédéfini après ce marqueur.The duration of the extract transmitted to the lower definition corresponds to a first predefined period of time before a time marker placed on the original video content through the application and designating a key moment selected beforehand by the user. , and at a second predefined time after this marker.

Appareil L’appareil est de préférence un smartphone. Dans des variantes, l’appareil est un assistant numérique personnel, une tablette ou un ordinateur, fixe ou portable. L’écran de l’appareil est avantageusement tactile. L’appareil peut comporter une caméra, le contenu vidéo d’origine ayant été enregistré par la caméra de l’appareil. Dans une variante, le contenu vidéo d’origine provient d’une autre caméra et a été téléchargé par l’appareil. Dans une autre variante, le contenu vidéo d’origine est disponible à partir du nuage et est téléchargé à la demande à partir de ce dernier. Dans une variante encore, le contenu vidéo d’origine provient d’une autre caméra accessible au travers d’un réseau sans fil, par exemple Wifi®, et est téléchargé à la demande. L’appareil est programmé pour permettre la mise en œuvre des procédés selon l’invention par le biais de l’application.Device The device is preferably a smartphone. In variants, the device is a personal digital assistant, a tablet or a computer, fixed or portable. The screen of the device is advantageously tactile. The camera may include a camera, the original video content having been recorded by the camera of the camera. Alternatively, the original video content is from another camera and has been downloaded by the device. In another variant, the original video content is available from the cloud and is downloaded on demand from the cloud. In another variant, the original video content comes from another camera accessible through a wireless network, for example Wifi®, and is downloaded on demand. The apparatus is programmed to allow the implementation of the methods according to the invention through the application.

Application L'invention a encore pour objet, selon un autre de ses aspects, une application d’édition de contenus vidéo comportant des instructions de code exécutables sur un appareil, tel qu’un téléphone portable, comportant un processeur et une mémoire, ces instructions lorsqu’exécutées permettant la mise en œuvre du procédé d’édition de contenu vidéo selon l’invention, l’appareil ayant accès à un contenu vidéo d’origine, l’application étant configurée pour : - placer au moins un marqueur temporel sur ledit contenu vidéo d’origine correspondant à la sélection par l’utilisateur d’un moment clé, et - permettre la génération de façon automatisée, via un serveur distant éventuel, d’une séquence vidéo éditée, à partir d’un extrait du contenu vidéo d’origine dont la durée correspond à un premier laps de temps prédéfini avant le marqueur temporel et à un deuxième laps de temps prédéfini après ce marqueur. L’appareil ayant accès à au moins une séquence vidéo d’origine, l’application d’édition de contenus vidéo est de préférence configurée pour permettre, par le biais d’un serveur distant éventuel : - une analyse de la séquence vidéo d’origine pour en extraire des caractéristiques prédéfinies. - l’établissement d’une liste restreinte de modèles d’édition possibles choisis dans une base de modèles en fonction desdites caractéristiques prédéfinies de la séquence vidéo d’origine, et - la génération de façon automatisée d’une séquence vidéo éditée au moins en appliquant à la séquence vidéo d’origine une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur, parmi la liste restreinte de modèles établie à l’étape précédente. L’appareil étant destiné à être relié et à échanger des données avec un serveur distant par le biais d’un réseau de télécommunications, et ayant accès à un contenu vidéo d’origine, l’application est de préférence configurée pour télécharger et/ou transmettre au serveur distant au moins un extrait présélectionné du contenu vidéo d’origine dans une définition inférieure à la définition du contenu vidéo d’origine, afin de permettre la prévisualisation à une définition de prévisualisation inférieure à celle du contenu vidéo d’origine d’au moins une séquence vidéo éditée par au moins une opération d’édition appliquée par le serveur distant à l’extrait du contenu vidéo d’origine transmis par l’application à ladite définition inférieure, avant la mise à disposition de la séquence vidéo éditée finale sur le réseau de télécommunications à une définition de publication supérieure à la définition de prévisualisation.Application Another object of the invention is, according to another of its aspects, a video content editing application comprising code instructions executable on a device, such as a mobile phone, comprising a processor and a memory, these instructions when executed to implement the video content editing method according to the invention, the apparatus having access to an original video content, the application being configured to: - place at least one time marker on said original video content corresponding to the selection by the user of a key moment, and - to enable the automated generation, via a possible remote server, of an edited video sequence, from an extract of the video content original whose duration corresponds to a first predefined time period before the time marker and to a second predefined period of time after this marker. Since the apparatus has access to at least one original video sequence, the video content editing application is preferably configured to allow, via a possible remote server: - an analysis of the video sequence of origin to extract predefined characteristics. - the establishment of a short list of possible editing models chosen from a model database according to said predefined characteristics of the original video sequence, and - the automated generation of a video sequence edited at least in applying to the original video sequence a list of edit decisions specific to a user-selected editing template from the restricted list of templates established in the previous step. Since the apparatus is intended to be connected and to exchange data with a remote server over a telecommunications network, and having access to original video content, the application is preferably configured to download and / or transmitting to the remote server at least one preselected snippet of the original video content in a definition less than the definition of the original video content, in order to allow preview to a preview definition lower than that of the original video content of at least one video sequence edited by at least one editing operation applied by the remote server to the extract of the original video content transmitted by the application to said lower definition, before the final edited video sequence is made available on the telecommunications network to a publication definition greater than the definition of preview ion.

Les caractéristiques définies ci-dessus pour les procédés d’édition et de gestion de contenus vidéo s’appliquent à l’application. L’application peut être configurée pour être téléchargée au préalable dans un marché d’applications disponible à partir de l’appareil, par exemple un marché d’applications Android®, Apple® ou Windows®. L’application peut encore être fournie chargée sur un support lisible par ordinateur, par exemple une clé USB, une carte SD, un CD-ROM, ou être préinstallée sur l’appareil par le fabriquant.The features defined above for editing and managing video content methods apply to the application. The application can be configured to be downloaded beforehand into an application market available from the device, for example an Android®, Apple® or Windows® application market. The application can also be supplied loaded on a computer readable medium, for example a USB key, an SD card, a CD-ROM, or be pre-installed on the device by the manufacturer.

Procédé d’échanges de données L'invention a encore pour objet, selon un autre de ses aspects, un procédé d’échanges de données entre un serveur distant d’un réseau de télécommunications et une application d’édition de contenus vidéo exécutable sur un appareil, tel qu’un téléphone portable, destiné à être relié audit serveur distant par le biais du réseau de télécommunications et ayant accès à un contenu vidéo d’origine, pour la mise en œuvre du procédé de gestion de contenus vidéo selon l’une quelconque des revendications précédentes, procédé dans lequel : - l’application génère un extrait présélectionné du contenu vidéo d’origine dans une définition inférieure à la définition du contenu vidéo d’origine, notamment en compressant l’extrait d’origine pour atteindre ladite définition inférieure, - l’application transmet l’extrait présélectionné à la définition inférieure au serveur distant par le biais du réseau de télécommunications, - le serveur distant génère à partir de l’extrait reçu une séquence vidéo éditée intermédiaire en appliquant au moins une opération d’édition, - l’application télécharge à partir du serveur la séquence vidéo éditée intermédiaire à une définition de prévisualisation pour prévisualisation par l’utilisateur, - après acceptation de l’utilisateur de la séquence vidéo éditée intermédiaire, le serveur distant génère la séquence vidéo éditée finale à une définition de publication supérieure à la définition de prévisualisation, et - le serveur met à disposition la séquence vidéo finale à la définition de publication, notamment pour la télécharger, la publier ou la sauvegarder sur le réseau de télécommunications.Data exchange method Another object of the invention is, according to another of its aspects, a method of exchanging data between a remote server of a telecommunications network and an application for editing video contents executable on a network. apparatus, such as a mobile telephone, for connection to said remote server over the telecommunications network and having access to original video content, for implementing the video content management method according to one of the any one of the preceding claims, wherein: - the application generates a preselected extract of the original video content in a definition less than the definition of the original video content, in particular by compressing the original extract to reach said definition lower, - the application transmits the preselected extract to the lower definition to the remote server through the re telecommunication bucket, - the remote server generates from the extracted extract an intermediate edited video sequence by applying at least one editing operation, - the application downloads from the server the edited intermediate video sequence to a preview definition for user preview, - after accepting the user of the edited intermediate video sequence, the remote server generates the final edited video sequence at a publication definition greater than the preview definition, and - the server makes available the final video sequence to the publication definition, in particular to download, publish or save it on the telecommunications network.

Plusieurs extraits du contenu vidéo d’origine étant sélectionnés et transmis à une définition inférieure à celle du contenu vidéo d’origine par l’application au serveur distant pour leur appliquer au moins une opération d’édition, l’application transmet avantageusement au serveur distant les séquences vidéo éditées à la définition de publication pour la génération de la séquence vidéo éditée finale.Since several extracts of the original video content are selected and transmitted at a definition lower than that of the original video content by the application to the remote server to apply to them at least one editing operation, the application transmits advantageously to the remote server the video sequences edited in the publication definition for the generation of the final edited video sequence.

Les caractéristiques définies ci-dessus pour les procédés d’édition et de gestion de contenus vidéo et pour l’application s’appliquent au procédé d’échanges de données. L'invention pourra être mieux comprise à la lecture de la description qui va suivre, d'exemples non limitatifs de mise en œuvre de celle-ci, et à l'examen du dessin annexé, sur lequel : - la figure 1 illustre de façon schématique différentes étapes dans la mise en œuvre du procédé d’édition de contenus vidéo selon l'invention, - la figure 2 illustre de façon schématique différents éléments permettant la mise en œuvre du procédé d’édition de contenus vidéo selon l'invention, - la figure 3 représente une capture d’écran de l’appareil illustrant un exemple de fonctionnement de l’application d’édition de contenus vidéo selon l’invention, - la figure 4 représente la création d’un extrait du contenu vidéo d’origine selon l'invention, - la figure 5 illustre de façon schématique différentes étapes dans la mise en œuvre du procédé d’édition de contenus vidéo selon l'invention, - la figure 6 représente une capture d’écran de l’appareil illustrant un autre exemple de fonctionnement de l’application d’édition de contenus vidéo selon l’invention, et - la figure 7 illustre de façon schématique différentes étapes dans la mise en œuvre du procédé d’échanges de données selon l'invention.The characteristics defined above for the methods of editing and managing video contents and for the application apply to the data exchange method. The invention will be better understood on reading the following description, non-limiting examples of implementation thereof, and on examining the appended drawing, in which: FIG. schematic various steps in the implementation of the video content editing method according to the invention, - Figure 2 schematically illustrates various elements for the implementation of the video content editing method according to the invention, - FIG. 3 represents a screenshot of the apparatus illustrating an example of operation of the video content editing application according to the invention; FIG. 4 represents the creation of an extract of the original video content; according to the invention, - Figure 5 schematically illustrates different steps in the implementation of the video content editing method according to the invention, - Figure 6 shows a screenshot of the app. are illustrating another example of operation of the video content editing application according to the invention, and - Figure 7 schematically illustrates different steps in the implementation of the data exchange method according to the invention.

On a représenté à la figure 1 différentes étapes d’un exemple de procédé d’édition de contenus vidéo selon l'invention, et à la figure 2, différents éléments permettant la mise en œuvre du procédé.FIG. 1 shows different steps of an exemplary video content editing method according to the invention, and in FIG. 2 various elements enabling the implementation of the method.

Dans l’exemple décrit, le procédé selon l’invention met en œuvre un appareil 2, qui est un téléphone portable dit « smartphone » en anglais dans cet exemple, ayant accès à un contenu vidéo d’origine Y0, et exécutant une application 4 d’édition de contenus vidéo, et un serveur distant 3 auquel est relié l’appareil 2 par le biais d’un réseau de télécommunications.In the example described, the method according to the invention implements a device 2, which is a mobile phone called "smartphone" in English in this example, having access to video content of origin Y0, and executing an application 4 video content editing, and a remote server 3 to which the device 2 is connected via a telecommunications network.

Dans une étape 11, l’utilisateur choisit un contenu vidéo d’origine V0 qu’il souhaite éditer et l’ouvre sur l’application 4 d’édition de contenus vidéo selon l’invention. Lors d’une étape 12, l’utilisateur sélectionne dans le contenu vidéo d’origine V0 un moment clé, en plaçant un marqueur temporel Mt sur ledit contenu V0 par le biais de l’application 4 exécutée sur l’appareil 2, via une action unique.In a step 11, the user chooses an original video content V0 that he wishes to edit and opens it on the video content editing application 4 according to the invention. During a step 12, the user selects in the original video content V0 a key moment, placing a time marker Mt on said content V0 through the application 4 executed on the device 2, via a single action.

Dans une étape 13, l’utilisateur peut décider de sélectionner au moins un autre moment clé, l’étape 12 de placement du marqueur temporel Mt est alors répétée.In a step 13, the user can decide to select at least one other key moment, the step 12 of placing the time marker Mt is then repeated.

Lors d’une étape 14, l’application 4 génère de façon automatisée un extrait Ve du contenu vidéo d’origine V0 dont la durée correspond à un premier laps de temps prédéfini ti avant le marqueur temporel Mt et à un deuxième laps de temps prédéfini t2 après ce marqueur Mt.In a step 14, the application 4 automatically generates an extract Ve of the original video content V0, the duration of which corresponds to a first predefined time interval ti before the time marker Mt and at a second predefined period of time t2 after this marker Mt.

De préférence et comme dans l’exemple décrit, à l’étape 15, l’application 4 transmet l’extrait Ve au serveur distant 3 dans une définition inférieure à la définition du contenu vidéo d’origine Y0. Le serveur 3 applique avantageusement au moins une opération d’édition à l’extrait Ve reçu, au moins en lui appliquant une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur parmi une liste restreinte de modèles établie en fonction de caractéristiques prédéfinies extraites de l’extrait Ve, et génère une séquence vidéo éditée intermédiaire Vi.Preferably and as in the example described, in step 15, the application 4 transmits the extract Ve to the remote server 3 in a definition less than the definition of the original video content Y0. The server 3 advantageously applies at least one editing operation to the received extract Ve, at least by applying to it a list of editing decisions specific to a user-selected edition model from a restricted list of models established. according to predefined characteristics extracted from the extract Ve, and generates an intermediate edited video sequence Vi.

Lors d’une étape 16, le serveur 3 transmet à l’appareil 2 cette séquence vidéo éditée intermédiaire Vi, où elle est prévisualisée à une définition de prévisualisation Dp inférieure à la définition D0 du contenu vidéo d’origine V0. L’utilisateur peut accepter le rendu de cette séquence vidéo éditée intermédiaire Vi, ou, dans une étape 17, il peut choisir une autre opération d’édition, en sélectionnant notamment un autre modèle d’édition.During a step 16, the server 3 transmits to the apparatus 2 this edited intermediate video sequence Vi, where it is previewed at a preview definition Dp less than the definition D0 of the original video content V0. The user can accept the rendering of this intermediate edited video sequence Vi, or, in a step 17, he can choose another editing operation, by selecting in particular another editing model.

Lors d’une étape 18, après acceptation de l’utilisateur de la séquence vidéo éditée intermédiaire Vi, une séquence vidéo éditée finale Vf est générée par le serveur 3 sur la base de la séquence Vi, à une définition de publication Dpu supérieure à ladite définition de prévisualisation Dp.In a step 18, after acceptance of the user of the intermediate edited video sequence Vi, a final edited video sequence Vf is generated by the server 3 on the basis of the sequence Vi, to a publication definition Dpu greater than said Dp preview definition.

Dans une étape 19, la séquence vidéo éditée finale Vf est mise à disposition sur le réseau de télécommunications à la définition de publication, par exemple pour être sauvegardée sur l’appareil 2, par exemple pour modification ultérieure de la séquence Vf à l’aide d’un logiciel tiers, ou pour être sauvegardée dans le nuage (« cloud » en anglais), ou pour être publiée pour un partage privé ou public sur un ou des réseaux sociaux.In a step 19, the final edited video sequence Vf is made available on the telecommunications network to the publication definition, for example to be saved on the device 2, for example for later modification of the Vf sequence using third-party software, or to be stored in the cloud, or to be published for private or public sharing on one or more social networks.

Dans l’exemple décrit, comme illustré à la figure 3, le marqueur temporel Mt est placé sur le contenu vidéo d’origine Vo en touchant une zone prédéfinie de l’écran tactile 2a de l’appareil 2, désignée par la flèche. Dans une variante non illustrée, le marqueur temporel Mt est placé sur le contenu vidéo d’origine Vo par le biais d’un son émis par l’utilisateur dans le cas où l’appareil 2 comporte un micro 2b. Dans une variante encore, non illustrée, où l’appareil 2 est un ordinateur, le placement du marqueur temporel Mt sur le contenu vidéo d’origine V0 est déclenché par le biais d’un appui sur une touche, par exemple du clavier ou de la souris de l’appareil 2.In the example described, as shown in Figure 3, the time marker Mt is placed on the original video content Vo by touching a predefined area of the touch screen 2a of the apparatus 2, designated by the arrow. In a variant not shown, the time marker Mt is placed on the original video content Vo by means of a sound emitted by the user in the case where the apparatus 2 comprises a microphone 2b. In another variant, not illustrated, where the apparatus 2 is a computer, the placement of the time marker Mt on the original video content V0 is triggered by pressing a key, for example the keyboard or the mouse of the device 2.

Dans l’exemple représenté à la figure 4, les premier et deuxième laps de temps prédéfinis ti et t2 sont de durée égale, la durée de l’extrait Ve est centrée sur le marqueur temporel Mt du moment clé sélectionné.In the example shown in FIG. 4, the first and second predefined time periods t 1 and t 2 are of equal duration, the duration of the extract Ve is centered on the time marker Mt of the selected key moment.

Comme décrit précédemment, dans le cas où plusieurs moments clés sont sélectionnés, l’utilisateur, à l’aide de l’application, peut modifier l’ordre temporel des extraits correspondants aux différents moments clés sélectionnés pour générer la séquence vidéo éditée finale Vf.As described above, in the case where several key moments are selected, the user, using the application, can modify the temporal order of the extracts corresponding to the different key moments selected to generate the final edited video sequence Vf.

La figure 5 décrit en détails l’étape 15 de la figure 1.Figure 5 describes in detail step 15 of Figure 1.

Dans l’exemple décrit, lors d’une étape 21, l’extrait Ve est analysé, par le serveur distant 3, pour en extraire des caractéristiques prédéfinies. Comme décrit précédemment, ces caractéristiques prédéfinies sont des caractéristiques techniques de la vidéo, et/ou sont représentatives des mouvements présents dans l’extrait, et/ou d’un découpage en scènes de l’extrait, et/ou du son présent.In the example described, during a step 21, the extract Ve is analyzed by the remote server 3 to extract predefined characteristics. As previously described, these predefined characteristics are technical characteristics of the video, and / or are representative of the movements present in the extract, and / or of cutting into scenes of the extract, and / or of the sound present.

Lors d’une étape 22, est établie une liste restreinte de modèles d’édition possibles choisis dans une base de modèles d’édition en fonction desdites caractéristiques prédéfinies de l’extrait Ve. A l’étape 23, comme visible à la figure 6, un modèle d’édition est sélectionné par l’utilisateur parmi la liste restreinte de modèles établie à l’étape précédente, selon l’effet désiré, par exemple un rythme rapide ou lent de séquence vidéo, la présence de ralentis ou d’accélérés. L’utilisateur peut visualiser plusieurs résultats provenant de la liste restreinte de modèles, à partir de quoi il peut choisir le résultat lui convenant le mieux, ou modifier les paramètres d’entrée fournis.In a step 22, a restricted list of possible editing templates selected from an edit template database is established based on said predefined characteristics of the extract Ve. In step 23, as shown in FIG. 6, an editing model is selected by the user from the restricted list of models established in the preceding step, according to the desired effect, for example a fast or slow rhythm. video sequence, the presence of slow motion or accelerated. The user can view multiple results from the restricted list of models, from which he can choose the result that suits him best, or modify the input parameters provided.

Lors d’une étape 24, le serveur 3 génère de façon automatisée une séquence vidéo éditée au moins en appliquant à la séquence vidéo d’origine une liste de décisions d’édition propre au modèle d’édition sélectionné par l’utilisateur, telles que décrites précédemment. Dans le cas d’un contenu vidéo lent, par exemple une séance de plongée, les modèles appliquant des ralentis sont de préférence écartés ainsi que ceux prévoyant l’apparition de visages. Au contraire, dans le cas d’un contenu vidéo rapide, par exemple du saut à ski, les modèles appliquant des accélérés sont avantageusement écartés. L’utilisateur a toutefois la possibilité de visualiser le résultat d’autres modèles proposant ce type d’effet dans le cadre de modèles visant à proposer des montages d’édition dits plus « engagés » ou « absurdes ». La génération de la séquence vidéo éditée peut prendre en compte des paramètres supplémentaires rentrés par l’utilisateur sur l’application 4.In a step 24, the server 3 automatically generates an edited video sequence at least by applying to the original video sequence a list of editing decisions specific to the user-selected editing model, such as previously described. In the case of slow video content, for example a dive session, the models applying slow motion are preferably discarded as well as those providing the appearance of faces. On the contrary, in the case of a fast video content, for example ski jumping, the models applying accelerated are advantageously discarded. However, the user can visualize the results of other models offering this type of effect in the context of models aimed at proposing editing editions said to be more "engaged" or "absurd". The generation of the edited video sequence may take into account additional parameters entered by the user on the application 4.

La figure 7 illustre différentes étapes d’échanges de données entre l’appareil 2 et le serveur distant 3, par le biais de l’application 4.FIG. 7 illustrates various steps of data exchange between the apparatus 2 and the remote server 3, through the application 4.

Lors d’une étape 31, l’utilisateur choisit un moment clé dans un contenu vidéo d’origine V0, tel que décrit précédemment. A l’étape 32, l’application 4 génère un extrait Ve à partir de ce moment clé, et transmet, à l’étape 33, cet extrait au serveur distant 3 dans une définition Dp inférieure à la définition D0 du contenu vidéo d’origine V0, en compressant, dans l’exemple décrit, l’extrait d’origine pour atteindre cette définition inférieure.During a step 31, the user chooses a key moment in an original video content V0, as described above. In step 32, the application 4 generates an extract Ve from this key moment, and transmits, in step 33, this extract to the remote server 3 in a definition Dp less than the definition D0 of the video content of origin V0, compressing, in the example described, the original extract to reach this lower definition.

Les étapes 31b et 33b sont identiques aux étapes 31 et 33 pour au moins un autre extrait également sélectionné par l’utilisateur. Des opérations d’édition peuvent être appliquées à cet extrait, qui peut être inclus dans la séquence vidéo éditée finale.Steps 31b and 33b are identical to steps 31 and 33 for at least one other extract also selected by the user. Editing operations can be applied to this snippet, which can be included in the final edited video clip.

Lors d’une étape 34, le serveur 3 applique au moins une opération d’édition à l’extrait Ve présélectionné reçu et génère une séquence vidéo éditée intermédiaire Vi. L’application 4, à une étape 35, télécharge à partir du serveur 3 la séquence vidéo éditée intermédiaire Vi à une définition de prévisualisation Dp inférieure à la définition du contenu vidéo d’origine.In a step 34, the server 3 applies at least one editing operation to the received preselected Ve extract and generates an intermediate edited video sequence Vi. The application 4, in a step 35, downloads from the server 3 the intermediate edited video sequence Vi to a preview definition Dp less than the definition of the original video content.

Lors d’une étape 36, la séquence vidéo intermédiaire V; générée par le serveur 3 est prévisualisée sur l’appareil 2 à la définition de prévisualisation Dp.In a step 36, the intermediate video sequence V; generated by server 3 is previewed on device 2 at the Dp preview definition.

Lors d’une étape 37 éventuelle, l’utilisateur modifie les paramètres de génération de la séquence vidéo éditée, notamment en changeant de modèle d’édition. Ces paramètres sont transmis, dans une étape 38, au serveur 3 par l’application 4.During a possible step 37, the user modifies the generation parameters of the edited video sequence, in particular by changing the editing model. These parameters are transmitted, in a step 38, to the server 3 by the application 4.

Dans une étape 39, le serveur 3 génère une seconde séquence intermédiaire, et la transmet, lors de l’étape 40, à l’appareil 2, qui l’affiche à l’étape 41 par le biais de l’application 4.In a step 39, the server 3 generates a second intermediate sequence, and transmits it, during the step 40, to the apparatus 2, which displays it in the step 41 through the application 4.

Après acceptation de l’utilisateur de la séquence vidéo éditée intermédiaire Vi à l’étape 42, l’application 4 transmet cet accord au serveur 3 lors d’une étape 43.After accepting the user of the intermediate edited video sequence Vi in step 42, the application 4 transmits this agreement to the server 3 during a step 43.

Dans le cas où plusieurs extraits ont été sélectionnés, le serveur 3 génère une liste d’extraits nécessaires à l’élaboration de la séquence vidéo éditée final Vf, et la transmet à l’application 4, selon des étapes 44 et 45. Pour chaque extrait de cette liste, les laps de temps tr et tr à extraire autour du moment Mt sont de préférence inférieurs aux laps de temps ti et \i utilisés pour générer Ve. Cela permet au serveur de proposer différents résultats d’édition, en disposant d'une grande plage de séquence autour du moment sélectionné Mt. Une fois que la séquence finale est choisie, le serveur 3 indique de préférence à l’application 4 quelle partie exacte de la séquence est nécessaire, et l'application ne transmet à la définition de publication uniquement les extraits strictement nécessaires à la séquence vidéo finale.In the case where several extracts have been selected, the server 3 generates a list of extracts necessary for the preparation of the final edited video sequence Vf, and transmits it to the application 4, according to steps 44 and 45. For each From this list, the time intervals tr and tr to be extracted around the moment Mt are preferably smaller than the times t i and i used to generate Ve. This allows the server to offer different editing results, having a large range of sequence around the selected time of Mt. Once the final sequence is chosen, the server 3 preferably indicates to the application 4 which exact part sequence is required, and the application only passes to the publication definition the extracts strictly necessary for the final video sequence.

Lors d’une étape 46, l’application génère alors tous les extraits VepU à la définition de publication Dpu en respectant les laps de temps tr et tr demandés par le serveur 3. L’application 4 transmet tous les extraits Vepu au serveur 3, selon une étape 47.During a step 46, the application then generates all the VepU extracts to the publication definition Dpu while respecting the time frames tr and tr requested by the server 3. The application 4 transmits all the Vepu extracts to the server 3, according to a step 47.

Le serveur 3 génère, sur la base de la séquence vidéo intermédiaire Vi, la séquence vidéo éditée finale Vf à une définition de publication Dpu supérieure à la définition de prévisualisation Dp, lors d’une étape 48. Dans le cas où plusieurs extraits ont été sélectionnés par l’utilisateur et édités, la séquence vidéo éditée finale Vf comprend l’ensemble de ces extraits Vepu.The server 3 generates, on the basis of the intermediate video sequence Vi, the final edited video sequence Vf at a publication definition Dpu greater than the preview definition Dp, during a step 48. In the case where several extracts have been selected by the user and edited, the final edited video sequence Vf includes all of these Vepu snippets.

Lors d’une étape 49, le serveur 3 transmet à l’application 4 la séquence vidéo éditée finale Vf à la définition de publication Dpu, pour mise à disposition sur le réseau de télécommunications.During a step 49, the server 3 transmits to the application 4 the final edited video sequence Vf to the publication definition Dpu, for provision on the telecommunications network.

Bien entendu, l'invention n'est pas limitée aux exemples de réalisation qui viennent d'être décrits, dont les caractéristiques peuvent se combiner au sein de variantes non illustrées.Of course, the invention is not limited to the embodiments which have just been described, the characteristics of which can be combined within non-illustrated variants.

Le procédé d’échange de données entre une application et un serveur distant selon l’invention peut être utilisé pour but de surveillance par caméras vidéo, la prévisualisation à une définition inférieure permettant notamment de choisir aisément le moment où un individu passe devant la caméra, afin d’appliquer une reconnaissance faciale seulement à cet extrait de l’enregistrement. L’utilisation de détection automatique de scènes peut être utilisée pour améliorer le procédé d’édition de contenus vidéo selon l’invention, par exemple pour détecter des scènes mettant en scène des personnes par opposition aux plans larges de paysage, faisant entrer et/ou sortir un sujet en cours de vidéo, ou pour détecter le type de plan effectué, par exemple un plan fixe, un plan en « travelling », un plan réalisé avec une caméra embarquée, ou la vitesse de déplacement de la caméra, ou les mouvements involontaires de caméra.The method of exchanging data between an application and a remote server according to the invention can be used for surveillance purposes by video cameras, the preview at a lower definition making it possible in particular to easily choose the moment when an individual passes in front of the camera, in order to apply facial recognition only to this excerpt from the recording. The use of automatic scene detection can be used to improve the method of editing video content according to the invention, for example to detect scenes featuring people as opposed to wide landscape shots, inputting and / or outputting a subject in the course of video, or for detecting the type of shot taken, for example a still shot, a shot shot, a shot taken with an on-board camera, or the speed of movement of the camera, or the movements involuntary camera.

Claims (18)

REVENDICATIONS 1. Procédé d’édition de contenus vidéo utilisant un appareil (2), tel qu’un téléphone portable, ayant accès à au moins une séquence vidéo d’origine (Ve, V0), procédé dans lequel : - on analyse la séquence vidéo d’origine (Ve, V0) pour en extraire des caractéristiques prédéfinies, - on établit une liste restreinte de modèles d’édition possibles choisis dans une base de modèles d’édition en fonction desdites caractéristiques prédéfinies de la séquence vidéo d’origine (Ve, V0), et - on génère de façon automatisée une séquence vidéo éditée (Vi, Vf) au moins en appliquant à la séquence vidéo d’origine (Ve, V0) une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur parmi la liste restreinte de modèles établie à l’étape précédente.A method for editing video content using a device (2), such as a mobile phone, having access to at least one original video sequence (Ve, V0), in which method: - the video sequence is analyzed of origin (Ve, V0) to extract predefined characteristics, - a restricted list of possible editing models selected in a base of editing models according to said predefined characteristics of the original video sequence (Ve , V0), and - an edited video sequence (Vi, Vf) is automatically generated at least by applying to the original video sequence (Ve, V0) a list of editing decisions specific to an editing model selected by the user from the restricted list of models established in the previous step. 2. Procédé selon la revendication 1, dans lequel la séquence vidéo d’origine (Ve, V0) est analysée par un serveur distant (3) auquel est relié l’appareil (2) par le biais d’un réseau de télécommunications, la séquence vidéo éditée (Vi, Vf) étant générée par ledit serveur (3).The method according to claim 1, wherein the original video sequence (Ve, V0) is analyzed by a remote server (3) to which the apparatus (2) is connected by means of a telecommunications network, the an edited video sequence (Vi, Vf) being generated by said server (3). 3. Procédé selon la revendication 1 ou 2, dans lequel les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine (Ve, V0) sont des caractéristiques techniques de la vidéo, telles que notamment la résolution, le nombre de trames par seconde, le niveau de compression ou l’orientation, et/ou sont représentatives de la colorimétrie de la vidéo, notamment la luminosité, la saturation, le contraste, ou les couleurs prédominantes.3. Method according to claim 1 or 2, wherein the predefined characteristics to extract from the original video sequence (Ve, V0) are technical characteristics of the video, such as in particular the resolution, the number of frames per second, the compression level or the orientation, and / or are representative of the colorimetry of the video, in particular the brightness, the saturation, the contrast, or the predominant colors. 4. Procédé selon l’une quelconque des revendications précédentes, dans lequel les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine (Ve, V0) sont représentatives des mouvements présents dans la séquence, notamment leur direction et leur vitesse.4. Method according to any one of the preceding claims, wherein the predefined characteristics to be extracted from the original video sequence (Ve, V0) are representative of the movements present in the sequence, in particular their direction and their speed. 5. Procédé selon l’une quelconque des revendications précédentes, dans lequel les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine (Ve, V0) sont représentatives d’un découpage en scènes de la séquence.5. Method according to any one of the preceding claims, wherein the predefined characteristics to be extracted from the original video sequence (Ve, V0) are representative of a scene splitting of the sequence. 6. Procédé selon l’une quelconque des revendications précédentes, dans lequel les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine (Ve, V0) sont représentatives du son présent dans la séquence, notamment la résolution, la fréquence d’échantillonnage et/ou le niveau de compression du son, ou l’ambiance sonore générale, ou la reconnaissance de sons particuliers, par exemple une ou plusieurs voix ou de la musique.The method according to any one of the preceding claims, wherein the predefined characteristics to be extracted from the original video sequence (Ve, V0) are representative of the sound present in the sequence, in particular the resolution, the sampling frequency and / or the level of compression of the sound, or the general sound environment, or the recognition of particular sounds, for example one or more voices or music. 7. Procédé selon l’une quelconque des revendications précédentes, dans lequel la liste de décisions d’édition propre à un modèle d’édition comporte les temps de début et de fin souhaités de la séquence vidéo, et/ou un mode de vitesse de lecture de la séquence vidéo, notamment accéléré ou ralenti, et/ou les types de transitions dans la séquence et les temps de début et de fin de chaque transition, et/ou les types d’effets à inclure sur la séquence, tels qu’un changement de colorimétrie, une incrustation d’informations, notamment de texte ou d’image(s) fixes ou animées, et les temps de début et de fin de chaque effet, et/ou des paramètres décrivant les contraintes de montage vidéo associées, telles que les nombres minimum et maximum de séquences d’origine, la durée minimale et/ou maximale de chaque séquence, et/ou la définition de règles particulières d’adaptation du modèle, telles que la modification des temps de début et de fin de chaque séquence en fonction de la vitesse du mouvement, de l’analyse de scènes, des changements de vitesse ou direction des mouvements des différents objets identifiés sur chaque séquence, et/ou de la durée des séquences.A method as claimed in any one of the preceding claims, wherein the editing decision list specific to an editing template includes the desired start and end times of the video clip, and / or a clip speed mode. playing the video sequence, in particular accelerated or slowed motion, and / or the types of transitions in the sequence and the start and end times of each transition, and / or the types of effects to be included in the sequence, such as a change of colorimetry, an overlay of information, in particular text or still or animated image (s), and the start and end times of each effect, and / or parameters describing the associated video editing constraints, such as the minimum and maximum number of original sequences, the minimum and / or maximum duration of each sequence, and / or the definition of particular model adaptation rules, such as the modification of the start and end times ofeach sequence according to the speed of the movement, the analysis of scenes, changes of speed or direction of the movements of the different objects identified on each sequence, and / or the duration of the sequences. 8. Procédé selon l’une quelconque des revendications précédentes, dans lequel la liste de décisions d’édition propre à un modèle d’édition comporte l’ajout d’une bande son sur la séquence vidéo éditée (Vj, Vf), associé notamment à des moments acceptables de coupure dudit morceau.8. Method according to any one of the preceding claims, in which the list of editing decisions specific to an editing model comprises the addition of a soundtrack on the edited video sequence (Vj, Vf), associated in particular with at acceptable times of cutoff of said piece. 9. Procédé selon l’une quelconque des revendications précédentes, dans lequel la génération de la séquence vidéo éditée (Vi, Vf) prend en compte des paramètres supplémentaires rentrés par l’utilisateur sur l’appareil (2), notamment par le biais d’une application (4) d’édition de contenus vidéo exécutable sur l’appareil (2), notamment le genre de musique désiré, des choix d’effets supplémentaires, des filtres de colorimétrie et/ou de stabilisation à appliquer à la séquence vidéo d’origine, ou des données à incruster dans la séquence, telles que par exemple un titre, un nom de lieu, un ensemble de coordonnées GPS, une position GPS ou des métriques provenant de capteurs, telles que par exemple une vitesse, une altitude, une accélération, une profondeur, une fréquence cardiaque, un dénivelé, ou des données météorologiques.9. Method according to any one of the preceding claims, wherein the generation of the edited video sequence (Vi, Vf) takes into account additional parameters entered by the user on the apparatus (2), in particular by means of an application (4) for editing video content executable on the apparatus (2), including the desired genre of music, additional effects choices, colorimetric and / or stabilizing filters to be applied to the video clip original, or data to be embedded in the sequence, such as for example a title, a place name, a set of GPS coordinates, a GPS position or metrics from sensors, such as for example a speed, an altitude , acceleration, depth, heart rate, elevation gain, or weather data. 10. Procédé selon l’une quelconque des revendications précédentes, étant répété pour plusieurs séquences vidéo d’origine (Ve) correspondant à des extraits d’un même contenu vidéo d’origine (V0).10. Method according to any one of the preceding claims, being repeated for several original video sequences (Ve) corresponding to extracts of the same original video content (V0). 11. Procédé selon la revendication précédente, dans lequel l’ordre temporel des extraits (Ve) pour générer la séquence vidéo éditée (Vi, Vf) est choisi par l’utilisateur à l’aide de l’appareil (2).11. The method according to the preceding claim, wherein the temporal order of the extracts (Ve) for generating the edited video sequence (Vi, Vf) is selected by the user using the apparatus (2). 12. Procédé selon l’une quelconque des deux revendications immédiatement précédentes, dans lequel la liste de décisions d’édition propre à un modèle d’édition comporte une indication sur la façon de faire le lien entre plusieurs extraits (Ve) d’un même contenu vidéo d’origine (V0), notamment la durée relative entre deux extraits.A method according to any one of the two immediately preceding claims, wherein the edition decision list specific to an editing model includes an indication of how to make the connection between several extracts (Ve) of the same original video content (V0), including the relative duration between two extracts. 13. Procédé selon l’une quelconque des revendications précédentes, dans lequel la séquence vidéo d’origine (Ve) correspond à un extrait d’un contenu vidéo d’origine (V0) dont la durée correspond à un premier laps de temps prédéfini (ti) avant un marqueur temporel (Mt) placé sur ledit contenu, notamment par le biais d’une application (4) d’édition de contenus vidéo exécutable sur l’appareil (2), et désignant un moment clé sélectionné au préalable par l’utilisateur, et à un deuxième laps de temps prédéfini ¢2) après ce marqueur.A method according to any one of the preceding claims, wherein the original video sequence (Ve) corresponds to an extract of an original video content (V0) whose duration corresponds to a first predefined period of time ( ti) before a time marker (Mt) placed on said content, in particular by means of an application (4) for editing video contents executable on the device (2), and designating a key moment selected beforehand by the user, and at a second predefined time period ¢ 2) after this marker. 14. Procédé selon la revendication précédente, dans lequel les premier (ti) et deuxième (t2) laps de temps prédéfinis sont de durée égale, la séquence vidéo d’origine (Ve) ayant été générée à partir d’un extrait du contenu vidéo d’origine (V0) dont la durée est centrée sur le marqueur temporel (Mt) du moment clé sélectionné.14. Method according to the preceding claim, wherein the first (ti) and second (t2) predefined periods of time are of equal duration, the original video sequence (Ve) having been generated from an extract of the video content. of origin (V0) whose duration is centered on the time marker (Mt) of the selected key moment. 15. Procédé selon l’une quelconque des deux revendications immédiatement précédentes, dans lequel les premier (ti) et deuxième (t2) laps de temps prédéfinis sont compris chacun entre 5 s et 300 s.15. A method according to any one of the two immediately preceding claims, wherein the first (ti) and second (t2) predefined periods of time are each between 5 s and 300 s. 16. Procédé selon l’une quelconque des revendications 1 à 15, dont la revendication 2, dans lequel une séquence vidéo éditée intermédiaire (Vi) est générée par le serveur distant (3) dans une définition de prévisualisation inférieure à la définition (D0) du contenu vidéo d’origine (V0) duquel provient la séquence vidéo d’origine, avant la mise à disposition de la séquence vidéo éditée finale (Vf) à la fin des opérations d’édition sur le réseau de télécommunications à une définition de publication (Dpu) supérieure à la définition de prévisualisation (Dp).The method of any one of claims 1 to 15, including claim 2, wherein an intermediate edited video sequence (Vi) is generated by the remote server (3) in a preview definition less than the definition (D0). the original video content (V0) from which the original video sequence originates, before the final edited video sequence (Vf) is made available at the end of the editing operations on the telecommunications network to a publication definition (Dpu) greater than the preview definition (Dp). 17. Procédé selon l’une quelconque des revendications précédentes, dans lequel la séquence vidéo éditée (Vi, Vf) est publiée sur un réseau de télécommunications auquel est relié l’appareil (2), notamment par le biais d’une application (4) d’édition de contenus vidéo exécutable sur l’appareil (2) ou du serveur distant (3).17. The method as claimed in any one of the preceding claims, in which the edited video sequence (Vi, Vf) is published on a telecommunications network to which the apparatus (2) is connected, in particular via an application (4). ) editing video content executable on the device (2) or the remote server (3). 18. Application (4) d’édition de contenus vidéo comportant des instructions de code exécutables sur un appareil (2), tel qu’un téléphone portable, comportant un processeur et une mémoire, ces instructions lorsqu’exécutées permettant la mise en œuvre du procédé d’édition de contenu vidéo selon l’une quelconque des revendications précédentes, l’appareil (2) ayant accès à au moins une séquence vidéo d’origine (Ve, V0), l’application (4) étant configurée pour permettre, par le biais d’un serveur distant (3) éventuel : - une analyse de la séquence vidéo d’origine (Ve, V0) pour en extraire des caractéristiques prédéfinies, - l’établissement d’une liste restreinte de modèles d’édition possibles choisis dans une base de modèles en fonction desdites caractéristiques prédéfinies de la séquence vidéo d’origine (Ve, V0), et - la génération de façon automatisée d’une séquence vidéo éditée (Vi, Vf) au moins en appliquant à la séquence vidéo d’origine (Ve, V0) une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur, parmi la liste restreinte de modèles établie à l’étape précédente.18. Application (4) for editing video contents comprising executable code instructions on a device (2), such as a mobile phone, comprising a processor and a memory, these instructions when executed allowing the implementation of the video content editing method according to one of the preceding claims, the apparatus (2) having access to at least one original video sequence (Ve, V0), the application (4) being configured to enable, through a possible remote server (3): - an analysis of the original video sequence (Ve, V0) to extract predefined characteristics, - the establishment of a short list of possible editing models selected in a model base according to said predefined characteristics of the original video sequence (Ve, V0), and - automatically generating an edited video sequence (Vi, Vf) at least by applying to the original video sequence (Ve, V0) a list of editing decisions specific to a user-selected editing model, from the restricted list of models established in the previous step.
FR1561756A 2015-12-02 2015-12-02 VIDEO EDITING METHOD USING AUTOMATIC ADAPTIVE MODELS Withdrawn FR3044816A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1561756A FR3044816A1 (en) 2015-12-02 2015-12-02 VIDEO EDITING METHOD USING AUTOMATIC ADAPTIVE MODELS
PCT/EP2016/079553 WO2017093467A1 (en) 2015-12-02 2016-12-02 Method for managing video content for the editing thereof, selecting specific moments and using automatable adaptive models

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1561756A FR3044816A1 (en) 2015-12-02 2015-12-02 VIDEO EDITING METHOD USING AUTOMATIC ADAPTIVE MODELS

Publications (1)

Publication Number Publication Date
FR3044816A1 true FR3044816A1 (en) 2017-06-09

Family

ID=55862865

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1561756A Withdrawn FR3044816A1 (en) 2015-12-02 2015-12-02 VIDEO EDITING METHOD USING AUTOMATIC ADAPTIVE MODELS

Country Status (1)

Country Link
FR (1) FR3044816A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004090898A1 (en) * 2003-04-07 2004-10-21 Internet Pro Video Limited Computer based system for selecting digital media frames
US6954894B1 (en) * 1998-09-29 2005-10-11 Canon Kabushiki Kaisha Method and apparatus for multimedia editing
US20080155422A1 (en) * 2006-12-20 2008-06-26 Joseph Anthony Manico Automated production of multiple output products
US8768142B1 (en) * 2012-01-26 2014-07-01 Ambarella, Inc. Video editing with connected high-resolution video camera and video cloud server

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6954894B1 (en) * 1998-09-29 2005-10-11 Canon Kabushiki Kaisha Method and apparatus for multimedia editing
WO2004090898A1 (en) * 2003-04-07 2004-10-21 Internet Pro Video Limited Computer based system for selecting digital media frames
US20080155422A1 (en) * 2006-12-20 2008-06-26 Joseph Anthony Manico Automated production of multiple output products
US8768142B1 (en) * 2012-01-26 2014-07-01 Ambarella, Inc. Video editing with connected high-resolution video camera and video cloud server

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Actvt.com - The next-gen of mobile video", 8 November 2015 (2015-11-08), XP055300899, Retrieved from the Internet <URL:https://web.archive.org/web/20151108003829/http://actvt.com/> [retrieved on 20160908] *

Similar Documents

Publication Publication Date Title
WO2022048478A1 (en) Multimedia data processing method, multimedia data generation method, and related device
US8774598B2 (en) Method, apparatus and system for generating media content
EP3005296B1 (en) Merging of a plurality of video flows
EP2393022A2 (en) Method for creating a media sequence using coherent groups of media files
FR3004565A1 (en) FUSION OF SEVERAL VIDEO STREAMS
JP7074891B2 (en) Shooting method and terminal device
US20150130816A1 (en) Computer-implemented methods and systems for creating multimedia animation presentations
EP3824440A1 (en) Method implemented by computer for the creation of contents comprising synthesis images
FR3044852A1 (en) METHOD FOR MANAGING VIDEO CONTENT FOR THEIR EDITION
WO2017093467A1 (en) Method for managing video content for the editing thereof, selecting specific moments and using automatable adaptive models
TWI465929B (en) Distributing collaborative computer editing system
EP3092795A2 (en) Device for creating enhanced videos
FR3044816A1 (en) VIDEO EDITING METHOD USING AUTOMATIC ADAPTIVE MODELS
FR3044815A1 (en) VIDEO EDITING METHOD BY SELECTING TIMELINE MOMENTS
FR2999372A1 (en) IMAGE CAPTURE IN A VIDEO SIGNAL
FR3009103A1 (en) GENERATING CUSTOMIZED CONTENT REPRODUCTION LISTS
EP3479584B1 (en) Method for storing multimedia content, method for reading the same, and method for managing a storage space containing such content
EP2701398B1 (en) Method for processing a multimedia stream, corresponding server and computer program
FR3005181A1 (en) GENERATING A PERSONALIZED MULTIMEDIA DOCUMENT RELATING TO AN EVENT
US11769531B1 (en) Content system with user-input based video content generation feature
FR3005182A1 (en) GENERATING A PERSONALIZED SOUND DOCUMENT RELATING TO AN EVENT
FR3035561A1 (en) SYSTEM FOR CREATING AND RETRIEVING A COMPOSITE DOCUMENT
FR3042369A1 (en) CONTEXTUAL ENRICHMENT BY AUDIO RECOGNITION
WO2022195213A1 (en) Authentication method and corresponding electronic device, computer program product and medium
EP3949317A1 (en) Method for modifying multimedia content

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170609

ST Notification of lapse

Effective date: 20180831