NO327155B1 - Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon - Google Patents

Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon Download PDF

Info

Publication number
NO327155B1
NO327155B1 NO20054844A NO20054844A NO327155B1 NO 327155 B1 NO327155 B1 NO 327155B1 NO 20054844 A NO20054844 A NO 20054844A NO 20054844 A NO20054844 A NO 20054844A NO 327155 B1 NO327155 B1 NO 327155B1
Authority
NO
Norway
Prior art keywords
video
procedure according
search
streaming
videos
Prior art date
Application number
NO20054844A
Other languages
English (en)
Other versions
NO20054844L (no
NO20054844D0 (no
Inventor
Bjørn Olstad
Will Arentz
Original Assignee
Fast Search & Transfer Asa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fast Search & Transfer Asa filed Critical Fast Search & Transfer Asa
Priority to NO20054844A priority Critical patent/NO327155B1/no
Publication of NO20054844D0 publication Critical patent/NO20054844D0/no
Priority to PCT/NO2006/000361 priority patent/WO2007046708A1/en
Priority to US11/793,389 priority patent/US8296797B2/en
Priority to GB0711264A priority patent/GB2436244A/en
Publication of NO20054844L publication Critical patent/NO20054844L/no
Publication of NO327155B1 publication Critical patent/NO327155B1/no
Priority to US13/657,573 priority patent/US9122754B2/en
Priority to US14/840,857 priority patent/US9372926B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9577Optimising the visualization of content, e.g. distillation of HTML documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Oppfinnelsen angår en fremgangsmåte og apparat for å vise videodata innen resultatpresentasjoner i informasjonsaksessystemer. Oppfinnelsen viser forskjellige måter for å konstruere en initial resultatside med tommelnegler som er kompakte og som kan lastes ned på en meget effektiv måte. Videre angis innholdsbaserte video- og audioanalyseverktøy for å sikre kvalitet og søkespørsmålsrelevans for tommelneglene. Det vises hvordan videoresultatsiden effektivt kan skumleses ved å skaffe streaming av videosammendrag på forespørsel og i kontekst. Det vises forskjellige måter for å beregne videosammendrag, med høy kvalitet og avhengig av søkespørsmålene. Videre vises det hvordan videoannonsering kan innleires i videosammendragene. En rekke mulige utførelser av oppfinnelsen vises innbefattet klientaksess fra PCer, telefoner, PDAer og spinninnretninger.

Description

Oppfinnelsen angår en fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i informasjonsaksessystemer eller
informasjonssøkesystemer, hvor fremgangsmåten omfatter trinn for å benytte søkespørsmål på et sett av videoer, og identifisere tilsvarende videoer, og å fremstille en resultatside med minst en av de mest relevante videoer.
Det er kjent en rekke systemer som er blitt utført for å komprimere, dekomprimere og avspille digitale videoer på mobil- og datamaskinbaserte systemer. Spesielt er slike systemer blitt utført for å se på video over datamaskinnettverk, trådløse nettverk og mobile nettverk. Disse systemene er i stand til å komprimere og streame videoinnholdet over datanettverk så som Internett, og å utføre dekomprimering og avspilling på en datamaskininnretning så som en PC eller mobiltelefon. Kjente teknikker innbefatter også fremgangsmåter for å søke videoinformasjon og som er basert på eksterne metadata, innleirede metadata, innholdsbasert analyse og tale- eller fonetisk transkripsjon av lydsporet i videoen. I den forbindelse er såkalte tommelnegler blitt benyttet i kjent teknikk. Tommelneglene er miniatyrversjoner av et bilde eller en elektronisk versjon av en side som generelt benyttes for å tillate hurtig titting gjennom en rekke bilder eller sider. For eksempel inneholder sider på World Wide Web ofte tommelnegler i form av bilder. Disse tommelneglene kan webleseren nedlaste langt hurtigere enn et bilde i full størrelse. I mange tilfeller kan også sluttbrukeren klikke på disse tommelneglene for å laste ned den fullstendige versjon av bildet. Slik det vil være kjent for fagfolk, viser den kjente teknikk fremgangsmåter for å danne tommelnegler sa som en JPEG av et valgt stillbilde i en video for å illustrere videoen i en resultatside ved informasjonsaksessløsninger.
Gitt den økende betydning av video og bevegelige bilder som generelt kan
fås fra innholdsmagasiner, f.eks. i form av databaser, og som tilbys sluttbrukerne via datakommunikasjonssystemer, herunder både ekstranett eller intranett, tilbyr et økende antall av informasjonsleverandører på
Internett også sluttbrukerne en enorm mengde videobilder eller digitale filmbilder ofte for salg eller med betaling for enkeltbruk (pay per vie w). Den veldige vekst i mengden av informasjon av denne art og dens økende betydning, spesielt i forbrukermarkedet for informasjonstjenester, har skapt et behov for å forbedre en initial resultatside med bruk av tommelnegler for å lette skumlesing av et enormt reelt innhold.
Følgelig er det en hovedhensikt med den foreliggende oppfinnelse å skaffe en fremgangsmåte for å konstruere en initial resultatside med tommelnegler og som er kompakt og kan lastes ned på en meget effektiv måte. En annen hensikt med den foreliggende oppfinnelse er å skaffe et verktøy for video og audioanalyse for å sikre kvaliteten og spørsmålsrelevansen for tommelneglene.
En tredje hensikt med oppfinnelse er å skaffe effektiv skumlesning av en videoresultatside ved på forespørsel å skaffe streaming av videosammendrag innenfor konteksten.
En fjerde hensikt med oppfinnelsen er å vise hvordan videosammendrag kan beregnes med høy kvalitet og avhengig av søkespørsmål.
Endelig er det en siste hensikt med oppfinnelsen å generere videosammendrag med innleiret videoannonsering.
De ovennevnte hensikter så vel som ytterligere trekk og fordeler realiseres i henhold til den foreliggende oppfinnelse med en fremgangsmåte som er kjennetegnet ved trinn for å forhåndsberegne komprimerte tommelnegler for videoene i en resultatside, å benytte en eller flere forhåndsberegnede, komprimerte tommelnegler på resultatsiden, å iverksette et brukervalg av en video i resultatsiden, og å aktivere streaming av et videosammendrag innenfor konteksten til den forbundne resultatside.
Ytterligere trekk og fordeler vil fremgå av de vedføyde uselvstendige krav.
Fremgangsmåten i henhold til den foreliggende oppfinnelse skal forståes bedre av den etterfølgende detaljerte beskrivelse av eksemplifiserende utførelser og lest i samband med den vedføyde tegning på hvilken fig. 1 illustrerer et blokkdiagram for en eksemplifiserende søkemotorarkitektur,
fig. 2 hvordan dokumentattributter på forskjellige måter kan gis et sammendrag over en resultatmengde,
fig. 3 viser en semantisk oppspalting av en tekst med dokumentegenskaper innleiret i en semantisk struktur,
fig. 4 et eksempel på tekstformattert XML,
fig. 5 nøkkelkomponenter i et informasjonsaksessystem for videoinnhold,
fig. 6 nøkkelkomponenter i et tale-til-tekstsystem,
fig. 7 viser et utgangseksempel på en tale-til-tekstanalyse av lydsporet i en video,
fig. 8 viser hvordan forskjellige innholdskilder kan gjøres tilgjengelige for streaming innenfor konteksten av resultatbetraktning i informasjonsaksessen,
fig. 9 viser viktige byggestener i konstruksjonen av intelligente videosammendrag,
fig. 10 og 14 eksempler på typiske vevgrensesnitt for søkemotorer som skaffer aksess til videoinnhold,
fig. 11 forskjellige muligheter for å visualisere et videosammendrag,
fig. 12 viser en slideshowbetraktning av bilder i et videosammendrag,
fig. 13 viser forholdet mellom kompakte videotommelnegler og streaming av videosammendrag ved brukervalg,
fig. 14 et annet eksempel på et typisk vevgrensesnitt for søkemotorer som skaffer aksess til videoinnhold,
fig. 15 hvordan det i henhold til kjent teknikk velges et enkelt bilde eller bare en forkortet versjon av en video for forhåndsvisninger,
fig. 16 viser hvordan nøkkelbilder og forbundne tidssekvenser velges og settes sammen for å danne et videosammendrag sammen med lydsporet, og fig. 17 hvordan videotommelneglen og videosammendraget kan innfanges i en flashkoding og tilbys som interaktiv streaming på forespørsel til sluttbrukeren.
Nå skal forskjellige utførelser av fremgangsmåten i henhold til den foreliggende oppfinnelse vises og drøftes i noen detalj. Disse utførelser innbefatter klientaksess, dvs. sluttbrukeraksess fra personlige datamaskiner, mobiltelefoner, PDAer og spilleinnretninger. Det skal forståes at overalt i fremstillingen benyttes begrepet "video", "videodata" eller "videodokumenter" til å betegne enhver digital bevegelig bildestørrelse og således kan de tas i betydningen en streamet film, en videofil, et webinar eller en levende sending. Videre er begrepet tidssekvens i en video ment å skulle bety påfølgende bilder, eller delbilder mellom en startoffset og en sluttoffset i videoen.
Fremgangsmåten i henhold til den foreliggende oppfinnelse skal også tas i betraktning på bakgrunn av de teknologier som for tiden er under utvikling for aksessering, søking, gjenfinning og adressering av informasjon som f.eks. befinner seg i dokumentsamlinger som er tilgjengelig via datakommunikasjonsnettverk så som intranett og ekstranett. Med det formål å aksessere, søke, gjenfinne og analysere informasjon og innholdssamlinger så som databaser eller vevsteder, blir søkemotor vanligvis benyttet til å ta hånd om informasjon- og søkebehov som er umulig å tilfredsstille ved hjelp av f.eks. de mange brukerprogrammer så som vevlesere som benyttet på Internett (World Wide Web). Følgelig skal arkitekturen til en søkemotor først kort drøftes med henvisning til fig. 1 som viser typiske nøkkelkomponenter for en søkemotor.
På fig. 1 er søkemotoren vist omfattende forskjellige moduler 102-108. Søkemotoren kan aksessere innholdssamlinger (magasiner eller arkiver) 101 hvorfra innholdet enten aktivt kan skyves inn i søkemotoren eller via en datakobling trekkes inn i søkemotoren. Typiske samlinger eller arkiver omfatter databaser, kilder gjort tilgjengelige via ETL-(Extract-Transfor-Load)-verktøy så som Informatica, ethvert XML-formattert arkiv, filer fra filtjenere, filer fra webtjenere, dokumenthpndteringssystemer, innholdshåndteringssystemer, emailsystemer, kommunikasjonssystemer, samarbeidssystemer og rike media så som audio, bilder og video. Dokumentene leveres til en søkemotor via et innholds-API (Application Programming Interface) 102. Deretter blir dokumentene analysert i et innholdsanalysetrinn 103 for å forberede innholdet med tanke på forbedrede søke- og oppdagelsesoperasjoner. Typisk kan utgangen på dette trinn være en XML-representasjon av inngangdokumentet. Utgangen av innholdsanalyse benyttes til å mate en kjerne søkemotor 104. Kjernesøkemotoren 104 kan typisk være anlagt over en tjenerfarm på en fordelt måte for å behandle store dokumentmengder og høye søkespørsmålsbelastninger. Kjernesøkemotoren 104 kan motta brukeranmodninger og frembringe lister av overensstemmende dokumenter. Rangeringen av ordningen av dokumenter blir vanligvis bestemt i henhold til en relevansmodell som måler den sannsynlige betydning av et gitt dokument relativt til søkespørsmålet. I tillegg kan kjernesøkemotoren 104 frembringe ytterligere metadata om resultatsettet, så som sammendragsinformasjon for dokumentattributter. Alternativt kan utgangen fra innholdsanalysetrinnet mates inn i en alert- eller varselmotor 105. Varselmotoren 105 vil ha et lagret sett av søkespørsmål og kan bestemme hvilke søkespørsmål som ville ha godtatt gitte dokumentinnganger. En søkemotor kan aksesseres fra mange forskjellige klienter eller applikasjoner, av hvilken er vist mobil- eller datamaskinbaserte klientapplikasjoner 109; 110. Andre klienter innbefatter PDAer og spilleinnretninger. Disse klientene vil inngi anmodninger til et søke spørsmål-API 108. Søkemotoren vil typisk ha midler i form av et trinn 106 for søkespørsmålanalyser til å analysere og forfine søkespørsmålet for å konstruere et avledet søkespørsmål som kan ekstrahere mer meningsfylt informasjon. Endelig kan utgangen fra kjernesøkemotoren 104 typisk ytterligere analyseres i et resultatanalysetrinn 107 for å frembringe informasjon eller visualiseringer som benyttes av klientene 109 og 110. Begge trinn 106 og 107 er forbundet med kjernesøkemotoren 104, eventuelt også med varselmotoren 105, og i alle fall med søkespørsmål-API 108.
Fig. 2 viser hvordan et eksemplifiserende informasjonsaksessystem beregner sammendragsinformasjon for dokumenter. Søkespørsmålet blir først evaluert og returnerer et sett av N overensstemmende dokumenter. Relevansmodellen blir deretter benyttet til å rangere dokumentene fra de mest verdifulle til de
minst verdifulle relativt til søkespørsmålet (Di > D2 > D3). Typisk blir et gitt antall av de høyest rangerte dokumenter returnert til klienten og benyttes til å konstruere en resultatside. Attributtene forbundet med dokumentene kan være både metadata fra det opprinnelige innholdsarkiv eller metadata som er blitt oppdaget innenfor innholdsanalysen 103. Sammendragsinformasjonen blir enten beregnet på basis av et visst antall av de høyest rangerte dokumenter eller alle N dokumenter som tilfredsstiller søkespørsmålet. Fig. 2 viser noen eksempler på sammendraginformasjon så som frekvens, histogrammer og statistiske parametere. Med video som innholdsarkiv kan navigasjon anvendes på innleirede, strukturerte metadata som videostørrelse, videolengde, videokvalitet, videoformat eller tilknyttet tekstuelle metadata så som tekst eller ankertekst på vevsider forbundet med videoen. Videre kan tekstutgangen fra en tale-til-tekstanalyse benyttes som en primærtekst eller inngang til innholdsforfining som identifiserer størrelser benyttet for oppdagelse. Ekstraherte størrelser fra tale-til-tekstutgangen kan relateres tilbake til tidsforskyvninger i videoen. Følgelig kan søking og navigasjon
relateres tilbake til bilder eller tidssekvenser innenfor den opprinnelige video. Fig. 3 illustrerer kontekstuell dokumentanalyse i et søkemotoreksempel. Et inngangsdokument 301 oppspaltes i avsnitt 305 som blir viderespaltet i setninger 304. Innenfor setningene blir områder markert som dokumentegenskaper med spesifikke verdier 302 og 303. Dokumentegenskapene kan registreres i både en hel/original form og i en tilknyttet grunnform. Fig. 3 viser to eksempler på dette. 305 viser et eksempel hvor en dato er registrert i både den opprinnelige form (mars 202) og en normalisert grunnform (2002-03-XX). Den normaliserte grunnform forenkler profilering, områdesøk og robust generering av sammendragsinformasjon. Eksempler på dokumentegenskaper som kan gjenkjennes på en tilsvarende måte, innbefatter personnavn, firmanavn, steder, akronymer, datoer, filnavn, URLer, telefonnummer, postnummer, emailadresser, universiteter, aviser, prisinformasjon, produktinformasjon, numeriske attributter og børskoder. Dokumentegenskapene kan enten forbindes ved et gitt sted i dokumentet, et intervall eller et område i dokumentet, et tidspunkt eller tidsintervall i audioen og videoen, eller en struktur i en XML-representasjon av dokumentet. Igjen kan kontekstuell dokumentforfining benyttes til å analysere videosekvensen og forbinde forskjellige kontekster med stillbilder eller tidssekvenser innenfor videoen ved å utlede et tekstdokument fra transkripsjon av lyder i videoen. Fig. 4 illustrerer et typisk eksempel som kan være utgangen til en tale-til-tekstanalyse og påfølgende strukturering. Dokumentet er representert på en hierarkisk måte og tekstuelle så vel som andre attributtyper kan kodes på et vilkårlig nivå. XPath og XQuery er eksempler på strukturerte søkespråk som kan benyttes til å identifisere dokumenter og underdokumentstrukturer med spesifikke egenskaper. I dette eksempelet er det f.eks. mulig å se etter taler hvor taleren er Cleopatra, og det er en linje som nevner Caesar. Identifiserte XML-fragmenter vil ha forbundne tidspunkter og tidsintervaller i videosekvensen som ble benyttet til å utvinne den underliggende tekst. Fig. 5 viser noen nøkkelkomponenter i et informasjonsaksessystem for videodata. Et søk 501 utvinner enten fullstendige videoer 501 eller søkespørsmålsekvenser fra videoene. Tilknyttede tekstuelle og strukturerte metadata kan benyttes til å konstruere navigasjonsmidler 503. Ved enten å velge spesifikke resultater 502 eller navigering 504, kan brukeren aktivere avspilling av den forbundne video 506.
Fig. 6 illustrerer typiske komponenter i et tale-til-tekst-system. Lyden eller lydsporet innenfor en video analyseres. Utgangsdata kan i tillegg til den transkriberte tekst inneholde metadata så som konfidensnivå, deteksjon av sosialt kjønn, sceneforandringer, taleforandringer etc. Utgangen blir vanligvis representert som et XML-dokument som beskrevet i fig. 5 og som kan ytterligere analyseres og forfines med forfiningsmetoder basert på tekstuelt innhold. Hvert ord, XML-merke eller attributt vil derfor ha tilsvarende tidsforskyvning i den forbundne video. Analyse av den dannede XML kan følgelig benyttes som en basis for å identifisere bilder eller spesifikke tidssekvenser innenfor videoen under både søke- og navigasjonsoperasjoner innenfor informasjonsaksessystemet.
Fonetisk transkripsjoner er et alternativ til tale-til-tekst-transkripsjon av lydsporet i videoen. Fonetisk transkripsjon identifiserer fonemer i motsetning til fullstendige teksttranskripsjoner. Fonemsekvensene sammenlignes med den fonetiske representasjon av søkespørsmålet for å finne stedet innenfor lydsporet med de beste fonetiske likheter. Presisjonen blir vanligvis forbedret i fonetisk baserte søkesystemer, men det kan ikke utføres så meget analyse innbefattet metadatagenerering. Fig. 8 viser hvordan brukeren i informasjonsaksessystemet kan samvirke med streamingtjenester for forskjellige innholdstyper. Fig. 9 viser hovedtrinn i beregningen av videosammendrag. Videosammendrag kan frembringes som et utvalg fra den opprinnelige video. For å foreta en bilde-til-bilde-analyse av videoen, må inngangsvideoen dekomprimeres og omdannes til en sekvens av individuelle stillbilder. Typisk representerer hvert bilde som et bilde med RGB-kodede pikselsverdier under analysetrinnene i beregningen av videosammendraget. Hvert bilde har også en forbundet tidsforsinkelse relativt til begynnelsen av videoen og taletranskripsjonen kan relateres tilbake til de samme tidsforsinkelser fra begynnelsen av videoen. Etter valg av passende bilder for videosammendraget og potensielle størrelsesjusteringer for klientinnretninger, blir de resulterende bilder komprimert ved koding med videokodek. Videokodeker har tilpassbare innstillinger for kvalitet og bitrate. Ved følgelig å kombinere kodekvalg og ekstraksjonsrikdom for videsammendraget kan størrelse og båndviddekrav tilpasses videosammendraget. Flere videosammendrag kan enten forhåndsberegnes eller beregnes i forbifarten for å imøtekomme båndbreddeytelsene for forbindelsen til klienten som utfører søkeanmodningen. Det enkleste valg av bilder for et videosammendrag er en seksjon fra begynnelsen av videoen. En annen måte er å analysere videoen og å identifisere scener (uavbrutte kameraeksponeringer) og å velge et bilde for å representere hver scene. Disse bildene kan deretter vises som et slideshow for raskt å visualisere videoinnholdet. Alternativt kan et antall bilder velges fra hver scene og sammenstilles som en video. Den kan vises som en video av korte sceneklipp, omtrent på samme måte som traileren for en film. Sceneklippene kan enten benytte hvert bilde for et visst tidsintervall i den opprinnelige video eller redusere videoraten for å spare båndbredde under streamingprosessen. Videokodekene i videosammendraget kan også velges uavhengig av videokodeken benyttet i den opprinnelige videoen. Da noen videoer kan ha et stort antall scener, kan dessuten en seleksjonsmetode benyttes til å utvinne de mest relevante scener.
Informative scener kan identifiseres som et bilde eller bildesekvenser for å representere scenene ved bruk av flere teknikker. For å identifisere scener, er det nødvendig å se etter forandringer fra bilde til bilde i videoen, hvor store forandringer ofte angir sceneskifte. Også stedet innenfor bildet hvor forandringer forekommer må tas i betraktning, da en forandring i bakgrunnen mer sannsynlig vil angi sceneforandringer. Forskjeller mellom bilder kan beregnes ved å se på fargefordeling, tekstuell fordeling og objektbevegelsesmønstre i tillegg til romlig informasjon. Bevegelsesanalysen kan også selektivt fokusere på bakgrunns- eller forgrunnsobj ekter for å skille mellom kamerapanoreringsoperasjoner og objektbevegelser innefor scenen.
Etter å ha identifisert scener i videoen, må scener og bilder som skal benyttes i videosammendraget velges. Ved å se på bildedynamikken, så som fordelingen av farger (dvs. hvor mange farger) i bildene så vel som teksturfordeling, kan det unngås å inkludere ensfargede, sort-hvitt bilder og informasjons/tittelbilder (dvs. begynnelse og slutt av filmer) i videosammendraget unngås. Valg av hvilke scener som skal innbefattes i videosammendraget, kan gjøres ved å se på lengden og bevegelsen av en scene. For å maksimere dynamikken og brukererfaringen ved betraktning av videosammendrag, bør en scene inneholde en rimelig grad av bevegelse. I tillegg er de lengste scenene ofte de viktigste i en video. Ved å kombinere disse to kriterier, kan det velges scener som gir brukeren et hurtig sammendrag med høy kvalitet av den fullstendige video. I den endelige videosammendrag bør de valgte scener være organisert i den samme tidsmessige orden som i den opprinnelige video.
De valgte scener eller bildesekvenser fra videoen kan også gjøres spørsmålspesifikke hvis et lydspor er tilgjengelig. Lydsporet kan i dette tilfelle omdannes ved tekst-til-tale-analyse, og tekstsegmenter kan identifiseres for å korrelere søkespørsmålstermen til den transkriberte tekst. De identifiserte tekstsegmenter svarer til stillbilder eller tidssekvenser innenfor videoen, og som følgelig kan velges for å innbefattes i et videosammendrag. Videosammendraget bør inneholde tilstrekkelig med videobilder rundt forekomsten av søkespørsmålstermer for å sette brukeren i stand til å forstå konteksten for forekomsten innenfor videoen.
Videotommelnegler kan beregnes på basis av de samme teknikker som drøftet ovenfor for videosammendrag. Tommelneglene må lastes til resultatsiden når resultatsiden lastes initialt. Følgelig vil størrelsen på videotommelnegler direkte påvirke lastetiden og anvendeligheten til informasjonsaksessystemet. Videotommelnegler vil derfor typisk ekstrahere mye mindre data fra videoen enn videosammendraget. Typisk kan bare et lite sett av stillbilder betraktes som animerte - f.eks. ved å kode de valgte rammer innenfor et animert GIF-filformat.
Videotommelnegler og videosammendragene kan konstrueres uavhengig av innretningen eller optimeres for å påvirke f.eks. skjermoppløsning til mobile klientinnretninger. Forskjellige innretninger så som personlige datamaskiner, lommedatamaskiner og mobiltelefoner gir forskjellige ytelser med hensyn til behandling, lagring, visning og nettverkbåndbredde. Forskjellige mediainnhold spesialtilpasset innretningen kan genereres, så vel som omdannet mediainnhold i sanntid for å møte kravene til spesifikke innretninger.
Den foreliggende oppfinnelse kan fremlegges som en applikasjon så som i en PC eller mobil hyperlink-skumleser, slik som benyttet på World Wide Web. Presentasjonen av videodokumenter kan aktiveres når det velges en video ved å starte streamingen, f.eks. av audio, video, bilde-slideshow, videosammendrag eller en kombinasjon av de ovennevnte mediatyper. Dette innholdet kan representeres som en sekvens av forskjellige media som streames etter behov. Dette vil fjerne unødige båndbreddebelastning fra inaktive applikasjoner. Aktivering av en videogjenstand kan også utløse effekter for å fremheve valget. Slike visuelle effekter innbefatter, men er ikke begrenset til forandringer i video/bildefarger, videobilderate, audiovolum, fargetoningsfaktoren, og bilde/videovisningsstørrelse. Brukeraktivering av et spesifikt videoresultat kan f.eks. gjøres ved sveving (hovring), mus-over eller klikking på videoen i resultatsettet. En rekke teknologier står til rådighet for å understøtte virkelig streaming av beregnede videosammendrag. Et eksempel er flash med innleiret video i en kodek slik som mpeg4 som er høvelig for å minimere nødvendig båndbredde og fortsatt opprettholde god betraktningskvalitet. Avspillingen kan også gjøres ved en annen hastighet enn for den opprinnelige video. En visning i langsom bevegelse av videotommelnegler er en mulighet. Etter streaming kan klienten fange det streamede videosammendrag slik at gjentatte avspillinger kan oppnås uten å initiere ytterligere streamingoperasjoner. Kombinasjonen av videotommelnegl med minimal størrelse og høykvalitets videosammendrag som streames i konteksten og på anmodning gir en meget effektiv måte for raskt å utforske videoinnholdet. Resultatsider kan lastes meget hurtig på grunn av den lille størrelsen på den initialt nedlastede videotommelnegl. Hurtig nedlastningstid fremmer effektivitet og øker brukerens tilfredshet med informasjonsaksessystemer. Samtidig kan brukeren utforske det reelle innhold av videoene ved å streame videosammendrag. Avspilling av videosammendrag kan følgelig initieres umiddelbart etter brukerens valg, og brukeren kan til enhver tid fokusere på en annen video og svitsje streamingprosessen til en annen kilde. Kombinasjon av smart båndbreddeutnyttelse og levende streaming gjør også den foreliggende oppfinnelse til en attraktiv metode for å skumlese videoinnhold fra mobilinnretninger så som mobiltelefoner, PDAer og spillinnretninger. Fra mobilinnretningen kan en resultatside konstrueres som en rullbar sekvens av videotommelnegler eller videosammendrag i full størrelse for å utnytte skjermstørrelsen for betraktning på den best mulige måte.
Annonseringsmedier kan tilføyes i videosammendragene. Denne annonsering kan implementeres som bilder eller videosekvenser som ikke kan hoppes over før, under eller etter det anmodede media. De valgte annonser kan enten være forhåndsvalgt og innleiret i videosammendragene, eller dynamisk integrert i videosammendragene under streamingprosessen. Ved dynamisk integrering av annonseringsmedier kan annonsene velges ved søketidspunktet og følge eksisterende modeller for søkebasert annonsering så som de sponsede listingprogrammer som tilbys av websøkeleverandører (f.eks. Google og Yahoo). I tillegg til innsetting av annonsemediaobjekter i videosammendraget kan pådragbare annonseelementer settes inn. Eksempler på pådragbare annonseelementer innbefatter: • HTML-fragmenter med hyperlinker som kan aksesseres innenfor streambetraktninger av videosammendraget. Følgelig kan sponsede lenker direkte innleires i videosammendraget etter hvert som de dukker opp i vevsøkemotoren og muliggjøre brukeraktivering for å hoppe til den forbundne sponsorside. • Aktiverbar,e virtuelle grensesnittelementer (widgets) så som taster, lenker innenfor f.eks. flash som kan aktiveres av brukeren på ethvert tidspunkt under betraktning eller basisstreaming av video sammendraget. • Visning av kandidatmultimedia gjøres tilgjengelig slik at brukeren både får et tilbud om å kjøpe og kan utføre kjøpshandlingen mens videosammendraget betraktes. Multimediaeksempler innbefatter sang eller video versjoner av videoen svarende til betraktede videosammendrag og relaterte sanger, eller videoer som kan være interessante på basis av den valgte videosammendrag.
Endelig skal figurene 11-17 kort omtales for kort og oversiktelig å eksemplifisere resultater som kan oppnås med fremgangsmåten i henhold til den foreliggende oppfinnelse når den benyttes til beregning av intelligente videotommelnegler med mulighet for rask gjennomgang og skumlesing innenfor en resultatrepresentasjon fra en søkemotor. De i det følgende omtalte figurer 11-17 er i det store og hele selvforklarende og derfor behøves det ikke å gis noen detaljert drøfting. Fig. 11 illustrerer forskjellige kjente muligheter for å visualisere et videosammendrag. Fig. 12 viser en kjent slideshowvisning av bilder i et videosammendrag. Fig. 13 viser forholdet mellom kompakte videotommelnegler og streaming av videosammendrag ved brukervalg, slik det vil være mulig med den foreliggende oppfinnelse. Fig. 14, jf. også fig. 10, illustrerer kjente vevgrensesnitt for søkemotorer og som gir aksess til videoinnhold. Fig. 15 viser hvordan kjent teknikk velger ett enkelt bilde 1501 eller en forkortet versjon 1502 for forhåndsbetraktning. Fig. 16 viser hvordan hovedbilder og tilhørende nøkkelbilder og hvordan tilhørende tidssekvenser velges og settes sammen for å danne et videosammendrag innefor lydsporet., slik det vil være mulig med den foreliggende oppfinnelse. Fig. 17 viser hvordan videotommelneglen og videosammendraget kan fanges i en flashkoding og tilbys som interaktiv streaming på forespørsel fra sluttbrukeren, slik det vil være mulig med den foreliggende oppfinnelse.
Av det ovenstående vil det være innlysende for fagfolk at den foreliggende oppfinnelse i stor grad forbedrer mulighetene for å vise og visualisere videodata innenfor resultatpresentasjoner i systemer for informasjonsaksess og informasjonssøking.
Det fremgår innlysende at den dynamiske representasjon av videoinnholdet i tillegg til tekstbeskrivelser kan presentere brukeren mer informative søkespørsmålsresultater. Slike representasjoner kan innbefatte videosammendrag eller videotommelnegler, bilde slideshow, audio- eller bilde valg eller hvilke som helst kombinasjoner av dette, men er på ingen måte begrenset til disse.
Selv om den foreliggende oppfinnelsen er blitt beskrevet med henvisning til visse utførelser, skal det forståes av fagfolk at forskjellige forandringer kan gjøres og ekvivalenter settes inn uten å avvike fra oppfinnelsens ramme. I tillegg kan det gjøres mange modifikasjoner for å tilpasse en bestemt situasjon eller materiale til oppfinnelsens lære uten å avvike fra dens ramme. Følgelig er det hensikten at den ikke skal begrenses til spesielle utførelser som er vist, men at den foreliggende oppfinnelse innbefatter alle utførelser som faller innenfor rammen av de vedføyde krav.

Claims (21)

1. Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i informasjonsaksessystemer eller informasjonssøkesystemer, hvor fremgangsmåten omfatter trinn for å benytte søkespørsmål på et sett av videoer, og identifisere tilsvarende videoer, og å fremstille en resultatside med minst en av de mest relevante videoer, og hvor fremgangsmåten er karakterisert ved ytterligere trinn for å forhåndsberegne komprimerte tommelnegler for videoene i en resultatside, å benytte en eller flere forhåndsberegnede, komprimerte tommelnegler på resultatsiden, å iverksette et brukervalg av en video i resultatsiden, og å aktivere streaming av et videosammendrag innenfor konteksten til den forbundne resultatside.
2. Fremgangsmåte i henhold til krav 1, karakterisert ved at de søkte videoer omfatter minst en blant videofiler, vevinarer, streaming videokilder eller direktesendt video.
3. Fremgangsmåte i henhold til krav 1, karakterisert ved å basere, tilsvaret mellom søkespørsmålet og videoene på minst en blant tekstuelle metadata forbundet med videoen, strukturerte metadata forbundet med videoen og som innbefatter minst en blant videostørrelse, videolengde, videokvalitet eller videoformat, tekst utledet fra et lydspor ved hjelp av en tale-til-tekstanalyse, eller fonetisk transkripsjon utvunnet av lydsporet, eller kombinasjoner av de førnevnte.
4. Fremgangsmåte i henhold til krav 1, karakterisert ved å optimere de forhåndsberegnede, komprimerte tommelnegler til visningsmulighetene for en klientinnretning benyttet til å betrakte søkeresultatene.
5. Fremgangsmåte i henhold til krav 1, karakterisert ved å benytte minst ett stillbilde fra den forbundne video i den forhåndsberegnede, komprimerte tommelnegl.
6. Fremgangsmåte i henhold til krav 5, karakterisert ved å velge det minst ene stillbilde som respons på forekomsten av søkespørsmålstermer innenfor videoens lydspor.
7. Fremgangsmåte i henhold til krav 1, karakterisert ved å la brukervalget innbefatte enten hovring, mus-over, rulling eller klikking på en video i resultatmengden.
8. Fremgangsmåte i henhold til krav 1,. karakterisert ved at resultatsiden er en vevside betraktet innenfor en skumleser.
9. Fremgangsmåte i henhold til krav 1, karakterisert ved å benytte en trådløs mobilinnretning som klientinnretning.
10. Fremgangsmåte i henhold til krav 9, karakterisert ved å fremlegge resultatsiden ved å rulle gjennom resultatvideoene individuelt i full skjermmodus.
11. Fremgangsmåte i henhold til krav 1, karakterisert ved å optimere videosammendraget til visningsmulighetene for klientinnretningen benyttet for å betrakte søkeresultatene.
12. Fremgangsmåte i henhold til krav 1, karakterisert ved å konstruere videosammendraget ved å kombinere minst en tidssekvens fra den opprinnelige video på resultatsiden.
13. Fremgangsmåte i henhold til krav 12, karakterisert ved å velge den mist ene tidssekvens som respons for forekomsten av søkespørsmålstermer innenfor lydsporet til videoen, sceneforandringer i videoen, bevegelsesanalyse i videoen eller audioanalyse eller kombinasjoner av disse.
14. Fremgangsmåte i henhold til krav 12, karakterisert ved å konstruere et lydspor innenfor videosammendraget og kombinere lyden forbundet med den mist ene tidssekvens.
15. Fremgangsmåte i henhold til krav 1, karakterisert ved å la klienten hurtiglagre videosammendrag etter streaming, slik at etterfølgende tilbakespilling ikke behøver ytterligere streaming av videodata.
16. Fremgangsmåte i henhold til krav 1, karakterisert ved å kode videosammendrag med flashteknologi.
17. Fremgangsmåte i henhold til krav 1, karakterisert ved å avspille videosammendragene i langsom bevegelse.
18. Fremgangsmåte i henhold til krav 1, karakterisert ved konstruere videosammendraget adaptivt slik at streamingkravene samsvarer med ytelsene til en overføringslinje til klienten som foretar et videosøk.
19. Fremgangsmåte i henhold til krav 1, karakterisert ved å integrere annonseinformasjon innenfor videosammendragene.
20. Fremgangsmåte i henhold til krav 19, karakterisert ved å integrere annonseinformasjonen ved å blande annonse-videosekvenser med valgte sekvenser fra de opprinnelige videodata.
21. Fremgangsmåte i henhold til krav 20, karakterisert ved å innbefatte i videosammendraget en blant sponsede lenker fra betalte vevsøkemotorer, og som kan aktiveres av en sluttbruker under betraktning/streaming av videosammendraget, aktiverbare virtuelle grensesnittelementer (VGE) innenfor visningen av videosammendraget og som iverksetter handlinger som forbinder en bruker med en annonsør, eller visning og midler for sluttbruker for å kjøpe et multimediaobjekt slik som en sang eller video eller kombinasjoner av disse.
NO20054844A 2005-10-19 2005-10-19 Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon NO327155B1 (no)

Priority Applications (6)

Application Number Priority Date Filing Date Title
NO20054844A NO327155B1 (no) 2005-10-19 2005-10-19 Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon
PCT/NO2006/000361 WO2007046708A1 (en) 2005-10-19 2006-10-18 Intelligent video summaries in information access
US11/793,389 US8296797B2 (en) 2005-10-19 2006-10-18 Intelligent video summaries in information access
GB0711264A GB2436244A (en) 2005-10-19 2006-10-18 Intelligent video summaries in information access
US13/657,573 US9122754B2 (en) 2005-10-19 2012-10-22 Intelligent video summaries in information access
US14/840,857 US9372926B2 (en) 2005-10-19 2015-08-31 Intelligent video summaries in information access

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
NO20054844A NO327155B1 (no) 2005-10-19 2005-10-19 Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon

Publications (3)

Publication Number Publication Date
NO20054844D0 NO20054844D0 (no) 2005-10-19
NO20054844L NO20054844L (no) 2007-04-20
NO327155B1 true NO327155B1 (no) 2009-05-04

Family

ID=35428090

Family Applications (1)

Application Number Title Priority Date Filing Date
NO20054844A NO327155B1 (no) 2005-10-19 2005-10-19 Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon

Country Status (4)

Country Link
US (3) US8296797B2 (no)
GB (1) GB2436244A (no)
NO (1) NO327155B1 (no)
WO (1) WO2007046708A1 (no)

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8671362B2 (en) * 2006-01-16 2014-03-11 Sony Corporation Content and/or service presentation device and method and information storage medium
US7728868B2 (en) 2006-08-02 2010-06-01 Inneroptic Technology, Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US7793230B2 (en) * 2006-11-30 2010-09-07 Microsoft Corporation Search term location graph
US8103646B2 (en) * 2007-03-13 2012-01-24 Microsoft Corporation Automatic tagging of content based on a corpus of previously tagged and untagged content
WO2009001683A1 (ja) * 2007-06-28 2008-12-31 Sharp Kabushiki Kaisha 表示装置及び表示方法
US8503523B2 (en) 2007-06-29 2013-08-06 Microsoft Corporation Forming a representation of a video item and use thereof
US8904442B2 (en) * 2007-09-06 2014-12-02 At&T Intellectual Property I, Lp Method and system for information querying
KR100867005B1 (ko) * 2007-09-19 2008-11-10 한국전자통신연구원 개인 맞춤형 멀티미디어 데이터 검색 서비스 방법 및 그의 장치들
WO2009094646A2 (en) 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US9892028B1 (en) 2008-05-16 2018-02-13 On24, Inc. System and method for debugging of webcasting applications during live events
US8239896B2 (en) * 2008-05-28 2012-08-07 Sony Computer Entertainment America Inc. Integration of control data into digital broadcast content for access to ancillary information
US10430491B1 (en) 2008-05-30 2019-10-01 On24, Inc. System and method for communication between rich internet applications
US8306969B2 (en) * 2008-09-23 2012-11-06 Microsoft Corporation Linking search queries to rich media themes
US20100211561A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Providing representative samples within search result sets
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US11464578B2 (en) 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
US8690776B2 (en) 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US8645134B1 (en) * 2009-11-18 2014-02-04 Google Inc. Generation of timed text using speech-to-text technology and applications thereof
EP2354973A1 (en) * 2010-02-05 2011-08-10 Research In Motion Limited Display placeholders for rich media content
US8392832B2 (en) * 2010-02-05 2013-03-05 Research In Motion Limited Display placeholders for rich media content
DE102010016323A1 (de) * 2010-04-04 2011-10-06 Tim Frey Newreporter System, Anordnungen und Verfahren für Videoplattformen
US8706812B2 (en) 2010-04-07 2014-04-22 On24, Inc. Communication console with component aggregation
US11438410B2 (en) 2010-04-07 2022-09-06 On24, Inc. Communication console with component aggregation
US8988458B2 (en) * 2010-04-13 2015-03-24 At&T Intellectual Property I, L.P. System and method for generating media thumbscapes
US9628673B2 (en) 2010-04-28 2017-04-18 Microsoft Technology Licensing, Llc Near-lossless video summarization
CN102291373B (zh) * 2010-06-15 2016-08-31 华为技术有限公司 元数据文件的更新方法、装置和***
KR20120054672A (ko) * 2010-10-27 2012-05-31 주식회사 케이티테크 미디어 컨텐츠 제공 방법 및 이를 위한 장치
US8959071B2 (en) 2010-11-08 2015-02-17 Sony Corporation Videolens media system for feature selection
US9753609B2 (en) * 2010-12-03 2017-09-05 Facebook, Inc. User interface with media wheel facilitating viewing of media objects
US8689269B2 (en) * 2011-01-27 2014-04-01 Netflix, Inc. Insertion points for streaming video autoplay
US9792363B2 (en) * 2011-02-01 2017-10-17 Vdopia, INC. Video display method
US9473449B2 (en) * 2011-02-10 2016-10-18 Jeffrey J. Ausfeld Multi-platform collaboration appliance
US8584167B2 (en) 2011-05-31 2013-11-12 Echostar Technologies L.L.C. Electronic programming guides combining stored content information and content provider schedule information
US8645353B2 (en) 2011-06-23 2014-02-04 Microsoft Corporation Anchor image identification for vertical video search
US8645354B2 (en) 2011-06-23 2014-02-04 Microsoft Corporation Scalable metadata extraction for video search
US8938393B2 (en) 2011-06-28 2015-01-20 Sony Corporation Extended videolens media engine for audio recognition
US9204175B2 (en) * 2011-08-03 2015-12-01 Microsoft Technology Licensing, Llc Providing partial file stream for generating thumbnail
US8627349B2 (en) 2011-08-23 2014-01-07 Echostar Technologies L.L.C. User interface
EP2579609A1 (en) * 2011-10-06 2013-04-10 Thomson Licensing Method and apparatus for providing information for a multimedia content item
US10387503B2 (en) * 2011-12-15 2019-08-20 Excalibur Ip, Llc Systems and methods involving features of search and/or search integration
US8887306B1 (en) * 2011-12-20 2014-11-11 Google Inc. System and method for sending searchable video messages
WO2013116240A1 (en) 2012-01-30 2013-08-08 Inneroptic Technology, Inc. Multiple medical device guidance
US8935725B1 (en) * 2012-04-16 2015-01-13 Google Inc. Visually browsing videos
US10296516B2 (en) * 2012-05-21 2019-05-21 Here Global B.V. Method and apparatus for navigation using multiple synchronized mobile devices
US9304992B2 (en) * 2012-07-11 2016-04-05 Cellco Partnership Story element indexing and uses thereof
US8753065B2 (en) 2012-09-27 2014-06-17 United Technologies Corporation Method for setting a gear ratio of a fan drive gear system of a gas turbine engine
US20140173503A1 (en) * 2012-12-18 2014-06-19 Michael R. Catania System and Method for the Obfuscation, Non-Obfuscation, and De-Obfuscation of Online Text and Images
US10314559B2 (en) 2013-03-14 2019-06-11 Inneroptic Technology, Inc. Medical device guidance
US9602875B2 (en) 2013-03-15 2017-03-21 Echostar Uk Holdings Limited Broadcast content resume reminder
US8973038B2 (en) 2013-05-03 2015-03-03 Echostar Technologies L.L.C. Missed content access guide
US9930404B2 (en) 2013-06-17 2018-03-27 Echostar Technologies L.L.C. Event-based media playback
US9848249B2 (en) 2013-07-15 2017-12-19 Echostar Technologies L.L.C. Location based targeted advertising
US9066156B2 (en) * 2013-08-20 2015-06-23 Echostar Technologies L.L.C. Television receiver enhancement features
US10297287B2 (en) 2013-10-21 2019-05-21 Thuuz, Inc. Dynamic media recording
US20150113364A1 (en) * 2013-10-21 2015-04-23 Tata Consultancy Services Limited System and method for generating an audio-animated document
US11429781B1 (en) 2013-10-22 2022-08-30 On24, Inc. System and method of annotating presentation timeline with questions, comments and notes using simple user inputs in mobile devices
US9400833B2 (en) * 2013-11-15 2016-07-26 Citrix Systems, Inc. Generating electronic summaries of online meetings
CN105830458A (zh) 2013-12-11 2016-08-03 基文影像公司 用于控制图像流显示的***和方法
US9860477B2 (en) 2013-12-23 2018-01-02 Echostar Technologies L.L.C. Customized video mosaic
US9420333B2 (en) 2013-12-23 2016-08-16 Echostar Technologies L.L.C. Mosaic focus control
US9411808B2 (en) 2014-03-04 2016-08-09 Microsoft Technology Licensing, Llc Automapping of music tracks to music videos
US9519709B2 (en) 2014-03-12 2016-12-13 Here Global B.V. Determination of an ordered set of separate videos
US10282469B2 (en) * 2014-03-25 2019-05-07 Oath Inc. System and method for summarizing a multimedia content item
KR102170694B1 (ko) * 2014-07-07 2020-10-27 한화테크윈 주식회사 비디오써머리를 제공하는 영상재생장치 및 영상재생장치에서 비디오써머리를 제공하는 방법
US12014612B2 (en) 2014-08-04 2024-06-18 LiveView Technologies, Inc. Event detection, event notification, data retrieval, and associated devices, systems, and methods
US10645459B2 (en) * 2014-08-04 2020-05-05 Live View Technologies Devices, systems, and methods for remote video retrieval
US11495102B2 (en) 2014-08-04 2022-11-08 LiveView Technologies, LLC Devices, systems, and methods for remote video retrieval
US9621959B2 (en) 2014-08-27 2017-04-11 Echostar Uk Holdings Limited In-residence track and alert
US9936248B2 (en) 2014-08-27 2018-04-03 Echostar Technologies L.L.C. Media content output control
US9628861B2 (en) 2014-08-27 2017-04-18 Echostar Uk Holdings Limited Source-linked electronic programming guide
US9681196B2 (en) 2014-08-27 2017-06-13 Echostar Technologies L.L.C. Television receiver-based network traffic control
US9681176B2 (en) 2014-08-27 2017-06-13 Echostar Technologies L.L.C. Provisioning preferred media content
US10785325B1 (en) 2014-09-03 2020-09-22 On24, Inc. Audience binning system and method for webcasting and on-line presentations
US9565474B2 (en) 2014-09-23 2017-02-07 Echostar Technologies L.L.C. Media content crowdsource
US9901406B2 (en) 2014-10-02 2018-02-27 Inneroptic Technology, Inc. Affected region display associated with a medical device
US10536758B2 (en) 2014-10-09 2020-01-14 Thuuz, Inc. Customized generation of highlight show with narrative component
US10419830B2 (en) 2014-10-09 2019-09-17 Thuuz, Inc. Generating a customized highlight sequence depicting an event
US11863848B1 (en) 2014-10-09 2024-01-02 Stats Llc User interface for interaction with customized highlight shows
US10433030B2 (en) 2014-10-09 2019-10-01 Thuuz, Inc. Generating a customized highlight sequence depicting multiple events
US10188467B2 (en) 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
US10984248B2 (en) * 2014-12-15 2021-04-20 Sony Corporation Setting of input images based on input music
US9847101B2 (en) * 2014-12-19 2017-12-19 Oracle International Corporation Video storytelling based on conditions determined from a business object
US10432296B2 (en) 2014-12-31 2019-10-01 DISH Technologies L.L.C. Inter-residence computing resource sharing
US9800938B2 (en) 2015-01-07 2017-10-24 Echostar Technologies L.L.C. Distraction bookmarks for live and recorded video
KR102271741B1 (ko) 2015-01-14 2021-07-02 삼성전자주식회사 원본 컨텐츠와 연계된 편집 영상의 생성 및 디스플레이
US9949700B2 (en) 2015-07-22 2018-04-24 Inneroptic Technology, Inc. Medical device approaches
US9675319B1 (en) 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
US20170243255A1 (en) * 2016-02-23 2017-08-24 On24, Inc. System and method for generating, delivering, measuring, and managing media apps to showcase videos, documents, blogs, and slides using a web-based portal
US10015539B2 (en) 2016-07-25 2018-07-03 DISH Technologies L.L.C. Provider-defined live multichannel viewing events
EP3296890A1 (en) * 2016-09-20 2018-03-21 Facebook, Inc. Video keyframes display on online social networks
US10645142B2 (en) 2016-09-20 2020-05-05 Facebook, Inc. Video keyframes display on online social networks
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10021448B2 (en) 2016-11-22 2018-07-10 DISH Technologies L.L.C. Sports bar mode automatic viewing determination
US10277953B2 (en) 2016-12-06 2019-04-30 The Directv Group, Inc. Search for content data in content
US10068616B2 (en) 2017-01-11 2018-09-04 Disney Enterprises, Inc. Thumbnail generation for video
US10755724B2 (en) 2017-05-04 2020-08-25 Rovi Guides, Inc. Systems and methods for adjusting dubbed speech based on context of a scene
US11259879B2 (en) 2017-08-01 2022-03-01 Inneroptic Technology, Inc. Selective transparency to assist medical device navigation
US11188822B2 (en) 2017-10-05 2021-11-30 On24, Inc. Attendee engagement determining system and method
US11281723B2 (en) 2017-10-05 2022-03-22 On24, Inc. Widget recommendation for an online event using co-occurrence matrix
US10909378B2 (en) 2017-11-07 2021-02-02 Comcast Cable Communications, Llc Processing content based on natural language queries
US11484365B2 (en) 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
CN110475129B (zh) * 2018-03-05 2021-05-28 腾讯科技(深圳)有限公司 视频处理方法、介质及服务器
US11594028B2 (en) 2018-05-18 2023-02-28 Stats Llc Video processing for enabling sports highlights generation
US11025985B2 (en) 2018-06-05 2021-06-01 Stats Llc Audio processing for detecting occurrences of crowd noise in sporting event television programming
US11264048B1 (en) 2018-06-05 2022-03-01 Stats Llc Audio processing for detecting occurrences of loud sound characterized by brief audio bursts
US20200007947A1 (en) * 2018-06-30 2020-01-02 Wipro Limited Method and device for generating real-time interpretation of a video
US20200186852A1 (en) * 2018-12-07 2020-06-11 Arris Enterprises Llc Methods and Systems for Switching Between Summary, Time-shifted, or Live Content
US11902621B2 (en) * 2018-12-17 2024-02-13 Arris Enterprises Llc System and method for media stream filler detection and smart processing for presentation
US11089356B2 (en) 2019-03-26 2021-08-10 Rovi Guides, Inc. Systems and methods for media content hand-off based on type of buffered data
US20210034662A1 (en) * 2019-07-31 2021-02-04 Rovi Guides, Inc. Systems and methods for managing voice queries using pronunciation information
CN111694984B (zh) * 2020-06-12 2023-06-20 百度在线网络技术(北京)有限公司 视频搜索方法、装置、电子设备及可读存储介质
US11670085B2 (en) * 2020-11-05 2023-06-06 Adobe Inc. Personalizing videos with nonlinear playback
US11860946B2 (en) * 2022-01-11 2024-01-02 Kyndryl, Inc. Autonomous webpage content summation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030084648A (ko) * 2002-04-22 2003-11-01 삼성전자주식회사 휴대용 단말기의 소화면 표시장치 및 방법
US20040045040A1 (en) * 2000-10-24 2004-03-04 Hayward Monte Duane Method of sizing an embedded media player page
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
US20050169366A1 (en) * 2004-02-02 2005-08-04 Clark Adam L. System and method for compressing and encoding video
WO2007009238A1 (en) * 2005-07-19 2007-01-25 March Networks Corporation Temporal data previewing system
EP1777615A2 (en) * 2005-10-12 2007-04-25 Sony Corporation Data management device and method for managing a recording medium

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990072122A (ko) * 1995-12-12 1999-09-27 바자니 크레이그 에스 실시간 영상 전송 방법 및 장치
US6396941B1 (en) * 1996-08-23 2002-05-28 Bacus Research Laboratories, Inc. Method and apparatus for internet, intranet, and local viewing of virtual microscope slides
US5900868A (en) * 1997-04-01 1999-05-04 Ati International Method and apparatus for multiple channel display
WO2000005884A1 (en) 1998-07-20 2000-02-03 Mate - Media Access Technologies Ltd. A method of automatic selection of video channels
US6636238B1 (en) * 1999-04-20 2003-10-21 International Business Machines Corporation System and method for linking an audio stream with accompanying text material
US20010049826A1 (en) * 2000-01-19 2001-12-06 Itzhak Wilf Method of searching video channels by content
AU2001238146A1 (en) * 2000-02-10 2001-08-20 Chyron Corporation Incorporating graphics and interactive triggers in a video stream
US7624337B2 (en) * 2000-07-24 2009-11-24 Vmark, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
US20020038456A1 (en) * 2000-09-22 2002-03-28 Hansen Michael W. Method and system for the automatic production and distribution of media content using the internet
US20020176604A1 (en) * 2001-04-16 2002-11-28 Chandra Shekhar Systems and methods for determining eye glances
KR100941388B1 (ko) * 2001-04-24 2010-02-10 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 신호 발생 방법
GB2388739B (en) * 2001-11-03 2004-06-02 Dremedia Ltd Time ordered indexing of an information stream
US20030152904A1 (en) * 2001-11-30 2003-08-14 Doty Thomas R. Network based educational system
US20060117365A1 (en) * 2003-02-14 2006-06-01 Toru Ueda Stream output device and information providing device
JP4789802B2 (ja) * 2003-04-25 2011-10-12 アップル インコーポレイテッド メディアアイテムをブラウズ、サーチおよび提示するグラフィカルユーザインタフェース
US20050198006A1 (en) * 2004-02-24 2005-09-08 Dna13 Inc. System and method for real-time media searching and alerting
WO2006011819A1 (en) * 2004-07-30 2006-02-02 Eurekster, Inc. Adaptive search engine
US9860599B2 (en) * 2005-06-17 2018-01-02 At&T Intellectual Property I, L.P. Methods, systems, and products for providing sample content
US20070024705A1 (en) * 2005-08-01 2007-02-01 Richter Roger K Systems and methods for video stream selection
US20070130203A1 (en) * 2005-12-07 2007-06-07 Ask Jeeves, Inc. Method and system to provide targeted advertising with search results
US20070140572A1 (en) * 2005-12-19 2007-06-21 Xerox Corporation Decompression for printing and display systems
US7840977B2 (en) * 2005-12-29 2010-11-23 United Video Properties, Inc. Interactive media guidance system having multiple devices
US20070244902A1 (en) * 2006-04-17 2007-10-18 Microsoft Corporation Internet search-based television
US20070283391A1 (en) * 2006-06-02 2007-12-06 Jay Connelly Method and system for partitioning television channels in a platform
US20080066107A1 (en) * 2006-09-12 2008-03-13 Google Inc. Using Viewing Signals in Targeted Video Advertising

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
US20040045040A1 (en) * 2000-10-24 2004-03-04 Hayward Monte Duane Method of sizing an embedded media player page
KR20030084648A (ko) * 2002-04-22 2003-11-01 삼성전자주식회사 휴대용 단말기의 소화면 표시장치 및 방법
US20050169366A1 (en) * 2004-02-02 2005-08-04 Clark Adam L. System and method for compressing and encoding video
WO2007009238A1 (en) * 2005-07-19 2007-01-25 March Networks Corporation Temporal data previewing system
EP1777615A2 (en) * 2005-10-12 2007-04-25 Sony Corporation Data management device and method for managing a recording medium

Also Published As

Publication number Publication date
US9122754B2 (en) 2015-09-01
US20130132374A1 (en) 2013-05-23
US20080097970A1 (en) 2008-04-24
US9372926B2 (en) 2016-06-21
US20150370808A1 (en) 2015-12-24
NO20054844L (no) 2007-04-20
GB2436244A (en) 2007-09-19
WO2007046708A1 (en) 2007-04-26
GB0711264D0 (en) 2007-07-18
NO20054844D0 (no) 2005-10-19
US8296797B2 (en) 2012-10-23

Similar Documents

Publication Publication Date Title
US9372926B2 (en) Intelligent video summaries in information access
US10425668B2 (en) System and method for video conversations
US9947025B2 (en) Method and apparatus for providing search capability and targeted advertising for audio, image, and video content over the internet
US6581070B1 (en) Method for providing a compressed rendition of a video program in a format suitable for electronic searching and retrieval
US9286611B2 (en) Map topology for navigating a sequence of multimedia
US20080046406A1 (en) Audio and video thumbnails
US20080172615A1 (en) Video manager and organizer
JP5894149B2 (ja) Top−k処理を活用した意味の充実
US20140324907A1 (en) Visually-Represented Results To Search Queries In Rich Media Content
US20080215548A1 (en) Information search method and system
JP2005535018A (ja) メディアオブジェクトのコレクションの提示
JP2014032656A (ja) コンテンツ・リンクを生成する方法、装置およびプログラム
US20080005100A1 (en) Multimedia system and multimedia search engine relating thereto
JP2002007479A (ja) 検索情報表示方法、情報検索システム、検索サーバー、及び、検索サーバー用プログラムの記録媒体
KR101140318B1 (ko) 동영상 정보에 대응되어 저장되는 상업적 태그 등의 메타정보 기반 키워드 광고 서비스 방법 및 그 서비스를 위한시스템
JP2020065307A (ja) サーバおよびプログラム、動画配信システム
JP5552987B2 (ja) 検索結果出力装置、検索結果出力方法及び検索結果出力プログラム
KR102252522B1 (ko) 내용 기반 동영상 목차 자동생성 방법 및 시스템
CN111523069B (zh) 一种基于3d引擎实现电子书播放3d效果的方法及其***
KR20090110764A (ko) 멀티미디어 콘텐츠 정보에 포함된 메타 정보 기반 키워드광고 서비스 방법 및 그 서비스를 위한 시스템
KR20110042626A (ko) 전자액자의 이미지 표시 방법 및 장치
KR20080006995A (ko) 동영상 검색 시스템
WO2023003555A1 (en) Automated generation of immersive interfaces
WO2024120646A1 (en) Device and method for multimodal video analysis
JP2020065308A (ja) サーバおよびプログラム

Legal Events

Date Code Title Description
CREP Change of representative

Representative=s name: BRYN AARFLOT AS, POSTBOKS 449 SENTRUM, 0104 OSLO,

CHAD Change of the owner's name or address (par. 44 patent law, par. patentforskriften)

Owner name: MICROSOFT CORPORATION, US

CHAD Change of the owner's name or address (par. 44 patent law, par. patentforskriften)

Owner name: MICROSOFT TECHNOLOGY LICENSING, US

MM1K Lapsed by not paying the annual fees