NO327155B1 - Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon - Google Patents
Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon Download PDFInfo
- Publication number
- NO327155B1 NO327155B1 NO20054844A NO20054844A NO327155B1 NO 327155 B1 NO327155 B1 NO 327155B1 NO 20054844 A NO20054844 A NO 20054844A NO 20054844 A NO20054844 A NO 20054844A NO 327155 B1 NO327155 B1 NO 327155B1
- Authority
- NO
- Norway
- Prior art keywords
- video
- procedure according
- search
- streaming
- videos
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004458 analytical method Methods 0.000 claims abstract description 22
- 238000013518 transcription Methods 0.000 claims description 8
- 230000035897 transcription Effects 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 7
- 210000003813 thumb Anatomy 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 3
- 230000009471 action Effects 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims 1
- 229920001690 polydopamine Polymers 0.000 abstract description 4
- 238000009987 spinning Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 241000271274 Cleopatra Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
- G06F16/739—Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/957—Browsing optimisation, e.g. caching or content distillation
- G06F16/9577—Optimising the visualization of content, e.g. distillation of HTML documents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/454—Content or additional data filtering, e.g. blocking advertisements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47202—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Library & Information Science (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Information Transfer Between Computers (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Oppfinnelsen angår en fremgangsmåte og apparat for å vise videodata innen resultatpresentasjoner i informasjonsaksessystemer. Oppfinnelsen viser forskjellige måter for å konstruere en initial resultatside med tommelnegler som er kompakte og som kan lastes ned på en meget effektiv måte. Videre angis innholdsbaserte video- og audioanalyseverktøy for å sikre kvalitet og søkespørsmålsrelevans for tommelneglene. Det vises hvordan videoresultatsiden effektivt kan skumleses ved å skaffe streaming av videosammendrag på forespørsel og i kontekst. Det vises forskjellige måter for å beregne videosammendrag, med høy kvalitet og avhengig av søkespørsmålene. Videre vises det hvordan videoannonsering kan innleires i videosammendragene. En rekke mulige utførelser av oppfinnelsen vises innbefattet klientaksess fra PCer, telefoner, PDAer og spinninnretninger.
Description
Oppfinnelsen angår en fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i informasjonsaksessystemer eller
informasjonssøkesystemer, hvor fremgangsmåten omfatter trinn for å benytte søkespørsmål på et sett av videoer, og identifisere tilsvarende videoer, og å fremstille en resultatside med minst en av de mest relevante videoer.
Det er kjent en rekke systemer som er blitt utført for å komprimere, dekomprimere og avspille digitale videoer på mobil- og datamaskinbaserte systemer. Spesielt er slike systemer blitt utført for å se på video over datamaskinnettverk, trådløse nettverk og mobile nettverk. Disse systemene er i stand til å komprimere og streame videoinnholdet over datanettverk så som Internett, og å utføre dekomprimering og avspilling på en datamaskininnretning så som en PC eller mobiltelefon. Kjente teknikker innbefatter også fremgangsmåter for å søke videoinformasjon og som er basert på eksterne metadata, innleirede metadata, innholdsbasert analyse og tale- eller fonetisk transkripsjon av lydsporet i videoen. I den forbindelse er såkalte tommelnegler blitt benyttet i kjent teknikk. Tommelneglene er miniatyrversjoner av et bilde eller en elektronisk versjon av en side som generelt benyttes for å tillate hurtig titting gjennom en rekke bilder eller sider. For eksempel inneholder sider på World Wide Web ofte tommelnegler i form av bilder. Disse tommelneglene kan webleseren nedlaste langt hurtigere enn et bilde i full størrelse. I mange tilfeller kan også sluttbrukeren klikke på disse tommelneglene for å laste ned den fullstendige versjon av bildet. Slik det vil være kjent for fagfolk, viser den kjente teknikk fremgangsmåter for å danne tommelnegler sa som en JPEG av et valgt stillbilde i en video for å illustrere videoen i en resultatside ved informasjonsaksessløsninger.
Gitt den økende betydning av video og bevegelige bilder som generelt kan
fås fra innholdsmagasiner, f.eks. i form av databaser, og som tilbys sluttbrukerne via datakommunikasjonssystemer, herunder både ekstranett eller intranett, tilbyr et økende antall av informasjonsleverandører på
Internett også sluttbrukerne en enorm mengde videobilder eller digitale filmbilder ofte for salg eller med betaling for enkeltbruk (pay per vie w). Den veldige vekst i mengden av informasjon av denne art og dens økende betydning, spesielt i forbrukermarkedet for informasjonstjenester, har skapt et behov for å forbedre en initial resultatside med bruk av tommelnegler for å lette skumlesing av et enormt reelt innhold.
Følgelig er det en hovedhensikt med den foreliggende oppfinnelse å skaffe en fremgangsmåte for å konstruere en initial resultatside med tommelnegler og som er kompakt og kan lastes ned på en meget effektiv måte. En annen hensikt med den foreliggende oppfinnelse er å skaffe et verktøy for video og audioanalyse for å sikre kvaliteten og spørsmålsrelevansen for tommelneglene.
En tredje hensikt med oppfinnelse er å skaffe effektiv skumlesning av en videoresultatside ved på forespørsel å skaffe streaming av videosammendrag innenfor konteksten.
En fjerde hensikt med oppfinnelsen er å vise hvordan videosammendrag kan beregnes med høy kvalitet og avhengig av søkespørsmål.
Endelig er det en siste hensikt med oppfinnelsen å generere videosammendrag med innleiret videoannonsering.
De ovennevnte hensikter så vel som ytterligere trekk og fordeler realiseres i henhold til den foreliggende oppfinnelse med en fremgangsmåte som er kjennetegnet ved trinn for å forhåndsberegne komprimerte tommelnegler for videoene i en resultatside, å benytte en eller flere forhåndsberegnede, komprimerte tommelnegler på resultatsiden, å iverksette et brukervalg av en video i resultatsiden, og å aktivere streaming av et videosammendrag innenfor konteksten til den forbundne resultatside.
Ytterligere trekk og fordeler vil fremgå av de vedføyde uselvstendige krav.
Fremgangsmåten i henhold til den foreliggende oppfinnelse skal forståes bedre av den etterfølgende detaljerte beskrivelse av eksemplifiserende utførelser og lest i samband med den vedføyde tegning på hvilken fig. 1 illustrerer et blokkdiagram for en eksemplifiserende søkemotorarkitektur,
fig. 2 hvordan dokumentattributter på forskjellige måter kan gis et sammendrag over en resultatmengde,
fig. 3 viser en semantisk oppspalting av en tekst med dokumentegenskaper innleiret i en semantisk struktur,
fig. 4 et eksempel på tekstformattert XML,
fig. 5 nøkkelkomponenter i et informasjonsaksessystem for videoinnhold,
fig. 6 nøkkelkomponenter i et tale-til-tekstsystem,
fig. 7 viser et utgangseksempel på en tale-til-tekstanalyse av lydsporet i en video,
fig. 8 viser hvordan forskjellige innholdskilder kan gjøres tilgjengelige for streaming innenfor konteksten av resultatbetraktning i informasjonsaksessen,
fig. 9 viser viktige byggestener i konstruksjonen av intelligente videosammendrag,
fig. 10 og 14 eksempler på typiske vevgrensesnitt for søkemotorer som skaffer aksess til videoinnhold,
fig. 11 forskjellige muligheter for å visualisere et videosammendrag,
fig. 12 viser en slideshowbetraktning av bilder i et videosammendrag,
fig. 13 viser forholdet mellom kompakte videotommelnegler og streaming av videosammendrag ved brukervalg,
fig. 14 et annet eksempel på et typisk vevgrensesnitt for søkemotorer som skaffer aksess til videoinnhold,
fig. 15 hvordan det i henhold til kjent teknikk velges et enkelt bilde eller bare en forkortet versjon av en video for forhåndsvisninger,
fig. 16 viser hvordan nøkkelbilder og forbundne tidssekvenser velges og settes sammen for å danne et videosammendrag sammen med lydsporet, og fig. 17 hvordan videotommelneglen og videosammendraget kan innfanges i en flashkoding og tilbys som interaktiv streaming på forespørsel til sluttbrukeren.
Nå skal forskjellige utførelser av fremgangsmåten i henhold til den foreliggende oppfinnelse vises og drøftes i noen detalj. Disse utførelser innbefatter klientaksess, dvs. sluttbrukeraksess fra personlige datamaskiner, mobiltelefoner, PDAer og spilleinnretninger. Det skal forståes at overalt i fremstillingen benyttes begrepet "video", "videodata" eller "videodokumenter" til å betegne enhver digital bevegelig bildestørrelse og således kan de tas i betydningen en streamet film, en videofil, et webinar eller en levende sending. Videre er begrepet tidssekvens i en video ment å skulle bety påfølgende bilder, eller delbilder mellom en startoffset og en sluttoffset i videoen.
Fremgangsmåten i henhold til den foreliggende oppfinnelse skal også tas i betraktning på bakgrunn av de teknologier som for tiden er under utvikling for aksessering, søking, gjenfinning og adressering av informasjon som f.eks. befinner seg i dokumentsamlinger som er tilgjengelig via datakommunikasjonsnettverk så som intranett og ekstranett. Med det formål å aksessere, søke, gjenfinne og analysere informasjon og innholdssamlinger så som databaser eller vevsteder, blir søkemotor vanligvis benyttet til å ta hånd om informasjon- og søkebehov som er umulig å tilfredsstille ved hjelp av f.eks. de mange brukerprogrammer så som vevlesere som benyttet på Internett (World Wide Web). Følgelig skal arkitekturen til en søkemotor først kort drøftes med henvisning til fig. 1 som viser typiske nøkkelkomponenter for en søkemotor.
På fig. 1 er søkemotoren vist omfattende forskjellige moduler 102-108. Søkemotoren kan aksessere innholdssamlinger (magasiner eller arkiver) 101 hvorfra innholdet enten aktivt kan skyves inn i søkemotoren eller via en datakobling trekkes inn i søkemotoren. Typiske samlinger eller arkiver omfatter databaser, kilder gjort tilgjengelige via ETL-(Extract-Transfor-Load)-verktøy så som Informatica, ethvert XML-formattert arkiv, filer fra filtjenere, filer fra webtjenere, dokumenthpndteringssystemer, innholdshåndteringssystemer, emailsystemer, kommunikasjonssystemer, samarbeidssystemer og rike media så som audio, bilder og video. Dokumentene leveres til en søkemotor via et innholds-API (Application Programming Interface) 102. Deretter blir dokumentene analysert i et innholdsanalysetrinn 103 for å forberede innholdet med tanke på forbedrede søke- og oppdagelsesoperasjoner. Typisk kan utgangen på dette trinn være en XML-representasjon av inngangdokumentet. Utgangen av innholdsanalyse benyttes til å mate en kjerne søkemotor 104. Kjernesøkemotoren 104 kan typisk være anlagt over en tjenerfarm på en fordelt måte for å behandle store dokumentmengder og høye søkespørsmålsbelastninger. Kjernesøkemotoren 104 kan motta brukeranmodninger og frembringe lister av overensstemmende dokumenter. Rangeringen av ordningen av dokumenter blir vanligvis bestemt i henhold til en relevansmodell som måler den sannsynlige betydning av et gitt dokument relativt til søkespørsmålet. I tillegg kan kjernesøkemotoren 104 frembringe ytterligere metadata om resultatsettet, så som sammendragsinformasjon for dokumentattributter. Alternativt kan utgangen fra innholdsanalysetrinnet mates inn i en alert- eller varselmotor 105. Varselmotoren 105 vil ha et lagret sett av søkespørsmål og kan bestemme hvilke søkespørsmål som ville ha godtatt gitte dokumentinnganger. En søkemotor kan aksesseres fra mange forskjellige klienter eller applikasjoner, av hvilken er vist mobil- eller datamaskinbaserte klientapplikasjoner 109; 110. Andre klienter innbefatter PDAer og spilleinnretninger. Disse klientene vil inngi anmodninger til et søke spørsmål-API 108. Søkemotoren vil typisk ha midler i form av et trinn 106 for søkespørsmålanalyser til å analysere og forfine søkespørsmålet for å konstruere et avledet søkespørsmål som kan ekstrahere mer meningsfylt informasjon. Endelig kan utgangen fra kjernesøkemotoren 104 typisk ytterligere analyseres i et resultatanalysetrinn 107 for å frembringe informasjon eller visualiseringer som benyttes av klientene 109 og 110. Begge trinn 106 og 107 er forbundet med kjernesøkemotoren 104, eventuelt også med varselmotoren 105, og i alle fall med søkespørsmål-API 108.
Fig. 2 viser hvordan et eksemplifiserende informasjonsaksessystem beregner sammendragsinformasjon for dokumenter. Søkespørsmålet blir først evaluert og returnerer et sett av N overensstemmende dokumenter. Relevansmodellen blir deretter benyttet til å rangere dokumentene fra de mest verdifulle til de
minst verdifulle relativt til søkespørsmålet (Di > D2 > D3). Typisk blir et gitt antall av de høyest rangerte dokumenter returnert til klienten og benyttes til å konstruere en resultatside. Attributtene forbundet med dokumentene kan være både metadata fra det opprinnelige innholdsarkiv eller metadata som er blitt oppdaget innenfor innholdsanalysen 103. Sammendragsinformasjonen blir enten beregnet på basis av et visst antall av de høyest rangerte dokumenter eller alle N dokumenter som tilfredsstiller søkespørsmålet. Fig. 2 viser noen eksempler på sammendraginformasjon så som frekvens, histogrammer og statistiske parametere. Med video som innholdsarkiv kan navigasjon anvendes på innleirede, strukturerte metadata som videostørrelse, videolengde, videokvalitet, videoformat eller tilknyttet tekstuelle metadata så som tekst eller ankertekst på vevsider forbundet med videoen. Videre kan tekstutgangen fra en tale-til-tekstanalyse benyttes som en primærtekst eller inngang til innholdsforfining som identifiserer størrelser benyttet for oppdagelse. Ekstraherte størrelser fra tale-til-tekstutgangen kan relateres tilbake til tidsforskyvninger i videoen. Følgelig kan søking og navigasjon
relateres tilbake til bilder eller tidssekvenser innenfor den opprinnelige video. Fig. 3 illustrerer kontekstuell dokumentanalyse i et søkemotoreksempel. Et inngangsdokument 301 oppspaltes i avsnitt 305 som blir viderespaltet i setninger 304. Innenfor setningene blir områder markert som dokumentegenskaper med spesifikke verdier 302 og 303. Dokumentegenskapene kan registreres i både en hel/original form og i en tilknyttet grunnform. Fig. 3 viser to eksempler på dette. 305 viser et eksempel hvor en dato er registrert i både den opprinnelige form (mars 202) og en normalisert grunnform (2002-03-XX). Den normaliserte grunnform forenkler profilering, områdesøk og robust generering av sammendragsinformasjon. Eksempler på dokumentegenskaper som kan gjenkjennes på en tilsvarende måte, innbefatter personnavn, firmanavn, steder, akronymer, datoer, filnavn, URLer, telefonnummer, postnummer, emailadresser, universiteter, aviser, prisinformasjon, produktinformasjon, numeriske attributter og børskoder. Dokumentegenskapene kan enten forbindes ved et gitt sted i dokumentet, et intervall eller et område i dokumentet, et tidspunkt eller tidsintervall i audioen og videoen, eller en struktur i en XML-representasjon av dokumentet. Igjen kan kontekstuell dokumentforfining benyttes til å analysere videosekvensen og forbinde forskjellige kontekster med stillbilder eller tidssekvenser innenfor videoen ved å utlede et tekstdokument fra transkripsjon av lyder i videoen. Fig. 4 illustrerer et typisk eksempel som kan være utgangen til en tale-til-tekstanalyse og påfølgende strukturering. Dokumentet er representert på en hierarkisk måte og tekstuelle så vel som andre attributtyper kan kodes på et vilkårlig nivå. XPath og XQuery er eksempler på strukturerte søkespråk som kan benyttes til å identifisere dokumenter og underdokumentstrukturer med spesifikke egenskaper. I dette eksempelet er det f.eks. mulig å se etter taler hvor taleren er Cleopatra, og det er en linje som nevner Caesar. Identifiserte XML-fragmenter vil ha forbundne tidspunkter og tidsintervaller i videosekvensen som ble benyttet til å utvinne den underliggende tekst. Fig. 5 viser noen nøkkelkomponenter i et informasjonsaksessystem for videodata. Et søk 501 utvinner enten fullstendige videoer 501 eller søkespørsmålsekvenser fra videoene. Tilknyttede tekstuelle og strukturerte metadata kan benyttes til å konstruere navigasjonsmidler 503. Ved enten å velge spesifikke resultater 502 eller navigering 504, kan brukeren aktivere avspilling av den forbundne video 506.
Fig. 6 illustrerer typiske komponenter i et tale-til-tekst-system. Lyden eller lydsporet innenfor en video analyseres. Utgangsdata kan i tillegg til den transkriberte tekst inneholde metadata så som konfidensnivå, deteksjon av sosialt kjønn, sceneforandringer, taleforandringer etc. Utgangen blir vanligvis representert som et XML-dokument som beskrevet i fig. 5 og som kan ytterligere analyseres og forfines med forfiningsmetoder basert på tekstuelt innhold. Hvert ord, XML-merke eller attributt vil derfor ha tilsvarende tidsforskyvning i den forbundne video. Analyse av den dannede XML kan følgelig benyttes som en basis for å identifisere bilder eller spesifikke tidssekvenser innenfor videoen under både søke- og navigasjonsoperasjoner innenfor informasjonsaksessystemet.
Fonetisk transkripsjoner er et alternativ til tale-til-tekst-transkripsjon av lydsporet i videoen. Fonetisk transkripsjon identifiserer fonemer i motsetning til fullstendige teksttranskripsjoner. Fonemsekvensene sammenlignes med den fonetiske representasjon av søkespørsmålet for å finne stedet innenfor lydsporet med de beste fonetiske likheter. Presisjonen blir vanligvis forbedret i fonetisk baserte søkesystemer, men det kan ikke utføres så meget analyse innbefattet metadatagenerering. Fig. 8 viser hvordan brukeren i informasjonsaksessystemet kan samvirke med streamingtjenester for forskjellige innholdstyper. Fig. 9 viser hovedtrinn i beregningen av videosammendrag. Videosammendrag kan frembringes som et utvalg fra den opprinnelige video. For å foreta en bilde-til-bilde-analyse av videoen, må inngangsvideoen dekomprimeres og omdannes til en sekvens av individuelle stillbilder. Typisk representerer hvert bilde som et bilde med RGB-kodede pikselsverdier under analysetrinnene i beregningen av videosammendraget. Hvert bilde har også en forbundet tidsforsinkelse relativt til begynnelsen av videoen og taletranskripsjonen kan relateres tilbake til de samme tidsforsinkelser fra begynnelsen av videoen. Etter valg av passende bilder for videosammendraget og potensielle størrelsesjusteringer for klientinnretninger, blir de resulterende bilder komprimert ved koding med videokodek. Videokodeker har tilpassbare innstillinger for kvalitet og bitrate. Ved følgelig å kombinere kodekvalg og ekstraksjonsrikdom for videsammendraget kan størrelse og båndviddekrav tilpasses videosammendraget. Flere videosammendrag kan enten forhåndsberegnes eller beregnes i forbifarten for å imøtekomme båndbreddeytelsene for forbindelsen til klienten som utfører søkeanmodningen. Det enkleste valg av bilder for et videosammendrag er en seksjon fra begynnelsen av videoen. En annen måte er å analysere videoen og å identifisere scener (uavbrutte kameraeksponeringer) og å velge et bilde for å representere hver scene. Disse bildene kan deretter vises som et slideshow for raskt å visualisere videoinnholdet. Alternativt kan et antall bilder velges fra hver scene og sammenstilles som en video. Den kan vises som en video av korte sceneklipp, omtrent på samme måte som traileren for en film. Sceneklippene kan enten benytte hvert bilde for et visst tidsintervall i den opprinnelige video eller redusere videoraten for å spare båndbredde under streamingprosessen. Videokodekene i videosammendraget kan også velges uavhengig av videokodeken benyttet i den opprinnelige videoen. Da noen videoer kan ha et stort antall scener, kan dessuten en seleksjonsmetode benyttes til å utvinne de mest relevante scener.
Informative scener kan identifiseres som et bilde eller bildesekvenser for å representere scenene ved bruk av flere teknikker. For å identifisere scener, er det nødvendig å se etter forandringer fra bilde til bilde i videoen, hvor store forandringer ofte angir sceneskifte. Også stedet innenfor bildet hvor forandringer forekommer må tas i betraktning, da en forandring i bakgrunnen mer sannsynlig vil angi sceneforandringer. Forskjeller mellom bilder kan beregnes ved å se på fargefordeling, tekstuell fordeling og objektbevegelsesmønstre i tillegg til romlig informasjon. Bevegelsesanalysen kan også selektivt fokusere på bakgrunns- eller forgrunnsobj ekter for å skille mellom kamerapanoreringsoperasjoner og objektbevegelser innefor scenen.
Etter å ha identifisert scener i videoen, må scener og bilder som skal benyttes i videosammendraget velges. Ved å se på bildedynamikken, så som fordelingen av farger (dvs. hvor mange farger) i bildene så vel som teksturfordeling, kan det unngås å inkludere ensfargede, sort-hvitt bilder og informasjons/tittelbilder (dvs. begynnelse og slutt av filmer) i videosammendraget unngås. Valg av hvilke scener som skal innbefattes i videosammendraget, kan gjøres ved å se på lengden og bevegelsen av en scene. For å maksimere dynamikken og brukererfaringen ved betraktning av videosammendrag, bør en scene inneholde en rimelig grad av bevegelse. I tillegg er de lengste scenene ofte de viktigste i en video. Ved å kombinere disse to kriterier, kan det velges scener som gir brukeren et hurtig sammendrag med høy kvalitet av den fullstendige video. I den endelige videosammendrag bør de valgte scener være organisert i den samme tidsmessige orden som i den opprinnelige video.
De valgte scener eller bildesekvenser fra videoen kan også gjøres spørsmålspesifikke hvis et lydspor er tilgjengelig. Lydsporet kan i dette tilfelle omdannes ved tekst-til-tale-analyse, og tekstsegmenter kan identifiseres for å korrelere søkespørsmålstermen til den transkriberte tekst. De identifiserte tekstsegmenter svarer til stillbilder eller tidssekvenser innenfor videoen, og som følgelig kan velges for å innbefattes i et videosammendrag. Videosammendraget bør inneholde tilstrekkelig med videobilder rundt forekomsten av søkespørsmålstermer for å sette brukeren i stand til å forstå konteksten for forekomsten innenfor videoen.
Videotommelnegler kan beregnes på basis av de samme teknikker som drøftet ovenfor for videosammendrag. Tommelneglene må lastes til resultatsiden når resultatsiden lastes initialt. Følgelig vil størrelsen på videotommelnegler direkte påvirke lastetiden og anvendeligheten til informasjonsaksessystemet. Videotommelnegler vil derfor typisk ekstrahere mye mindre data fra videoen enn videosammendraget. Typisk kan bare et lite sett av stillbilder betraktes som animerte - f.eks. ved å kode de valgte rammer innenfor et animert GIF-filformat.
Videotommelnegler og videosammendragene kan konstrueres uavhengig av innretningen eller optimeres for å påvirke f.eks. skjermoppløsning til mobile klientinnretninger. Forskjellige innretninger så som personlige datamaskiner, lommedatamaskiner og mobiltelefoner gir forskjellige ytelser med hensyn til behandling, lagring, visning og nettverkbåndbredde. Forskjellige mediainnhold spesialtilpasset innretningen kan genereres, så vel som omdannet mediainnhold i sanntid for å møte kravene til spesifikke innretninger.
Den foreliggende oppfinnelse kan fremlegges som en applikasjon så som i en PC eller mobil hyperlink-skumleser, slik som benyttet på World Wide Web. Presentasjonen av videodokumenter kan aktiveres når det velges en video ved å starte streamingen, f.eks. av audio, video, bilde-slideshow, videosammendrag eller en kombinasjon av de ovennevnte mediatyper. Dette innholdet kan representeres som en sekvens av forskjellige media som streames etter behov. Dette vil fjerne unødige båndbreddebelastning fra inaktive applikasjoner. Aktivering av en videogjenstand kan også utløse effekter for å fremheve valget. Slike visuelle effekter innbefatter, men er ikke begrenset til forandringer i video/bildefarger, videobilderate, audiovolum, fargetoningsfaktoren, og bilde/videovisningsstørrelse. Brukeraktivering av et spesifikt videoresultat kan f.eks. gjøres ved sveving (hovring), mus-over eller klikking på videoen i resultatsettet. En rekke teknologier står til rådighet for å understøtte virkelig streaming av beregnede videosammendrag. Et eksempel er flash med innleiret video i en kodek slik som mpeg4 som er høvelig for å minimere nødvendig båndbredde og fortsatt opprettholde god betraktningskvalitet. Avspillingen kan også gjøres ved en annen hastighet enn for den opprinnelige video. En visning i langsom bevegelse av videotommelnegler er en mulighet. Etter streaming kan klienten fange det streamede videosammendrag slik at gjentatte avspillinger kan oppnås uten å initiere ytterligere streamingoperasjoner. Kombinasjonen av videotommelnegl med minimal størrelse og høykvalitets videosammendrag som streames i konteksten og på anmodning gir en meget effektiv måte for raskt å utforske videoinnholdet. Resultatsider kan lastes meget hurtig på grunn av den lille størrelsen på den initialt nedlastede videotommelnegl. Hurtig nedlastningstid fremmer effektivitet og øker brukerens tilfredshet med informasjonsaksessystemer. Samtidig kan brukeren utforske det reelle innhold av videoene ved å streame videosammendrag. Avspilling av videosammendrag kan følgelig initieres umiddelbart etter brukerens valg, og brukeren kan til enhver tid fokusere på en annen video og svitsje streamingprosessen til en annen kilde. Kombinasjon av smart båndbreddeutnyttelse og levende streaming gjør også den foreliggende oppfinnelse til en attraktiv metode for å skumlese videoinnhold fra mobilinnretninger så som mobiltelefoner, PDAer og spillinnretninger. Fra mobilinnretningen kan en resultatside konstrueres som en rullbar sekvens av videotommelnegler eller videosammendrag i full størrelse for å utnytte skjermstørrelsen for betraktning på den best mulige måte.
Annonseringsmedier kan tilføyes i videosammendragene. Denne annonsering kan implementeres som bilder eller videosekvenser som ikke kan hoppes over før, under eller etter det anmodede media. De valgte annonser kan enten være forhåndsvalgt og innleiret i videosammendragene, eller dynamisk integrert i videosammendragene under streamingprosessen. Ved dynamisk integrering av annonseringsmedier kan annonsene velges ved søketidspunktet og følge eksisterende modeller for søkebasert annonsering så som de sponsede listingprogrammer som tilbys av websøkeleverandører (f.eks. Google og Yahoo). I tillegg til innsetting av annonsemediaobjekter i videosammendraget kan pådragbare annonseelementer settes inn. Eksempler på pådragbare annonseelementer innbefatter: • HTML-fragmenter med hyperlinker som kan aksesseres innenfor streambetraktninger av videosammendraget. Følgelig kan sponsede lenker direkte innleires i videosammendraget etter hvert som de dukker opp i vevsøkemotoren og muliggjøre brukeraktivering for å hoppe til den forbundne sponsorside. • Aktiverbar,e virtuelle grensesnittelementer (widgets) så som taster, lenker innenfor f.eks. flash som kan aktiveres av brukeren på ethvert tidspunkt under betraktning eller basisstreaming av video sammendraget. • Visning av kandidatmultimedia gjøres tilgjengelig slik at brukeren både får et tilbud om å kjøpe og kan utføre kjøpshandlingen mens videosammendraget betraktes. Multimediaeksempler innbefatter sang eller video versjoner av videoen svarende til betraktede videosammendrag og relaterte sanger, eller videoer som kan være interessante på basis av den valgte videosammendrag.
Endelig skal figurene 11-17 kort omtales for kort og oversiktelig å eksemplifisere resultater som kan oppnås med fremgangsmåten i henhold til den foreliggende oppfinnelse når den benyttes til beregning av intelligente videotommelnegler med mulighet for rask gjennomgang og skumlesing innenfor en resultatrepresentasjon fra en søkemotor. De i det følgende omtalte figurer 11-17 er i det store og hele selvforklarende og derfor behøves det ikke å gis noen detaljert drøfting. Fig. 11 illustrerer forskjellige kjente muligheter for å visualisere et videosammendrag. Fig. 12 viser en kjent slideshowvisning av bilder i et videosammendrag. Fig. 13 viser forholdet mellom kompakte videotommelnegler og streaming av videosammendrag ved brukervalg, slik det vil være mulig med den foreliggende oppfinnelse. Fig. 14, jf. også fig. 10, illustrerer kjente vevgrensesnitt for søkemotorer og som gir aksess til videoinnhold. Fig. 15 viser hvordan kjent teknikk velger ett enkelt bilde 1501 eller en forkortet versjon 1502 for forhåndsbetraktning. Fig. 16 viser hvordan hovedbilder og tilhørende nøkkelbilder og hvordan tilhørende tidssekvenser velges og settes sammen for å danne et videosammendrag innefor lydsporet., slik det vil være mulig med den foreliggende oppfinnelse. Fig. 17 viser hvordan videotommelneglen og videosammendraget kan fanges i en flashkoding og tilbys som interaktiv streaming på forespørsel fra sluttbrukeren, slik det vil være mulig med den foreliggende oppfinnelse.
Av det ovenstående vil det være innlysende for fagfolk at den foreliggende oppfinnelse i stor grad forbedrer mulighetene for å vise og visualisere videodata innenfor resultatpresentasjoner i systemer for informasjonsaksess og informasjonssøking.
Det fremgår innlysende at den dynamiske representasjon av videoinnholdet i tillegg til tekstbeskrivelser kan presentere brukeren mer informative søkespørsmålsresultater. Slike representasjoner kan innbefatte videosammendrag eller videotommelnegler, bilde slideshow, audio- eller bilde valg eller hvilke som helst kombinasjoner av dette, men er på ingen måte begrenset til disse.
Selv om den foreliggende oppfinnelsen er blitt beskrevet med henvisning til visse utførelser, skal det forståes av fagfolk at forskjellige forandringer kan gjøres og ekvivalenter settes inn uten å avvike fra oppfinnelsens ramme. I tillegg kan det gjøres mange modifikasjoner for å tilpasse en bestemt situasjon eller materiale til oppfinnelsens lære uten å avvike fra dens ramme. Følgelig er det hensikten at den ikke skal begrenses til spesielle utførelser som er vist, men at den foreliggende oppfinnelse innbefatter alle utførelser som faller innenfor rammen av de vedføyde krav.
Claims (21)
1. Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i informasjonsaksessystemer eller informasjonssøkesystemer, hvor fremgangsmåten omfatter trinn for å benytte søkespørsmål på et sett av videoer, og identifisere tilsvarende videoer, og å fremstille en resultatside med minst en av de mest relevante videoer, og hvor fremgangsmåten er karakterisert ved ytterligere trinn for
å forhåndsberegne komprimerte tommelnegler for videoene i en resultatside, å benytte en eller flere forhåndsberegnede, komprimerte tommelnegler på resultatsiden,
å iverksette et brukervalg av en video i resultatsiden, og å aktivere streaming av et videosammendrag innenfor konteksten til den forbundne resultatside.
2. Fremgangsmåte i henhold til krav 1,
karakterisert ved at de søkte videoer omfatter minst en blant videofiler, vevinarer, streaming videokilder eller direktesendt video.
3. Fremgangsmåte i henhold til krav 1,
karakterisert ved å basere, tilsvaret mellom søkespørsmålet og videoene på minst en blant tekstuelle metadata forbundet med videoen, strukturerte metadata forbundet med videoen og som innbefatter minst en blant videostørrelse, videolengde, videokvalitet eller videoformat, tekst utledet fra et lydspor ved hjelp av en tale-til-tekstanalyse, eller fonetisk transkripsjon utvunnet av lydsporet, eller kombinasjoner av de førnevnte.
4. Fremgangsmåte i henhold til krav 1,
karakterisert ved å optimere de forhåndsberegnede, komprimerte tommelnegler til visningsmulighetene for en klientinnretning benyttet til å betrakte søkeresultatene.
5. Fremgangsmåte i henhold til krav 1,
karakterisert ved å benytte minst ett stillbilde fra den forbundne video i den forhåndsberegnede, komprimerte tommelnegl.
6. Fremgangsmåte i henhold til krav 5,
karakterisert ved å velge det minst ene stillbilde som respons på forekomsten av søkespørsmålstermer innenfor videoens lydspor.
7. Fremgangsmåte i henhold til krav 1,
karakterisert ved å la brukervalget innbefatte enten hovring, mus-over, rulling eller klikking på en video i resultatmengden.
8. Fremgangsmåte i henhold til krav 1,.
karakterisert ved at resultatsiden er en vevside betraktet innenfor en skumleser.
9. Fremgangsmåte i henhold til krav 1,
karakterisert ved å benytte en trådløs mobilinnretning som klientinnretning.
10. Fremgangsmåte i henhold til krav 9,
karakterisert ved å fremlegge resultatsiden ved å rulle gjennom resultatvideoene individuelt i full skjermmodus.
11. Fremgangsmåte i henhold til krav 1,
karakterisert ved å optimere videosammendraget til visningsmulighetene for klientinnretningen benyttet for å betrakte søkeresultatene.
12. Fremgangsmåte i henhold til krav 1,
karakterisert ved å konstruere videosammendraget ved å kombinere minst en tidssekvens fra den opprinnelige video på resultatsiden.
13. Fremgangsmåte i henhold til krav 12,
karakterisert ved å velge den mist ene tidssekvens som respons for forekomsten av søkespørsmålstermer innenfor lydsporet til videoen, sceneforandringer i videoen, bevegelsesanalyse i videoen eller audioanalyse eller kombinasjoner av disse.
14. Fremgangsmåte i henhold til krav 12,
karakterisert ved å konstruere et lydspor innenfor videosammendraget og kombinere lyden forbundet med den mist ene tidssekvens.
15. Fremgangsmåte i henhold til krav 1,
karakterisert ved å la klienten hurtiglagre videosammendrag etter streaming, slik at etterfølgende tilbakespilling ikke behøver ytterligere streaming av videodata.
16. Fremgangsmåte i henhold til krav 1,
karakterisert ved å kode videosammendrag med flashteknologi.
17. Fremgangsmåte i henhold til krav 1,
karakterisert ved å avspille videosammendragene i langsom bevegelse.
18. Fremgangsmåte i henhold til krav 1,
karakterisert ved konstruere videosammendraget adaptivt slik at streamingkravene samsvarer med ytelsene til en overføringslinje til klienten som foretar et videosøk.
19. Fremgangsmåte i henhold til krav 1,
karakterisert ved å integrere annonseinformasjon innenfor videosammendragene.
20. Fremgangsmåte i henhold til krav 19,
karakterisert ved å integrere annonseinformasjonen ved å blande annonse-videosekvenser med valgte sekvenser fra de opprinnelige videodata.
21. Fremgangsmåte i henhold til krav 20,
karakterisert ved å innbefatte i videosammendraget en blant sponsede lenker fra betalte vevsøkemotorer, og som kan aktiveres av en sluttbruker under betraktning/streaming av videosammendraget, aktiverbare virtuelle grensesnittelementer (VGE) innenfor visningen av videosammendraget og som iverksetter handlinger som forbinder en bruker med en annonsør, eller visning og midler for sluttbruker for å kjøpe et multimediaobjekt slik som en sang eller video eller kombinasjoner av disse.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NO20054844A NO327155B1 (no) | 2005-10-19 | 2005-10-19 | Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon |
PCT/NO2006/000361 WO2007046708A1 (en) | 2005-10-19 | 2006-10-18 | Intelligent video summaries in information access |
US11/793,389 US8296797B2 (en) | 2005-10-19 | 2006-10-18 | Intelligent video summaries in information access |
GB0711264A GB2436244A (en) | 2005-10-19 | 2006-10-18 | Intelligent video summaries in information access |
US13/657,573 US9122754B2 (en) | 2005-10-19 | 2012-10-22 | Intelligent video summaries in information access |
US14/840,857 US9372926B2 (en) | 2005-10-19 | 2015-08-31 | Intelligent video summaries in information access |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NO20054844A NO327155B1 (no) | 2005-10-19 | 2005-10-19 | Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon |
Publications (3)
Publication Number | Publication Date |
---|---|
NO20054844D0 NO20054844D0 (no) | 2005-10-19 |
NO20054844L NO20054844L (no) | 2007-04-20 |
NO327155B1 true NO327155B1 (no) | 2009-05-04 |
Family
ID=35428090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20054844A NO327155B1 (no) | 2005-10-19 | 2005-10-19 | Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon |
Country Status (4)
Country | Link |
---|---|
US (3) | US8296797B2 (no) |
GB (1) | GB2436244A (no) |
NO (1) | NO327155B1 (no) |
WO (1) | WO2007046708A1 (no) |
Families Citing this family (114)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8671362B2 (en) * | 2006-01-16 | 2014-03-11 | Sony Corporation | Content and/or service presentation device and method and information storage medium |
US7728868B2 (en) | 2006-08-02 | 2010-06-01 | Inneroptic Technology, Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
US7793230B2 (en) * | 2006-11-30 | 2010-09-07 | Microsoft Corporation | Search term location graph |
US8103646B2 (en) * | 2007-03-13 | 2012-01-24 | Microsoft Corporation | Automatic tagging of content based on a corpus of previously tagged and untagged content |
WO2009001683A1 (ja) * | 2007-06-28 | 2008-12-31 | Sharp Kabushiki Kaisha | 表示装置及び表示方法 |
US8503523B2 (en) | 2007-06-29 | 2013-08-06 | Microsoft Corporation | Forming a representation of a video item and use thereof |
US8904442B2 (en) * | 2007-09-06 | 2014-12-02 | At&T Intellectual Property I, Lp | Method and system for information querying |
KR100867005B1 (ko) * | 2007-09-19 | 2008-11-10 | 한국전자통신연구원 | 개인 맞춤형 멀티미디어 데이터 검색 서비스 방법 및 그의 장치들 |
WO2009094646A2 (en) | 2008-01-24 | 2009-07-30 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for image guided ablation |
US9892028B1 (en) | 2008-05-16 | 2018-02-13 | On24, Inc. | System and method for debugging of webcasting applications during live events |
US8239896B2 (en) * | 2008-05-28 | 2012-08-07 | Sony Computer Entertainment America Inc. | Integration of control data into digital broadcast content for access to ancillary information |
US10430491B1 (en) | 2008-05-30 | 2019-10-01 | On24, Inc. | System and method for communication between rich internet applications |
US8306969B2 (en) * | 2008-09-23 | 2012-11-06 | Microsoft Corporation | Linking search queries to rich media themes |
US20100211561A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Providing representative samples within search result sets |
US8641621B2 (en) | 2009-02-17 | 2014-02-04 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures |
US11464578B2 (en) | 2009-02-17 | 2022-10-11 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures |
US8554307B2 (en) | 2010-04-12 | 2013-10-08 | Inneroptic Technology, Inc. | Image annotation in image-guided medical procedures |
US8690776B2 (en) | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
US8645134B1 (en) * | 2009-11-18 | 2014-02-04 | Google Inc. | Generation of timed text using speech-to-text technology and applications thereof |
EP2354973A1 (en) * | 2010-02-05 | 2011-08-10 | Research In Motion Limited | Display placeholders for rich media content |
US8392832B2 (en) * | 2010-02-05 | 2013-03-05 | Research In Motion Limited | Display placeholders for rich media content |
DE102010016323A1 (de) * | 2010-04-04 | 2011-10-06 | Tim Frey | Newreporter System, Anordnungen und Verfahren für Videoplattformen |
US8706812B2 (en) | 2010-04-07 | 2014-04-22 | On24, Inc. | Communication console with component aggregation |
US11438410B2 (en) | 2010-04-07 | 2022-09-06 | On24, Inc. | Communication console with component aggregation |
US8988458B2 (en) * | 2010-04-13 | 2015-03-24 | At&T Intellectual Property I, L.P. | System and method for generating media thumbscapes |
US9628673B2 (en) | 2010-04-28 | 2017-04-18 | Microsoft Technology Licensing, Llc | Near-lossless video summarization |
CN102291373B (zh) * | 2010-06-15 | 2016-08-31 | 华为技术有限公司 | 元数据文件的更新方法、装置和*** |
KR20120054672A (ko) * | 2010-10-27 | 2012-05-31 | 주식회사 케이티테크 | 미디어 컨텐츠 제공 방법 및 이를 위한 장치 |
US8959071B2 (en) | 2010-11-08 | 2015-02-17 | Sony Corporation | Videolens media system for feature selection |
US9753609B2 (en) * | 2010-12-03 | 2017-09-05 | Facebook, Inc. | User interface with media wheel facilitating viewing of media objects |
US8689269B2 (en) * | 2011-01-27 | 2014-04-01 | Netflix, Inc. | Insertion points for streaming video autoplay |
US9792363B2 (en) * | 2011-02-01 | 2017-10-17 | Vdopia, INC. | Video display method |
US9473449B2 (en) * | 2011-02-10 | 2016-10-18 | Jeffrey J. Ausfeld | Multi-platform collaboration appliance |
US8584167B2 (en) | 2011-05-31 | 2013-11-12 | Echostar Technologies L.L.C. | Electronic programming guides combining stored content information and content provider schedule information |
US8645353B2 (en) | 2011-06-23 | 2014-02-04 | Microsoft Corporation | Anchor image identification for vertical video search |
US8645354B2 (en) | 2011-06-23 | 2014-02-04 | Microsoft Corporation | Scalable metadata extraction for video search |
US8938393B2 (en) | 2011-06-28 | 2015-01-20 | Sony Corporation | Extended videolens media engine for audio recognition |
US9204175B2 (en) * | 2011-08-03 | 2015-12-01 | Microsoft Technology Licensing, Llc | Providing partial file stream for generating thumbnail |
US8627349B2 (en) | 2011-08-23 | 2014-01-07 | Echostar Technologies L.L.C. | User interface |
EP2579609A1 (en) * | 2011-10-06 | 2013-04-10 | Thomson Licensing | Method and apparatus for providing information for a multimedia content item |
US10387503B2 (en) * | 2011-12-15 | 2019-08-20 | Excalibur Ip, Llc | Systems and methods involving features of search and/or search integration |
US8887306B1 (en) * | 2011-12-20 | 2014-11-11 | Google Inc. | System and method for sending searchable video messages |
WO2013116240A1 (en) | 2012-01-30 | 2013-08-08 | Inneroptic Technology, Inc. | Multiple medical device guidance |
US8935725B1 (en) * | 2012-04-16 | 2015-01-13 | Google Inc. | Visually browsing videos |
US10296516B2 (en) * | 2012-05-21 | 2019-05-21 | Here Global B.V. | Method and apparatus for navigation using multiple synchronized mobile devices |
US9304992B2 (en) * | 2012-07-11 | 2016-04-05 | Cellco Partnership | Story element indexing and uses thereof |
US8753065B2 (en) | 2012-09-27 | 2014-06-17 | United Technologies Corporation | Method for setting a gear ratio of a fan drive gear system of a gas turbine engine |
US20140173503A1 (en) * | 2012-12-18 | 2014-06-19 | Michael R. Catania | System and Method for the Obfuscation, Non-Obfuscation, and De-Obfuscation of Online Text and Images |
US10314559B2 (en) | 2013-03-14 | 2019-06-11 | Inneroptic Technology, Inc. | Medical device guidance |
US9602875B2 (en) | 2013-03-15 | 2017-03-21 | Echostar Uk Holdings Limited | Broadcast content resume reminder |
US8973038B2 (en) | 2013-05-03 | 2015-03-03 | Echostar Technologies L.L.C. | Missed content access guide |
US9930404B2 (en) | 2013-06-17 | 2018-03-27 | Echostar Technologies L.L.C. | Event-based media playback |
US9848249B2 (en) | 2013-07-15 | 2017-12-19 | Echostar Technologies L.L.C. | Location based targeted advertising |
US9066156B2 (en) * | 2013-08-20 | 2015-06-23 | Echostar Technologies L.L.C. | Television receiver enhancement features |
US10297287B2 (en) | 2013-10-21 | 2019-05-21 | Thuuz, Inc. | Dynamic media recording |
US20150113364A1 (en) * | 2013-10-21 | 2015-04-23 | Tata Consultancy Services Limited | System and method for generating an audio-animated document |
US11429781B1 (en) | 2013-10-22 | 2022-08-30 | On24, Inc. | System and method of annotating presentation timeline with questions, comments and notes using simple user inputs in mobile devices |
US9400833B2 (en) * | 2013-11-15 | 2016-07-26 | Citrix Systems, Inc. | Generating electronic summaries of online meetings |
CN105830458A (zh) | 2013-12-11 | 2016-08-03 | 基文影像公司 | 用于控制图像流显示的***和方法 |
US9860477B2 (en) | 2013-12-23 | 2018-01-02 | Echostar Technologies L.L.C. | Customized video mosaic |
US9420333B2 (en) | 2013-12-23 | 2016-08-16 | Echostar Technologies L.L.C. | Mosaic focus control |
US9411808B2 (en) | 2014-03-04 | 2016-08-09 | Microsoft Technology Licensing, Llc | Automapping of music tracks to music videos |
US9519709B2 (en) | 2014-03-12 | 2016-12-13 | Here Global B.V. | Determination of an ordered set of separate videos |
US10282469B2 (en) * | 2014-03-25 | 2019-05-07 | Oath Inc. | System and method for summarizing a multimedia content item |
KR102170694B1 (ko) * | 2014-07-07 | 2020-10-27 | 한화테크윈 주식회사 | 비디오써머리를 제공하는 영상재생장치 및 영상재생장치에서 비디오써머리를 제공하는 방법 |
US12014612B2 (en) | 2014-08-04 | 2024-06-18 | LiveView Technologies, Inc. | Event detection, event notification, data retrieval, and associated devices, systems, and methods |
US10645459B2 (en) * | 2014-08-04 | 2020-05-05 | Live View Technologies | Devices, systems, and methods for remote video retrieval |
US11495102B2 (en) | 2014-08-04 | 2022-11-08 | LiveView Technologies, LLC | Devices, systems, and methods for remote video retrieval |
US9621959B2 (en) | 2014-08-27 | 2017-04-11 | Echostar Uk Holdings Limited | In-residence track and alert |
US9936248B2 (en) | 2014-08-27 | 2018-04-03 | Echostar Technologies L.L.C. | Media content output control |
US9628861B2 (en) | 2014-08-27 | 2017-04-18 | Echostar Uk Holdings Limited | Source-linked electronic programming guide |
US9681196B2 (en) | 2014-08-27 | 2017-06-13 | Echostar Technologies L.L.C. | Television receiver-based network traffic control |
US9681176B2 (en) | 2014-08-27 | 2017-06-13 | Echostar Technologies L.L.C. | Provisioning preferred media content |
US10785325B1 (en) | 2014-09-03 | 2020-09-22 | On24, Inc. | Audience binning system and method for webcasting and on-line presentations |
US9565474B2 (en) | 2014-09-23 | 2017-02-07 | Echostar Technologies L.L.C. | Media content crowdsource |
US9901406B2 (en) | 2014-10-02 | 2018-02-27 | Inneroptic Technology, Inc. | Affected region display associated with a medical device |
US10536758B2 (en) | 2014-10-09 | 2020-01-14 | Thuuz, Inc. | Customized generation of highlight show with narrative component |
US10419830B2 (en) | 2014-10-09 | 2019-09-17 | Thuuz, Inc. | Generating a customized highlight sequence depicting an event |
US11863848B1 (en) | 2014-10-09 | 2024-01-02 | Stats Llc | User interface for interaction with customized highlight shows |
US10433030B2 (en) | 2014-10-09 | 2019-10-01 | Thuuz, Inc. | Generating a customized highlight sequence depicting multiple events |
US10188467B2 (en) | 2014-12-12 | 2019-01-29 | Inneroptic Technology, Inc. | Surgical guidance intersection display |
US10984248B2 (en) * | 2014-12-15 | 2021-04-20 | Sony Corporation | Setting of input images based on input music |
US9847101B2 (en) * | 2014-12-19 | 2017-12-19 | Oracle International Corporation | Video storytelling based on conditions determined from a business object |
US10432296B2 (en) | 2014-12-31 | 2019-10-01 | DISH Technologies L.L.C. | Inter-residence computing resource sharing |
US9800938B2 (en) | 2015-01-07 | 2017-10-24 | Echostar Technologies L.L.C. | Distraction bookmarks for live and recorded video |
KR102271741B1 (ko) | 2015-01-14 | 2021-07-02 | 삼성전자주식회사 | 원본 컨텐츠와 연계된 편집 영상의 생성 및 디스플레이 |
US9949700B2 (en) | 2015-07-22 | 2018-04-24 | Inneroptic Technology, Inc. | Medical device approaches |
US9675319B1 (en) | 2016-02-17 | 2017-06-13 | Inneroptic Technology, Inc. | Loupe display |
US20170243255A1 (en) * | 2016-02-23 | 2017-08-24 | On24, Inc. | System and method for generating, delivering, measuring, and managing media apps to showcase videos, documents, blogs, and slides using a web-based portal |
US10015539B2 (en) | 2016-07-25 | 2018-07-03 | DISH Technologies L.L.C. | Provider-defined live multichannel viewing events |
EP3296890A1 (en) * | 2016-09-20 | 2018-03-21 | Facebook, Inc. | Video keyframes display on online social networks |
US10645142B2 (en) | 2016-09-20 | 2020-05-05 | Facebook, Inc. | Video keyframes display on online social networks |
US10278778B2 (en) | 2016-10-27 | 2019-05-07 | Inneroptic Technology, Inc. | Medical device navigation using a virtual 3D space |
US10021448B2 (en) | 2016-11-22 | 2018-07-10 | DISH Technologies L.L.C. | Sports bar mode automatic viewing determination |
US10277953B2 (en) | 2016-12-06 | 2019-04-30 | The Directv Group, Inc. | Search for content data in content |
US10068616B2 (en) | 2017-01-11 | 2018-09-04 | Disney Enterprises, Inc. | Thumbnail generation for video |
US10755724B2 (en) | 2017-05-04 | 2020-08-25 | Rovi Guides, Inc. | Systems and methods for adjusting dubbed speech based on context of a scene |
US11259879B2 (en) | 2017-08-01 | 2022-03-01 | Inneroptic Technology, Inc. | Selective transparency to assist medical device navigation |
US11188822B2 (en) | 2017-10-05 | 2021-11-30 | On24, Inc. | Attendee engagement determining system and method |
US11281723B2 (en) | 2017-10-05 | 2022-03-22 | On24, Inc. | Widget recommendation for an online event using co-occurrence matrix |
US10909378B2 (en) | 2017-11-07 | 2021-02-02 | Comcast Cable Communications, Llc | Processing content based on natural language queries |
US11484365B2 (en) | 2018-01-23 | 2022-11-01 | Inneroptic Technology, Inc. | Medical image guidance |
CN110475129B (zh) * | 2018-03-05 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 视频处理方法、介质及服务器 |
US11594028B2 (en) | 2018-05-18 | 2023-02-28 | Stats Llc | Video processing for enabling sports highlights generation |
US11025985B2 (en) | 2018-06-05 | 2021-06-01 | Stats Llc | Audio processing for detecting occurrences of crowd noise in sporting event television programming |
US11264048B1 (en) | 2018-06-05 | 2022-03-01 | Stats Llc | Audio processing for detecting occurrences of loud sound characterized by brief audio bursts |
US20200007947A1 (en) * | 2018-06-30 | 2020-01-02 | Wipro Limited | Method and device for generating real-time interpretation of a video |
US20200186852A1 (en) * | 2018-12-07 | 2020-06-11 | Arris Enterprises Llc | Methods and Systems for Switching Between Summary, Time-shifted, or Live Content |
US11902621B2 (en) * | 2018-12-17 | 2024-02-13 | Arris Enterprises Llc | System and method for media stream filler detection and smart processing for presentation |
US11089356B2 (en) | 2019-03-26 | 2021-08-10 | Rovi Guides, Inc. | Systems and methods for media content hand-off based on type of buffered data |
US20210034662A1 (en) * | 2019-07-31 | 2021-02-04 | Rovi Guides, Inc. | Systems and methods for managing voice queries using pronunciation information |
CN111694984B (zh) * | 2020-06-12 | 2023-06-20 | 百度在线网络技术(北京)有限公司 | 视频搜索方法、装置、电子设备及可读存储介质 |
US11670085B2 (en) * | 2020-11-05 | 2023-06-06 | Adobe Inc. | Personalizing videos with nonlinear playback |
US11860946B2 (en) * | 2022-01-11 | 2024-01-02 | Kyndryl, Inc. | Autonomous webpage content summation |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030084648A (ko) * | 2002-04-22 | 2003-11-01 | 삼성전자주식회사 | 휴대용 단말기의 소화면 표시장치 및 방법 |
US20040045040A1 (en) * | 2000-10-24 | 2004-03-04 | Hayward Monte Duane | Method of sizing an embedded media player page |
US20040220926A1 (en) * | 2000-01-03 | 2004-11-04 | Interactual Technologies, Inc., A California Cpr[P | Personalization services for entities from multiple sources |
US20050169366A1 (en) * | 2004-02-02 | 2005-08-04 | Clark Adam L. | System and method for compressing and encoding video |
WO2007009238A1 (en) * | 2005-07-19 | 2007-01-25 | March Networks Corporation | Temporal data previewing system |
EP1777615A2 (en) * | 2005-10-12 | 2007-04-25 | Sony Corporation | Data management device and method for managing a recording medium |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990072122A (ko) * | 1995-12-12 | 1999-09-27 | 바자니 크레이그 에스 | 실시간 영상 전송 방법 및 장치 |
US6396941B1 (en) * | 1996-08-23 | 2002-05-28 | Bacus Research Laboratories, Inc. | Method and apparatus for internet, intranet, and local viewing of virtual microscope slides |
US5900868A (en) * | 1997-04-01 | 1999-05-04 | Ati International | Method and apparatus for multiple channel display |
WO2000005884A1 (en) | 1998-07-20 | 2000-02-03 | Mate - Media Access Technologies Ltd. | A method of automatic selection of video channels |
US6636238B1 (en) * | 1999-04-20 | 2003-10-21 | International Business Machines Corporation | System and method for linking an audio stream with accompanying text material |
US20010049826A1 (en) * | 2000-01-19 | 2001-12-06 | Itzhak Wilf | Method of searching video channels by content |
AU2001238146A1 (en) * | 2000-02-10 | 2001-08-20 | Chyron Corporation | Incorporating graphics and interactive triggers in a video stream |
US7624337B2 (en) * | 2000-07-24 | 2009-11-24 | Vmark, Inc. | System and method for indexing, searching, identifying, and editing portions of electronic multimedia files |
US20020038456A1 (en) * | 2000-09-22 | 2002-03-28 | Hansen Michael W. | Method and system for the automatic production and distribution of media content using the internet |
US20020176604A1 (en) * | 2001-04-16 | 2002-11-28 | Chandra Shekhar | Systems and methods for determining eye glances |
KR100941388B1 (ko) * | 2001-04-24 | 2010-02-10 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 비디오 신호 발생 방법 |
GB2388739B (en) * | 2001-11-03 | 2004-06-02 | Dremedia Ltd | Time ordered indexing of an information stream |
US20030152904A1 (en) * | 2001-11-30 | 2003-08-14 | Doty Thomas R. | Network based educational system |
US20060117365A1 (en) * | 2003-02-14 | 2006-06-01 | Toru Ueda | Stream output device and information providing device |
JP4789802B2 (ja) * | 2003-04-25 | 2011-10-12 | アップル インコーポレイテッド | メディアアイテムをブラウズ、サーチおよび提示するグラフィカルユーザインタフェース |
US20050198006A1 (en) * | 2004-02-24 | 2005-09-08 | Dna13 Inc. | System and method for real-time media searching and alerting |
WO2006011819A1 (en) * | 2004-07-30 | 2006-02-02 | Eurekster, Inc. | Adaptive search engine |
US9860599B2 (en) * | 2005-06-17 | 2018-01-02 | At&T Intellectual Property I, L.P. | Methods, systems, and products for providing sample content |
US20070024705A1 (en) * | 2005-08-01 | 2007-02-01 | Richter Roger K | Systems and methods for video stream selection |
US20070130203A1 (en) * | 2005-12-07 | 2007-06-07 | Ask Jeeves, Inc. | Method and system to provide targeted advertising with search results |
US20070140572A1 (en) * | 2005-12-19 | 2007-06-21 | Xerox Corporation | Decompression for printing and display systems |
US7840977B2 (en) * | 2005-12-29 | 2010-11-23 | United Video Properties, Inc. | Interactive media guidance system having multiple devices |
US20070244902A1 (en) * | 2006-04-17 | 2007-10-18 | Microsoft Corporation | Internet search-based television |
US20070283391A1 (en) * | 2006-06-02 | 2007-12-06 | Jay Connelly | Method and system for partitioning television channels in a platform |
US20080066107A1 (en) * | 2006-09-12 | 2008-03-13 | Google Inc. | Using Viewing Signals in Targeted Video Advertising |
-
2005
- 2005-10-19 NO NO20054844A patent/NO327155B1/no not_active IP Right Cessation
-
2006
- 2006-10-18 GB GB0711264A patent/GB2436244A/en not_active Withdrawn
- 2006-10-18 US US11/793,389 patent/US8296797B2/en active Active
- 2006-10-18 WO PCT/NO2006/000361 patent/WO2007046708A1/en active Application Filing
-
2012
- 2012-10-22 US US13/657,573 patent/US9122754B2/en not_active Expired - Fee Related
-
2015
- 2015-08-31 US US14/840,857 patent/US9372926B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040220926A1 (en) * | 2000-01-03 | 2004-11-04 | Interactual Technologies, Inc., A California Cpr[P | Personalization services for entities from multiple sources |
US20040045040A1 (en) * | 2000-10-24 | 2004-03-04 | Hayward Monte Duane | Method of sizing an embedded media player page |
KR20030084648A (ko) * | 2002-04-22 | 2003-11-01 | 삼성전자주식회사 | 휴대용 단말기의 소화면 표시장치 및 방법 |
US20050169366A1 (en) * | 2004-02-02 | 2005-08-04 | Clark Adam L. | System and method for compressing and encoding video |
WO2007009238A1 (en) * | 2005-07-19 | 2007-01-25 | March Networks Corporation | Temporal data previewing system |
EP1777615A2 (en) * | 2005-10-12 | 2007-04-25 | Sony Corporation | Data management device and method for managing a recording medium |
Also Published As
Publication number | Publication date |
---|---|
US9122754B2 (en) | 2015-09-01 |
US20130132374A1 (en) | 2013-05-23 |
US20080097970A1 (en) | 2008-04-24 |
US9372926B2 (en) | 2016-06-21 |
US20150370808A1 (en) | 2015-12-24 |
NO20054844L (no) | 2007-04-20 |
GB2436244A (en) | 2007-09-19 |
WO2007046708A1 (en) | 2007-04-26 |
GB0711264D0 (en) | 2007-07-18 |
NO20054844D0 (no) | 2005-10-19 |
US8296797B2 (en) | 2012-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9372926B2 (en) | Intelligent video summaries in information access | |
US10425668B2 (en) | System and method for video conversations | |
US9947025B2 (en) | Method and apparatus for providing search capability and targeted advertising for audio, image, and video content over the internet | |
US6581070B1 (en) | Method for providing a compressed rendition of a video program in a format suitable for electronic searching and retrieval | |
US9286611B2 (en) | Map topology for navigating a sequence of multimedia | |
US20080046406A1 (en) | Audio and video thumbnails | |
US20080172615A1 (en) | Video manager and organizer | |
JP5894149B2 (ja) | Top−k処理を活用した意味の充実 | |
US20140324907A1 (en) | Visually-Represented Results To Search Queries In Rich Media Content | |
US20080215548A1 (en) | Information search method and system | |
JP2005535018A (ja) | メディアオブジェクトのコレクションの提示 | |
JP2014032656A (ja) | コンテンツ・リンクを生成する方法、装置およびプログラム | |
US20080005100A1 (en) | Multimedia system and multimedia search engine relating thereto | |
JP2002007479A (ja) | 検索情報表示方法、情報検索システム、検索サーバー、及び、検索サーバー用プログラムの記録媒体 | |
KR101140318B1 (ko) | 동영상 정보에 대응되어 저장되는 상업적 태그 등의 메타정보 기반 키워드 광고 서비스 방법 및 그 서비스를 위한시스템 | |
JP2020065307A (ja) | サーバおよびプログラム、動画配信システム | |
JP5552987B2 (ja) | 検索結果出力装置、検索結果出力方法及び検索結果出力プログラム | |
KR102252522B1 (ko) | 내용 기반 동영상 목차 자동생성 방법 및 시스템 | |
CN111523069B (zh) | 一种基于3d引擎实现电子书播放3d效果的方法及其*** | |
KR20090110764A (ko) | 멀티미디어 콘텐츠 정보에 포함된 메타 정보 기반 키워드광고 서비스 방법 및 그 서비스를 위한 시스템 | |
KR20110042626A (ko) | 전자액자의 이미지 표시 방법 및 장치 | |
KR20080006995A (ko) | 동영상 검색 시스템 | |
WO2023003555A1 (en) | Automated generation of immersive interfaces | |
WO2024120646A1 (en) | Device and method for multimodal video analysis | |
JP2020065308A (ja) | サーバおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
CREP | Change of representative |
Representative=s name: BRYN AARFLOT AS, POSTBOKS 449 SENTRUM, 0104 OSLO, |
|
CHAD | Change of the owner's name or address (par. 44 patent law, par. patentforskriften) |
Owner name: MICROSOFT CORPORATION, US |
|
CHAD | Change of the owner's name or address (par. 44 patent law, par. patentforskriften) |
Owner name: MICROSOFT TECHNOLOGY LICENSING, US |
|
MM1K | Lapsed by not paying the annual fees |