SE519700C2 - Bilddatabehandling - Google Patents

Bilddatabehandling

Info

Publication number
SE519700C2
SE519700C2 SE9904742A SE9904742A SE519700C2 SE 519700 C2 SE519700 C2 SE 519700C2 SE 9904742 A SE9904742 A SE 9904742A SE 9904742 A SE9904742 A SE 9904742A SE 519700 C2 SE519700 C2 SE 519700C2
Authority
SE
Sweden
Prior art keywords
receiving unit
contour shape
image
contour
monitoring
Prior art date
Application number
SE9904742A
Other languages
English (en)
Other versions
SE9904742D0 (sv
SE9904742L (sv
Inventor
Mats Elfving
Christian Merheim
Andreas Rodman
Original Assignee
Wespot Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wespot Ab filed Critical Wespot Ab
Priority to SE9904742A priority Critical patent/SE519700C2/sv
Publication of SE9904742D0 publication Critical patent/SE9904742D0/sv
Priority to PCT/SE2000/002664 priority patent/WO2001048696A1/en
Priority to AU25697/01A priority patent/AU2569701A/en
Priority to PCT/SE2000/002663 priority patent/WO2001049033A1/en
Priority to DE60041890T priority patent/DE60041890D1/de
Priority to AT00989153T priority patent/ATE427005T1/de
Priority to EP00989153A priority patent/EP1266525B1/en
Priority to AT00989154T priority patent/ATE402457T1/de
Priority to KR1020027008160A priority patent/KR20020079758A/ko
Priority to AU25696/01A priority patent/AU2569601A/en
Priority to JP2001548344A priority patent/JP4753340B2/ja
Priority to CN00817555A priority patent/CN1413417A/zh
Priority to US09/746,511 priority patent/US6819353B2/en
Priority to DE60039630T priority patent/DE60039630D1/de
Priority to US09/746,777 priority patent/US6774905B2/en
Priority to CA2394926A priority patent/CA2394926C/en
Priority to EP00989154A priority patent/EP1245004B1/en
Priority to JP2001549017A priority patent/JP4578044B2/ja
Publication of SE9904742L publication Critical patent/SE9904742L/sv
Publication of SE519700C2 publication Critical patent/SE519700C2/sv

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

lO l5 20 25 30 35 519 700 -, .N 2 övervakningssystem är att de registrerade bilderna i många fall inte ger tillräcklig information och om vad som orsakat larmet. Detta beror pà att larmsituationer som uppkommit på grund av exempelvis höga temperaturer eller sabotage, inte fångas upp av kameran. Därmed kvar- står osäkerheten om det är ett verkligt larm.
För att lösa dessa problem har det föreslagits att man kontinuerligt ska registrera bilder och om vissa för- utbestämda kriterier är uppfyllda, skickas dessa bilder vidare till en bemannad övervakningscentral. En system- operatör vid övervakningscentralen tittar pà den över- sända bilden och fattar utifrån denna ett beslut om över- vakningssituationen. En del situationer som IR-detektorn ej skulle ge utslag för upptäcks pà så sätt. Nackdelen med denna teknik är att det tar làng tid att överföra bilden och att systemoperatören mäste ägna mycket tid ät att titta pà bilder som inte innehåller nàgra larmföre- màl. Innan överföringen sker komprimeras bilden eller bilderna med till exempel JPEG eller MPEG. En överföring, som är en videoöverföring av efter varandra följande - bilder av övervakningsplatsen, begränsas till ett visst antal bilder per sekund. Om en mobiltelefon av typ GSM med en överföringshastighet pà 9,6 kbit/s används som mottagare för övervakningsinformationen kan det ta 20-lOO sekunder för att den överförda bilden ska bli klar och tydlig. Möjligheten finns att genom komprimering av bilderna komma ned till 3-4 sekunder per bild. Skulle man komprimera mer blir bilden så otydlig att händelser blir svära eller till och med omöjliga att urskilja. Detta innebär att om komprimeringsgraden ökas för att pà så sätt minska bandbredden så blir bildkvaliteten till sist så dàlig att det inte gär att dra korrekta slutsatser utifrån bilden. Som ett alternativ kan bildfrekvensen minskas och färre bilder skickas. Detta ger dock ej till- fredställande övervakning eftersom mycket kan hända mel- lan tvà pà varandra följande bilder och även här kan det vara svårt att dra slutsatser om verkliga rörelser. Pro- lO 15 20 25 30 35 519 700 . . f . _ I 3 blem uppstår också då övervakningsinformation önskas ras i övervakningsenheten. För att kunna lagra all infor- mation som behövs för att kunna avgöra om larmsituati@@ råder krävs stor lagringskapacitet, vilket resulterar att utrustningen blir dyr och dess komplexitet ökar.
Sammanfattning av uppfinningen Ett ändamål med uppfinningen är därför att åstao komma ett förfarande att bearbeta den registrerade bi på så sätt att den klarar litet lagringsutrymme och JJ överföringskapacitet samtidigt som den innehåller till räckligt mycket information om larmsituationen så att ~ utifrån den överförda informationen kan avgöra om et verkligt larmtillstånd råder eller ej.
Detta och andra ändamål som kommer att framgå av efterföljande beskrivning uppnås med ett förfarande för behandling av bildinformation i ett övervakningssysttp vilket övervakningssystem innefattar åtminstone en of vakningssensor och en mottagningsenhet, innefattande stegen att registrera bilder av en övervakningsplats övervakningssensorn, att med övervakningssensorn segw~= tera ut distinkta regioner ur en registrerad bild, att skapa en konturform som är representativ för den distink~ ta regionen, och att överföra konturformen till mottag ningsenheten. Övervakningssensorn registrerar bilder av den över vakade övervakningsplatsen. Övervakningsplatsen begränsas bland annat av övervakningssensorns komponenter för re i~ strering av bilder. Om det i en registrerad bild finns an eller flera typer av föremål såsom exempelvis människor eller djur, segmenteras dessa föremål fram med hjälp av ett antal olika algoritmer. Ett föremål som segmenterats fram ur en bild representeras av en distinkt region, som skiljer sig från övriga bilden. En stiliserad konturform som representerar den distinkta regionen skapas. Data som representerar denna konturform upptar liten bandbredd och är därmed lämplig för överföring. Mottagningsenheten är den enhet som tar emot data som representerar konturfor- 10 15 20 25 30 35 519 700 4 men och behandlar den pà för ändamålet lämpligt sätt. Övervakningssensorn och mottagningsenheten tolkar den in- formation som överförs på samma sätt. De har samma modell för konturformen. Det vill säga att övervakningssensorn bearbetar konturformen enligt en modell och tar fram data som representerar konturformen och överför den data till mottagningsenheten. Mottagningsenheten som tar emot data kan om sä behövs ha kunskap om vilken modell som används och återskapa konturformen för exempelvis visuell presen- tation. Mottagningsenheten kan exempelvis vara placerad i en bemannad övervakningsstation så att konturformen visas på en bildskärm för en operatör. Operatören fattar ett beslut om larmsituationen och kan sedan vidta lämplig åt- gärd. En stor fördel med att överföra ett föremåls kon- turform är att om föremålet är en människa kan integrite- ten skyddas. Detta kan vara mycket viktigt eftersom spe- ciella tillstànd ofta krävs för att montera upp övervak- ningskameror just för att skydda den personliga integri- teten. Dessutom ska tekniken kunna användas i privata hem och det kan då vara önskvärt för de personer som bor i hem med övervakningsanordningar att de inte blir inspela- de pà video eller fotograferade, eftersom exempelvis dessa bilder skulle kunna missbrukas.
I en utföringsform innefattas steget att skapa en konturform vidare stegen att följa den distinkta regio- nens rand med en sökfunktion för att skapa en konturbild och att skapa konturformen genom en anpassning efter kon- turbilden. Den distinkta regionens kant följs med en sök- funktion och runt regionen extraheras en konturbild fram som utgörs av en följd av punkter. Efter detta anpassas en form matematiskt efter följden av punkter i kontur- bilden.
I en utföringsform tas en distinkt regions rörelse- historia fram. Detta sker genom en matchning med tidigare registrerade föremåls distinkta regioner. Tvà distinkta regioner registrerade vid olika tidpunkter sägs represen- tera samma föremål om de uppfyller vissa förutbestämda 10 15 20 25 30 35 519 700 5 matchningskriterium. Exempelvis kan man jämföra egenska- per hos den distinkta regionen sàsom dess fysiska storlek i bilden och om den överensstämmer enligt en viss grad Pà detta sätt kan man fä fram en distinkt regions rörelsehistoria. bestäms att det att en matchning föreligger.
Exempelvis kan hastighet och rörelseriktning tas fram.
En annan utföringsform innefattar stegen att klassi- ficera de distinkta regionernas rörelsehistoria och att utifrän klassificeringen avgöra vilka konturformer som ska överföras till mottagningsenheten. Rörelseinformatio- nen klassificeras för att avgöra om den distinkta regio- nen är ett larmföremàl eller ej. Om den distinkta regio- nen klassificeras som ett larmföremàl ska konturformen överföras till mottagningsenheten. Klassificeringen kan exempelvis göras utifrån hur snabbt ett föremäl rör sig eller utifrån vilken rörelseriktning föremålet har.
I en utföringsform klassificeras den distinkta regionen i övervakningssensorn utifrån konturformen. Be- roende pà i vilken klass konturformen hamnar avgörs det om den är intressant för vidarebefordring till mottag- ningsenheten. Det kan exempelvis vara sä att ett omrâde övervakas och pà detta område vaktar även en hund. Hunden ska dä ej utgöra en konturform som skickas vidare. Det kan finnas flera mottagningsenheten som exempelvis kan vara specialiserade pä att ta emot en viss typ av larm- data. Till exempel om konturformen klassas som ett djur ska den larminformationen överföras till en bestämd mot- tagningsenhet, men om konturformen klassas som en män- niska ska den överföras till en annan mottagningsenhet.
Ett tänkbart användningsområde kan exempelvis vara en djurpark då larminformationen kan tänkas gä till olika mottagningsenheter beroende pà om det är ett djur som rymt, i vilket fall larminformationen kan överföras till en djurvärdare, eller en inbrottstjuv som tagit sig in på djurparksomràdet, i vilket fall larminformationen kan överföras till säkerhetspersonal. lO l5 20 25 30 35 519 700 6 I en utföringsform klassificeras den distinkta regionen både utifràn dess konturform och dess rörelse- historia för att avgöra vilken konturform som ska över- föras.
I en utföringsform överförs konturformen om den» distinkta regionen klassificeras som människorelaterad.
Detta möjliggör exempelvis inbrottsövervakning. Kontur- formen som överförs kan vid en mottagningsenhet visas visuellt och en bedömning om den människorelaterade kon- turformen kan utföras. Exempelvis kan det avgöras om kon- turformen är ett verkligt larmföremàl utifrân var pà övervakningsplatsen konturformen befinner sig. Exempelvis kan det i ena kanten av övervakningsplatsen finnas en väg där människor naturligt kan passera utan att ett larm- tillstànd ska föreligga.
I en utföringsform överförs rörelsehistorian till- sammans med konturformen. Detta kan exempelvis ske genom att efter varandra följande konturformer sätts samman till en rörlig sekvens. Detta kan ske bàde i larmsensor- enheten eller i mottagningsenheten. Genom att ha möjlig- het till att kunna visa upp denna sekvens kan exempelvis en operatör enklare göra en bedömning av larmsituationen.
Detta ger en mycket liten ökning av den översända data- mängden. Samtidigt som integritetsskyddet kan behållas ges möjlighet till en säker övervakning. Detta eftersom det är en persons form, som framgår av konturen, och rörelsemönster som är viktiga dä det ska dras en slutsats om exempelvis personens beteende. Med personens beteende kan en systemoperatör exempelvis avgöra om personen bara passerar det övervakade området eller om hon utför någon misstänkt handling. Rörelsehistorian kan exempelvis också representeras av en rörelsevektor som visar föremàlets rörelseriktning och hastighet.
I en utföringsform skapas den distinkta regionen med algoritmer som utnyttjar en registrerad bild och en refe- rensbild. Referensbilden skapas med en eller flera algo- ritmer ur en eller flera föregående bilder, en eller lO 15 20 25 30 35 519 700 7 flera bakgrundsbilder eller en kombination av båda. En medelvårdesbildning eller en Kalmanfiltrering kan göras på ett antal av nämnda registrerade bilder för skapande av en referensbild. Fördelen med detta år att rörliga föremål kan bearbetas fram och stationära föremål, exe pelvis bord och stolar, som ska befinna sig i övervak~ ningsplatsen bearbetas bort. Detta medför att de disti ta regionerna innehåller intressant information om hån delser i övervakningsplatsen.
En annan utföringsform innefattar vidare steget ar, lagra konturformen i ett minnesorgan i övervakningssen- sorn innan överföring sker till mottagningsenheten.
Eftersom konturformen kräver litet lagringsutrymme kan den lagras i ett minne hos övervakningssensorn. Då dennt lagring ej kräver stort utrymme sänks kostnaden för övef vakningssensorn. Möjligheten till lagring i ett minne i övervakningssensorn är en stor fördel om exempelvis något fel uppstår på mottagningsenheten eller på kommal kationen mellan övervakningssensorn och mottagningsenhf- ten eller att mottagningsenheten blir överbelastad, eftersom konturformen kan skickas vid ett senare till- fälle då funktionen år tillbaka. Om det finns en system~ operatör kan han också tillåtas hämta konturformen ute övervakningssensorn för analys i efterhand om exempelv:. överföring ej blir möjlig. Det kan finnas flera sensorer som hjälps åt att lagra informationen. Om exempelvis rörelseinformation ska överföras lagras även denna i minnesorganet innan överföring.
Ytterliggare en utföringsform innefattar vidare ste~ get att överföra kompletterande övervakningsinformation till mottagningsenheten. Det år en fördel för mottag- ningsenheten att få mer information om en specifik hän- delse som inkommit för att på så sätt kunna fatta ett ännu säkrare beslut. Övervakningsinformationen utgörs exempelvis av en eller ett fåtal bilder av det distinkta området. Om föremålet exempelvis är en person kan en eventuell systemoperatör vid mottagningsenheten få möj- 10 15 20 25 30 35 519 700 8 lighet att kunna avgöra vem personen pä övervakningsy sen är. Denna kompletterande information kan överföras som en bitmapbild. Detta innebär att man segmenterat w det område som är intressant och överför bilden av df intressanta område. Den kompletterande övervakningsiw mationen kan också vara en ljudupptagning. Systemope=> ren kan ha möjlighet till att öka mängden kompletteis- övervakningsinformation till bekostnad av bandbredder En utföringsform innefattar vidare stegen att rf- strera en bakgrundsbild av övervakningsplatsen och at överföra bakgrundsbilden till mottagningsenheten. Gent» att skicka bakgrundsbilden pà övervakningsplatsen en till mottagningsenheten och sedan endast skicka kontn~ formen reduceras mängden data som skickas frán övervar ningssensorn till mottagningsenheten. Bakgrundsbilden registreras om och överföras pà nytt när sä önskas. mottagningsenheten ska visa upp den överförda kontur!,~ men på en skärm för en operatör kan detta göras ovanpå bakgrundsbilden. Detta medför en enklare analys av rör seinformationen pà grund av att man har en bakgrund W referera rörelsen till.
En utföringsform innefattar vidare steget att träd- löst överföra konturformen till mottagningsenheten via kommunikationsenhet i övervakningssensorn. Genom tråd§“ överföring möjliggörs mobilitet av mottagningsenheten.
Detta innebär att om en operatören har en mottagnings~ enhet behöver operatören inte vara stationär. Exempeívr; kan konturformen mottagas av en mottagningsenhet som Q: anordnad i en mobiltelefon.
En annan utföringsform innefattar vidare steget ai: filtrera bort störningar. Genom att filtrera bilderna med olika filterprocesser och pà sä sätt ta bort exempelvis skuggor och brus kan de mest intressanta delarna fram- hävas och olika övervakningssituationer blir lättare att fastställa. Filtrering av bilden kan göras innan, under eller efter behandling. Det vill säga att filtreringen lO 15 20 25 30 35 519 700 . v . ~ . Y . 9 kan göras på den registrerade bilden, den segmenterade bilden, konturbilden och/eller pà konturformen.
En utföringsform innefattar vidare steget att kom- primera konturformen med en komprimeringsalgoritm innan den överförs till mottagningsenheten. Genom detta reduce- ras Överförd mängd data ytterligare.
I en utföringsform är konturformen en polygon. Kom- primeringsalgoritmer är effektiva att använda pà polygo- ner, vilket gör dessa till bra konturformer.
I en utföringsform innefattar polygonen ett antal punkter vars antal är varierbart. Genom att använda ett färre antal punkter krävs en lägre bandbredd, men samti- digt blir kvaliteten på konturformen sämre. Även andra konturformer kan ha liknande egenskaper. Det är en stor fördel att kunna välja antalet punkter i polygonen efter- som tillgången pà bandbredd och önskvärd bildkvalitet kan variera fràn tid till tid och fràn övervakningssensor till övervakningssensor. Exempelvis kan vissa lokaler som inrymmer mycket värdefull utrustning kräva extra hög verifieringskvalitet och ett större antal punkter väljs dä att ingå i polygonen. Det kan också förekomma olika typer av avbrott, som exempelvis kan orsaka nedsatt funk- tion i mottagningsenheten, och som samtidigt ställs mot höga krav på prestanda, vilket medför att bandbredden mäste sänkas för att mottagningsenheten ej ska bli över- belastad. Antalet punkter kan då minskas.
I en utföringsform är konturformen en splinefunk- tion. En spline-kurva är en kurva som styrs av ett antal kontrollpunkter. Kontrollpunkternas läge anpassas sà att kurvan ansluter sà bra som möjligt till konturen i bil- den.
En utföringsform innefattar steget att inom den distinkta regionen skapa minst en delregion, vilken del- region representerar ett intensitetsomràde. Dessa del- regioner återskapar de karakteristiska dragen inom en distinkt region. Till exempel kan en uppdelning av en 10 15 20 25 30 35 519 700 \ . » . f » 10 människa ske i fyra områden, här, ansikte, överkropp och byxor.
I en utföringsform överförs en uppsättning data som representerar delregionen till mottagningsenheten. Del- regionerna förtydligar representationen av det distinkta området vid exempelvis en visuell presentation för en operatör vid mottagningsenheten av den överförda datan.
En utföringsform innefattar steget att i övervak- ningsenheten extrahera fram dellinjer inom det distinkta omràdet. Dellinjerna utgörs av punkter. Linjeinnehàllet ger den distinkta regionen mer struktur och essentiell information om föremàlstexturen. Exempel pà dellinjer kan hos en människa vara att ett hakparti tillkommer så att huvudet ses som en del av övriga kroppen.
I en utföringsform överförs dellinjerna till mottag- ningsenheten. Vid en eventuell visuell presentation vid mottagningsenheten underlättar dellinjerna för en opera- törs beslutstagande om larmsituationen. Ögat ser lättare vad konturformen föreställer.
Uppfinningen avser också en anordning för bearbet- ning av bildinformation, vilken anordning innefattar åtminstone en övervakningssensor och en mottagningsenhet, varvid övervakningssensorn är anordnad att registrera bilder av en övervakningsplats, att segmentera ut di- stinkta regioner ur en registrerad bild, att skapa en konturform som är representativ för den distinkta regio- nen, och att överföra konturformen till mottagningsen- heten.
I en utföringsform tolkar övervakningssensorn och mottagningsenheten enligt samma modell. Fördelen med detta är att den fràn övervakningssensorn överförda in- formationen kan tolkas av mottagningsenheten och even- tuellt även àterskapas för exempelvis visuell presenta- tion.
Fler fördelarna med denna anordning framgår ovan. 10 15 20 25 30 35 519 700 ll Kort beskrivning av ritninqarna Uppfinningen kommer att beskrivas närmare i det föl- jande under hänvisning till de bifogade schematiska rit- ningarna som i exemplifierande syfte visar en för när- varande föredragen utföringsform av uppfinningen.
Fig 1 visar ett övervakningssystem enligt en ut- föringsform av uppfinningen.
Fig 2 visar schematiskt en av övervakningssensorn registrerad bild.
Fig 3 visar schematiskt en segmenterad bild med en distinkt region.
Fig 4 visar schematiskt hur den distinkta regionens kant stegas.
Fig 5 visar schematiskt en konturbild i vilken samt- liga randpunkter för den distinkta regionen är funna.
Fig 6 visar schematiskt en polygonanpassad bild.
Fig 7 visar schematiskt en polygon.
Fig 8 visar schematiskt en polygon med linjeinne- Fig 9 visar schematiskt en polygon med delregioner.
Pig 10 visar ett flödesschema över ett förfarande enligt en utföringsform för bearbetning av bildinforma- tion.
Beskrivning av en föredragen utföringsform I fig l visas ett övervakningssystem med ett antal övervakningssensorer 1 varvid varje övervakningssensor 1 innefattar en kommunikationsenhet (ej visad) som är an- sluten via en trådlös kommunikationsväg 2 till en mottag- ningsenhet 3. Mottagningsenheten 3 är i detta fall anord- nad vid en centralstation, som har bildskärmar vilka övervakas av en operatör. Övervakningssensorn l och cen- tralstationen med mottagningsenheten 3 innefattar samma modell för att bearbeta den information som överförs mellan dem, vilket innebär att de tolkar informationen pà samma sätt. Mottagningsenheten 3 kan exempelvis också vara anordnad att lagra mottagen information, utföra vidare analys pà den mottagna informationen och/eller lO l5 20 25 30 35 519 700 12 vidarebefordra den inkomna informationen. Det kan i över- vakningssystemet också finnas flera mottagningsenheter 3.
Det kan vara så anordnat att olika typer av larm gär till olika mottagningsenheter 3.
En utföringsform enligt uppfinningen kommer vidav att beskrivas med hänvisning till ett flödesdiagram i 10 samt till exemplifierande bilder i fig 2 till 9.
I fig 2 visas en av övervakningssensorn 1 i ett rf gistreringssteg 100 registrerad bild. Pà bilden finns bland annat en människa. Bilden filtreras i ett filtre~ ringssteg 110 varvid störningar sàsom brus tas bort med hjälp av en referensbild. Denna referensbild kan skapa: exempelvis som en medelvärdesbildning eller en Kalmab- filtrering av ett antal tidigare registrerade bilder. L<@ kan exempelvis vara bakgrundsbilder som är registrerade dä inget larmföremäl befinner sig i området.
Om ett föremål finns med pà en registrerad bild segmenteras i ett segmenteringssteg 120 en distinkt rfl gion ut. I värt fall har en människa kommit in pà öveia vakningsplatsen och registrerats av övervakningssensork 1. Segmenteringen innefattar följande steg. En differtnu bild skapas av den aktuella bilden och en bakgrundsbild Bakgrundsbilden är registrerad dä inget intressant övt vakningsföremàl befinner sig pà övervakningsplatsen, o«. vill säga dä övervakningsplatsen är i ett utgångsläge din inga föremàl förutom de som ska befinna sig pà övervak- ningsplatsen finns där. Pixel för pixel jämförs med ett tröskelvärde. Om tröskelvärdet överskrids blir detta er som förgrund registrerad punkt. De som förgrund registre- rade punkterna sätts ihop till distinkta regioner, vilket visas i fig 3. I detta exempel har vi en distinkt region 130.
I fig 4 visas hur den distinkta regionen stegas längs dess kant i ett bearbetningssteg 140 av en sökfunk- tion, som här är en klockvisaralgoritm, för skapande av en konturbild av den distinkta regionen. Klockvisaralgo- ritmen sveper längs randen pà den distinkta regionen 10 l5 20 25 30 35 519 700 l3 tills det att startpunkten näs. Mer ingàende sker få de. En startpunkt letas först upp längs randen av reglol nen. Sá länge inte startnoden är påträffad och det fä» outforskade vägar ur den sveps en visare medsols med stånd en pixel fràn föregående position tills en ny punkt är funnen. Om visarens nya position är startprw- tionen, sä letas en ny outforskad väg upp. Om ingen finns, sà skall algoritmen avbrytas. Annars fortsätït= algoritmen och den funna outforskade vägen ur startrm markeras som utforskad.
I fig 5 visas konturbilden av den distinkta region som representerar människan. I fig 6 har i ett anpas ningssteg 150 en konturform, som i detta fall är en g~' gon, anpassats till den stegade banan. Polygonen har passats med en vinkelminimeringsfunktion_ Vinkelminime ringsfunktionen innefattar följande. En startpunkt sei pà randen som den senaste punkten. Sà länge inte slu* punkten är funnen, så stegas framät längs med randen.
Vinkelskillnaden mellan tangentvektorn för senaste punk ten och tangentvektorn för det nuvarande läget längs ff den beräknas. Om vinkelskillnaden är större än en viss gräns, sà sparas denna position som en nod och positionen sätts som den senaste punkten. Antalet punkter i polyg nen kan varieras.
Den bildade polygonen klassificeras i ett klassifi ceringssteg 160 och det beslutas om den är intressant för överföring eller ej i ett beslutssteg 170. Polygonen klassificeras i detta fall som människorelaterat. Om klassificeringens resultat varit att föremålet inte ska ge upphov till larm undersöks om det finns fler distinkta regioner i ett undersökningssteg 175. Kriterierna för människoliknande klass säger i detta fall att polygonen ska vidarebefordras till mottagningsenheten 3. Klassifi- ceringssteget 160 kan också göras utifrån det detekterade föremàlets rörelsehistoria. Rörelsehistorian kan man fä fram genom att ta föregående registrerade segmenterade distinkta regioner och matcha dessa med aktuell distinkt 10 15 20 25 30 35 -f- .f 1 . - F 1 -» . --. :s » a f .a I n v f» ~| 1- v» v u n ... u . . «. . _ , ; « . .= u 1 » _ | u 4 -. . - u u 14 region och om dessa överrensstämmer enligt en förutbe- stämd grad antar man att de härstammar från samma föremål och kan på så sätt ta fram exempelvis föremàlets rörelse- riktning och hastighet. Klassificeringen kan också göras utifrån både polygonens rörelsehistoria och polygonen.
Polygonen komprimeras i ett komprimeringssteg 180 med en huffmanalgoritm med inkrementella steg och skickas i ett överföringssteg 200 till mottagningsenheten 3. Om något fel har uppstått på kommunikationsvägen 2 eller i mottag- ningsenheten 3 kan polygonen först lagras i ett minne i lagringssteg 190, 195 i övervakningssensorn 1 och över- föras i överföringssteget 200 när kommunikationen åter fungerar. I fig 7 visas polygonen. Polygonen överförs i parametriserad form och som en uppsättning koordinater. I ett nytt undersökningssteg 210 undersöks om det finns fler distinkta regioner i den registrerade bilden. Om så år fallet görs proceduren från bearbetningssteget 140 om även för denna distinkta region. Polygonen som mottages av mottagningsenheten 3 kan exempelvis visas upp på en bildskärm för en operatör. Polygonen kan visas ovanpå en bakgrundsbild. Polygonens rörelsemönstret kan också visas. Rörelsemönstret räknas ut av efter varandra föl- jande polygoner genom nämnda matchning. Rörelsemönstret kan räknas ut innan överföring i överföringssteget 200 till mottagningsenheten 3 eller i mottagningsenheten 3.
Dessutom kan ett föremåls linjeinnehåll skickas tillsammans med konturformen. I fig 8 visas polygonen från fig 7 med linjeinnehåll. Huvudsyftet med att visua- lisera linjeinnehållet i den distinkta regionen är att ge en visuell presentation av den överförda informationen av föremålet mer struktur och essentiell information om tex- turens beskaffenhet. Det finns ett antal olika uppsätt- ningar linjer som kan extraheras ur en textur. Kanter kan trösklas fram ur den deriverade texturen. Hela föremälets område kan förtunnas och man får på så vis fram en sorts ”streckgubbe”. Denna streckgubbe är ganska känslig för lokala förändringar och därför inte alltid lämplig. Dess- lO l5 20 25 30 35 519 700 15 utom är den härledd ur konturen och inte ur texturen.
Texturen kan ses som en topografi. En uppsättning linjer kan vara alla bergsryggar som rent matematiskt kan be- skrivas som till exempel sadelpunkter och lokala minima och maxima etc. Linjerna är oftast inte speciellt tunna, utan har ofta någon form av utbredning. För att få fram smala skarpa linjer kan man använda sig av en metod som kallas ”Thinning” eller förtunning. Förtunning ”äter” på de tjocka linjernas kanter utan att för den skull helt ”gnaga" av dem. Enkelt uttryckt så blir alla linjer lika smala (oftast 1 pixel bred). I vissa fall får man inte ut ett antal enskilda linjer utan de sitter mer ihop som ett nät. Dä kan alla dellinjer betraktas som egna linjer och kopplas loss från de övriga linjerna. För att göra det visuella resultatet så tydligt som möjligt kan de ibland vara nödvändigt att gallra i informationen. Till exempel om en rutig skjorta finns med i texturen kan det bli ganska många gyttriga linjer. Dà kan man med fördel sor- tera bort de svagare linjerna, eller några av de som lig- ger för tätt. Linjerna kan till slut representeras pà ett antal olika sätt. Ett sätt är pixelform. Varje linje be- skrivs med den uppsättning pixlar den innefattar. Ett annat sätt är linjesvit. En linjesvit anpassas till varje linjesegment. Varje linje representeras här av en serie raka linjer som tillsammans approximerar den ursprungliga linjen. Ytterligare ett sätt är splineform. En spline an- passas till den aktuella linjen.
Dessutom kan intensitetsregioner skickas med både konturformen och linjeinnehållet eller enbart konturfor- men för att underlätta en visuell bedömning som exempel- vis sker i detta fall när konturformen presenteras för operatören. En polygon med intensitetsregioner visas i fig 9. Intensitetsregionerna ska på ett så bra sätt som möjligt återskapa de karakteristiska dragen hos ett före- mål. För att få fram en bra segmentering behöver man först definiera vilka egenskaper hos föremålets textur som ska höra ihop. Exempel pà sådana egenskaper kan vara lO l5 20 25 30 35 519 700 . « - - f i . 16 att hela området ska ha samma intensitet med bara en liten avvikelse. En annan egenskap kan vara att områdets varians ska vara mindre än ett visst mått. Ytterligare en egenskap kan vara att området har en viss uppsättning statistiska egenskaper som t.ex. medelvärde, varians, korrelation mellan närliggande pixlar, etc. Det finns olika sätt att segmentera fram de olika områdena. För att segmentera fram de olika områdena med egenskaperna enligt ovan nämnda kan man förfara på ett antal olika sätt. Ett sätt är "Split and Merge” som är en algoritm som succes- sivt delar upp ett område i mindre områden tills det att de olika delområdena uppfyller ett visst krav. Därefter sammanslås de områden som har samma egenskaper. Ett annat sätt kan vara kvantifiering av området till ett lågt bit- djup som ger utpräglade regioner. Ytterligare ett sätt är att man kan plantera ett frö i texturen och låta detta område växa så länge som den nya pixeln stämmer överens med det nya områdets egenskaper. Pixlar markeras som tagna då de är inkluderade i ett område. När inte ett om- råde kan växa mer så avslutas detta område och ett nytt frö planteras på ett annat ställe. Man kan också tänka sig att ett flertal frön växer samtidigt parallellt. Ett annat sätt kan vara Bayes klassificering enligt ett antal utvalda regionegenskaper i texturen.
För att representera de olika regionerna kan man använda sig av ett antal olika metoder. Ett första sätt är "Run length encoding” (RLE) av de olika regionernas pixlar. De olika pixlarnas värden är vilket område de tillhör. En annan metod är polygonrepresentation. Denna metod tillpassar en polygon till området. Polygonen kan dela punkter med andra områden och med föremålets kontur.
Ytterligare en metod är splinerepresentation som begrän- sar området med en spline. Fördelen är att datamängden blir mindre och tillpassningen bättre. En nackdel är dock att de flesta splinemetoderna inte kan dela gemensamma punkter och att tillpassningen blir mer beräknings- krävande. 10 15 20 25 30 35 519 700 .1 1.» 17 När regionerna och linjerna väl är representerade det bara en uppsättning data som skickas via ett över~ föringsmedia. Den enda restriktionen är att både sända» och mottagarsidan, vilket i detta fall är övervakning- sensorn l och mottagningsenheten 3, tolkar informat¿~~= på samma sätt. De får ha samma modell av informaticno« Operatören kan också begära att få mer informatu om föremålet. Detta kan vara en bild av föremålet som skickas som en bitmapbild. Det kan också vara en ljud' tagning som är gjord på övervakningsplatsen. Även om en speciell utföringsform av uppfinningen har beskrivits ovan är det uppenbart för fackmannen at« många alternativ, modifieringar och variationer är möf liga att åstadkomma i ljuset av ovanstående beskrivning Till exempel kan en splinefunktion användas i stället fi en polygon. En spline-kurva definieras matematiskt av antal kontrollpunkter och en funktion som beskriver kw vans utseende mellan kontrollpunkterna. Normalt fixeru funktionen och endast kontrollpunkterna används för a definiera kurvan. För att anpassa en sådan kurva til] konturbild krävs ett startvärde, ett kriterium för var kurvan passar till konturen och en sökstrategi för att anpassa kurvan till konturen. Som startvärde används malt kurvans läge i föregående bild i en bildsekvens. man börjar från början får man förfara på annat sätt, till exempel genom att starta med en stor cirkel som garanterat täcker in konturen. Kriteriet för anpassnin« av kurvan till konturen kan vara antingen avstånd till den detekterade konturen eller baserat på gradienten i bilden. I det senare fallet vill man att kurvan skall hamna där gradienten är störst. Sökstrategin består nor- malt av någon standardoptimeringsmetod för att minimera kriteriet i sökstrategin. Fördelen med en spline-repre- sentation vid optimeringen är att endast kontrollpunkter~ na behöver användas som variabler, vilket medför ökad snabbhet. För mer läsning om spline-anpassning se artikel ”Fast least-square curve fitting using quasi-orthogonal 10 519 700 18 splines", Myron Flickner, James Hafner, Eduardo J. Rodriguez and L. C. Sanz.
Dessutom kan exempelvis en IR-detektor användas i kombination med sensorn. Vinkelminimeringsfunktion kan också bytas ut mot exempelvis evenlengthapproximation eller splineanpassning. Evenlengthapproximationen inne- fattar stegen att sätta första noden pà startpunkten, att så länge som inte slutpunkten är funnen följa randen ett visst antal steg, och att, om slutpunkten inte är funnen, placera en nod i nuvarande punkt.
Bortfiltreringen kan ske i flera skeden av bild- bearbetningen. Polygonen kan exempelvis även komprimeras i komprimeringssteget 180 med Huffmankodning.

Claims (31)

lO 15 20 25 30 35 519 700 -. n; 19 PATENTKRAV
1. Förfarande för behandling av bildinformation i ett övervakningssystem, vilket övervakningssystem inne- fattar åtminstone en övervakningssensor (1) och en mot- tagningsenhet (3), innefattande stegen att registrera bilder (100) av en övervakningsplats med övervakningssensorn (1), att i övervakningssensorn (1) segmentera ut distink- ta regioner (120) ur en registrerad bild, att i övervakningssensorn (1) 150) regionen, skapa en konturform (140, som är representativ för den distinkta och att överföra konturformen (200) till mottagnings- enheten (3).
2. Förfarande enligt krav 1, varvid steget att skapa en konturform vidare innefattar stegen att följa den distinkta regionens rand med en sök- funktion för att skapa en konturbild (140) och att skapa konturformen (150) genom en anpassning efter konturbilden.
3. Förfarande enligt något av föregående krav, vidare innefattande steget att jämföra bestämda egenska- per tillhörande den distinkta regionen med motsvarande egenskaper tillhörande ett ur en tidigare registrerad bild segmenterade regioner, varvid om egenskaperna överensstämmer till den grad att det bedöms representera samma föremål, registreras den distinkta regionens till- hörande rörelsehistoria.
4. Förfarande enligt krav 3, vidare innefattande stegen att i övervakningssensorn (1) klassificera (160) de distinkta regionerna utifràn de distinkta regionernas rörelsehistoria och 10 15 2O 25 30 35 519 700 20 att utifrån klassificeringen (160) avgöra vilka kon- turformer som ska överföras (170) till mottagningsenheten (3).
5. Förfarande enligt något av kraven 1-3, vidare in- nefattande stegen att i övervakningssensorn (1) klassificera (160) de distinkta regionerna utifrån konturformen och att utifrån klassificeringen (160) avgöra vilka kon- turformer som ska överföras (170) (3). till mottagningsenheten
6. Förfarande enligt något av kraven 1-3, vidare in- nefattande stegen att i övervakningssensorn (1) klassificera (160) den distinkta regionerna utifrån dess rörelsehistoria och konturform och att utifrån klassificeringen (160) avgöra vilka kon- turformer som ska överföras (170) (3). till mottagningsenheten
7. Förfarande enligt något av kraven 4-6, varvid om den distinkta regionen klassificeras som humanrelaterat och överförs_konturformen till mottagningsenheten (3).
8. Förfarande enligt något av kraven 3-7, varvid rörelsehistorian överförs till mottagningsenheten (3) tillsammans med konturformen.
9. Förfarande enligt något av föregående krav, var- vid den distinkta regionen skapas (120) ur en registrerad bild med algoritmer som utnyttjar den registrerade bilden och en referensbild.
10. Förfarande enligt något av föregående krav, vidare innefattande steget att lagra (195) den data som ska överföras till mottagningsenheten (3) i ett minnes- organ i övervakningssensorn (1) innan överföringen.
11. ll. Förfarande enligt något av föregående krav, vidare innefattande steget att överföra kompletterande övervakningsinformation till mottagningsenheten (3).
12. Förfarande enligt krav 11, vidare innefattande stegen att registrera en bakgrundsbild av övervaknings- lO 15 20 25 30 35 519 700 .f =-.< 21 platsen och att överföra bakgrundsbilden till mottag- ningsenheten (3).
13. Förfarande enligt något av föregående krav, vidare innefattande steget att trådlöst överföra kontur- formen till mottagningsenheten (3) via en kommunikations- enhet.
14. Förfarande enligt nàgot av föregående krav, vidare innefattande steget att filtrera bort störningar.
15. Förfarande enligt något av föregående krav, vidare innefattande steget att komprimera konturformen med en komprimeringsalgoritm innan den överförs till mot- tagningsenheten (3).
16. Förfarande enligt något av föregående krav, var- vid sökfunktionen är en klockvisaralgoritm.
17. Förfarande enligt något av föregående krav, var- vid konturformen år en polygon.
18. Förfarande enligt krav 17, varvid polygonen innefattar ett antal punkter vars antal är varierbart.
19. Förfarande enligt krav 1-16, varvid konturformen är en splinefunktion.
20. Förfarande enligt något av föregående krav, vidare innefattande steget att i övervakningsenheten skapa minst en delregion inom den distinkta regionen, varvid delregionen representerar ett intensitetsområde.
21. Förfarande enligt krav 20, varvid en uppsättning data som representerar delregionen överförs till mottag- ningsenheten (3).
22. Förfarande enligt krav 21, varvid delregionen representeras av en polygon.
23. Förfarande enligt krav 21, varvid delregionen representeras av en spline.
24. Förfarande enligt nàgot av föregående krav, vidare innefattande steget att i övervakningsenheten extrahera fram dellinjer inom den distinkta regionen.
25. Förfarande enligt krav 24, varvid en uppsättning data som representerar dellinjerna överförs till mottag- ningsenheten (3). lO 15 20 25 30 519 700 22
26. Förfarande enligt krav 25, varvid en splinu~ anpassas till en dellinje för representation av del- linjen.
27. Anordning för behandling av bildinformatior, vilken anordning innefattar åtminstone en övervakninq. sensor (1) och en mottagningsenhet (3), varvid öve1~.^ ningssensorn (1) är anordnad att registrera bilder av en övervakningsplats, att segmentera ut distinkta regioner ur en reg rad bild, att skapa en konturform som är representativ för distinkta regionen, och att överföra konturformen till mottagningsenhe@~ (3).
28. Anordning enligt krav 27, varvid övervaknings» sensorn (1) vidare är anordnad att följa den distink,~ regionens rand med en sökfunktion för att skapa en *' turbild och att anpassa en konturform efter konturbilfif
29. Anordning enligt nàgot av krav 27-28, varvid övervakningssensorn (1) vidare är anordnad att klassificera den distinkta regionen och att utifrån klassificeringen avgöra vilka kontur- former som ska överföras till mottagningsenheten (3).
30. Anordning enligt nàgot av krav 27-29, varvid övervakningssensorn (1) innefattar ett minnesorgan, vil ket är anordnat att lagra konturformen innan överföring sker till mottagningsenheten (3).
31. Anordning enligt nàgot av kraven 27-30, varvid övervakningssensorn (1) och mottagningsenheten (3) tolkar information enligt samma modell.
SE9904742A 1999-12-23 1999-12-23 Bilddatabehandling SE519700C2 (sv)

Priority Applications (18)

Application Number Priority Date Filing Date Title
SE9904742A SE519700C2 (sv) 1999-12-23 1999-12-23 Bilddatabehandling
JP2001549017A JP4578044B2 (ja) 1999-12-23 2000-12-22 画像データ処理
KR1020027008160A KR20020079758A (ko) 1999-12-23 2000-12-22 이미지 데이타 처리
JP2001548344A JP4753340B2 (ja) 1999-12-23 2000-12-22 領域監視の方法、装置及びコンピュータプログラム
PCT/SE2000/002663 WO2001049033A1 (en) 1999-12-23 2000-12-22 Image data processing
DE60041890T DE60041890D1 (de) 1999-12-23 2000-12-22 Bilddatenverarbeitung
AT00989153T ATE427005T1 (de) 1999-12-23 2000-12-22 Bilddatenverarbeitung
EP00989153A EP1266525B1 (en) 1999-12-23 2000-12-22 Image data processing
AT00989154T ATE402457T1 (de) 1999-12-23 2000-12-22 Verfahren, vorrichtung und rechnerprogramm zur überwachung eines gebiets
PCT/SE2000/002664 WO2001048696A1 (en) 1999-12-23 2000-12-22 Method, device and computer program for monitoring an area
AU25696/01A AU2569601A (en) 1999-12-23 2000-12-22 Image data processing
AU25697/01A AU2569701A (en) 1999-12-23 2000-12-22 Method, device and computer program for monitoring an area
CN00817555A CN1413417A (zh) 1999-12-23 2000-12-22 图象数据处理
US09/746,511 US6819353B2 (en) 1999-12-23 2000-12-22 Multiple backgrounds
DE60039630T DE60039630D1 (de) 1999-12-23 2000-12-22 Verfahren, vorrichtung und rechnerprogramm zur überwachung eines gebiets
US09/746,777 US6774905B2 (en) 1999-12-23 2000-12-22 Image data processing
CA2394926A CA2394926C (en) 1999-12-23 2000-12-22 Image data processing
EP00989154A EP1245004B1 (en) 1999-12-23 2000-12-22 Method, device and computer program for monitoring an area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE9904742A SE519700C2 (sv) 1999-12-23 1999-12-23 Bilddatabehandling

Publications (3)

Publication Number Publication Date
SE9904742D0 SE9904742D0 (sv) 1999-12-23
SE9904742L SE9904742L (sv) 2001-06-24
SE519700C2 true SE519700C2 (sv) 2003-04-01

Family

ID=20418270

Family Applications (1)

Application Number Title Priority Date Filing Date
SE9904742A SE519700C2 (sv) 1999-12-23 1999-12-23 Bilddatabehandling

Country Status (10)

Country Link
EP (1) EP1266525B1 (sv)
JP (1) JP4578044B2 (sv)
KR (1) KR20020079758A (sv)
CN (1) CN1413417A (sv)
AT (1) ATE427005T1 (sv)
AU (1) AU2569601A (sv)
CA (1) CA2394926C (sv)
DE (1) DE60041890D1 (sv)
SE (1) SE519700C2 (sv)
WO (1) WO2001049033A1 (sv)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7868912B2 (en) * 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
JP2003016463A (ja) * 2001-07-05 2003-01-17 Toshiba Corp 図形の輪郭の抽出方法、パターン検査方法、パターン検査装置、プログラムおよびこれを格納したコンピュータ読み取り可能な記録媒体
SE0203483D0 (sv) 2002-11-21 2002-11-21 Wespot Ab Method and device for fall detection
KR100815159B1 (ko) 2005-12-08 2008-03-19 한국전자통신연구원 다수의 카메라를 이용한 손 추적 3 차원 입력 장치 및 그방법
KR200449451Y1 (ko) * 2008-10-02 2010-07-12 박규완 일정량을 내장할 수 있는 대나무통 용기
KR101337057B1 (ko) 2012-12-21 2013-12-05 주식회사 엘지유플러스 M2m 기반의 영상 데이터 처리를 위한 m2m 게이트웨이, 방법, 및 기록 매체
US10432877B2 (en) 2014-06-30 2019-10-01 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
EP3319041B1 (en) 2016-11-02 2022-06-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US10970896B2 (en) 2016-11-02 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2019022209A1 (ja) 2017-07-26 2019-01-31 旭化成株式会社 監視システム及び監視方法
KR101854320B1 (ko) 2017-12-07 2018-06-08 전북대학교 산학협력단 얼굴패턴 및 객체패턴 데이터 베이스를 이용한 실시간 능동형 수배자 영상검출 시스템
JP7030534B2 (ja) 2018-01-16 2022-03-07 キヤノン株式会社 画像処理装置および画像処理方法
CN110516083B (zh) * 2019-08-30 2022-07-12 京东方科技集团股份有限公司 相册管理方法、存储介质及电子设备
US12041363B2 (en) * 2020-01-20 2024-07-16 Sony Group Corporation Display control device, display control method, and program for displaying images based on satellite imaging

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3381833D1 (de) * 1982-03-31 1990-10-04 Gen Electric Verfahren und geraet zur sehbildverarbeitung und zur eckpunktsortierung in einem sehbild-verarbeitungssystem.
US4679077A (en) * 1984-11-10 1987-07-07 Matsushita Electric Works, Ltd. Visual Image sensor system
EP0445334A1 (de) * 1990-03-08 1991-09-11 Siemens Aktiengesellschaft Verfahren zur Detektion von Intrudern
US5555512A (en) * 1993-08-19 1996-09-10 Matsushita Electric Industrial Co., Ltd. Picture processing apparatus for processing infrared pictures obtained with an infrared ray sensor and applied apparatus utilizing the picture processing apparatus
US5666157A (en) * 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
WO1998028706A1 (en) * 1996-12-23 1998-07-02 Esco Electronics Corporation Low false alarm rate video security system using object classification

Also Published As

Publication number Publication date
JP2003521769A (ja) 2003-07-15
EP1266525A1 (en) 2002-12-18
JP4578044B2 (ja) 2010-11-10
AU2569601A (en) 2001-07-09
CA2394926C (en) 2010-05-11
SE9904742D0 (sv) 1999-12-23
WO2001049033A1 (en) 2001-07-05
ATE427005T1 (de) 2009-04-15
DE60041890D1 (de) 2009-05-07
SE9904742L (sv) 2001-06-24
EP1266525B1 (en) 2009-03-25
KR20020079758A (ko) 2002-10-19
CN1413417A (zh) 2003-04-23
CA2394926A1 (en) 2001-07-05

Similar Documents

Publication Publication Date Title
US6774905B2 (en) Image data processing
CN109886130B (zh) 目标对象的确定方法、装置、存储介质和处理器
KR101337060B1 (ko) 화상 처리 장치 및 화상 처리 방법
CN108027874B (zh) 使用深度摄像头的基于计算机视觉的安全***
CN105164695B (zh) 用于探测视频数据中的高兴趣事件的***和方法
US7479980B2 (en) Monitoring system
US7660439B1 (en) Method and system for flow detection and motion analysis
KR101839827B1 (ko) 원거리 동적 객체에 대한 얼굴 특징정보(연령, 성별, 착용된 도구, 얼굴안면식별)의 인식 기법이 적용된 지능형 감시시스템
SE519700C2 (sv) Bilddatabehandling
EP2549759B1 (en) Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras
KR20160003997A (ko) 지능형 영상 분석 시스템 및 방법
CN109218667B (zh) 一种公共场所安全预警***和方法
CN107330414A (zh) 暴力行为监控方法
CN113052107A (zh) 一种检测安全帽佩戴情况的方法、计算机设备及存储介质
US20240046701A1 (en) Image-based pose estimation and action detection method and apparatus
JP6851221B2 (ja) 画像監視装置
KR101485512B1 (ko) 객체 행동패턴의 해마 신경망 학습을 이용한 미래범죄 발생확률 우선순위 이벤트 cctv 영상처리 방법
US20230088660A1 (en) Identity-concealing motion detection and portraying device
KR101547255B1 (ko) 지능형 감시 시스템의 객체기반 검색방법
EP1261951B1 (en) Surveillance method, system and module
Zaman et al. Human detection from drone using you only look once (YOLOv5) for search and rescue operation
JPH0620049A (ja) 侵入者識別システム
KR101169631B1 (ko) 검출 인터페이스를 구비한 영상분석 카메라, 영상분석 시스템 및 그 검출 조정 방법
CN113239772B (zh) 自助银行或atm环境中的人员聚集预警方法与***
KR102161344B1 (ko) 스트림 리즈닝 감시 시스템 및 그것을 이용한 스트림 리즈닝 감시방법

Legal Events

Date Code Title Description
NUG Patent has lapsed