SE519279C2 - Custom filters for scene change detection - Google Patents

Custom filters for scene change detection

Info

Publication number
SE519279C2
SE519279C2 SE0102209A SE0102209A SE519279C2 SE 519279 C2 SE519279 C2 SE 519279C2 SE 0102209 A SE0102209 A SE 0102209A SE 0102209 A SE0102209 A SE 0102209A SE 519279 C2 SE519279 C2 SE 519279C2
Authority
SE
Sweden
Prior art keywords
image
operator
area
filter
sensor
Prior art date
Application number
SE0102209A
Other languages
Swedish (sv)
Other versions
SE0102209L (en
SE0102209D0 (en
Inventor
Anders Heyden
Original Assignee
Wespot Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wespot Ab filed Critical Wespot Ab
Priority to SE0102209A priority Critical patent/SE519279C2/en
Publication of SE0102209D0 publication Critical patent/SE0102209D0/en
Priority to US10/174,024 priority patent/US7203337B2/en
Priority to PCT/SE2002/001187 priority patent/WO2003001810A1/en
Publication of SE0102209L publication Critical patent/SE0102209L/en
Publication of SE519279C2 publication Critical patent/SE519279C2/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/1968Interfaces for setting up or customising the system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

A method for detection of a change in the scene in an area. The method comprises the steps of recording (100) a digital image of the area using a sensor and transforming (110) the recorded image by an operator. The operator is based on a previous modelling of changes in the lighting in the area and on a modelling of how the sensor depicts the area in greyscale values in the recorded image. The method further comprises the step of comparing (120) the transformed image with a reference image of the area in order to detect a difference that indicates a change in the scene.

Description

a av... -- u-.. a v v n a u' 10 15 20 25 30 35 , . 519 279 2 det att referensbilden registrerades till det att den aktuella bilden registreras. En ljusförändring innebär att att det ett det infallande ljuset i scenen förändras t ex genom solen går i moln eller en lampa tänds. Vanligtvis är endast scenförändringen som är intressant. Detta är problem eftersom det är mycket svàrt att skilja mel- lan en scenförändring och en ljusförändring. a av ... - u- .. a v v n a u '10 15 20 25 30 35,. 519 279 2 that the reference image was registered until the current image is registered. A change in light means that the incident light in the scene changes, for example through the sun going into clouds or a lamp being lit. Usually, only the scene change is interesting. This is a problem because it is very difficult to distinguish between a scene change and a light change.

I US 5 956 424 beskrivs ett förfarande vid video- övervakning i vilket man försöker skilja bort ljusför- ändringarna fràn scenförändringarna. Detta sker genom att man försöker modellera intensiteten hos det ljus som strålar ut fràn ytorna i scenen för att pà så sätt filt- rera bort ljusförändringar. Fig l i föreliggande ansökan visar enligt känd teknik att den i sensorn infallande intensiteten är beroende av scenen och det ljus som Det är alltså bàde det infallande ljuset och scenen som ger upphov till den i sensorn in- faller in i scenen. fallande intensiteten. Den infallande intensiteten re- gistreras som gránivàer i sensorn. I förfarandet enligt US 5 956 424, från en yta IM är direkt proportionell mot den infallande antar man att den intensitet som strålar ut intensiteten Im, dvs Iu= r*Im, varvid r är reflektansen hos en yta. Om en ljusförändring inträffar antar man att denna är linjärt proportionell dvs Iute&er1ymf@åmkng= k*ïuc före ljusförändringfi k*ï*ïin före ljusförändring, där k är en ljusförändringsfaktor.US 5,956,424 describes a method of video surveillance in which an attempt is made to separate the light changes from the scene changes. This is done by trying to model the intensity of the light that radiates from the surfaces in the scene in order to filter out light changes. Fig. 1 in the present application shows according to known technology that the intensity incident on the sensor is dependent on the scene and the light which It is thus both the incident light and the scene which gives rise to it in the sensor incident on the scene. decreasing intensity. The incident intensity is registered as gray levels in the sensor. In the method according to US 5,956,424, from a surface IM is directly proportional to the incident, it is assumed that the intensity radiating the intensity Im, i.e. Iu = r * Im, where r is the reflectance of a surface. If a light change occurs, it is assumed that this is linearly proportional, ie Iute & er1ymf @ åmkng = k * ïuc before light change fi k * ï * ïin before light change, where k is a light change factor.

Förfarandet enligt US 5 956 242 gär ut pä att be- räkna kvoter mellan grànivàer för närliggande pixlar även kallat bildpunkter. Bildpunkt eller pixel kan sägas vara ett annat namn för element i matrisen som representerar den digitala bilden. Kvoten är ett mätt som endast beror pà reflektanserna r hos en yta. Man skapar en ny bild vars olika punktvärden endast speglar reflektansen i den tillhörande punkten och jämför sedan denna bild med en referensbild i vilken varje punkts reflektans är beräknad under antagandet om att ljusförändringarna är proportio- nellt linjära, se 2- I 2 Visas Iföre ljusförändring som ropa» lO l5 20 25 30 35 . .- . _ _. .. _ .. , . va: ~ I _", .o I ' '_ ' - ' ' ' _ .. . - - _ , . . -; _ . g . -- - 1; . - - - ~ 3. I . -_ , t.. E- _ u, .n- .L _, _. n" _ . 3 fUflkCiOn av Iefierifimfinmmrng i en Pixel, ÖVS ïener1ymfm= âmhng = k* Ifmæ nufiäfimhng. Om ljusförändringen är samma i hela bilden ser kurvan likadan ut för alla pixlar. Lut- ningen på kurvan återger reflektansen. Kvoten mellan två närliggande pixlar kan exempelvis beräknas pixelvis under antagandet att belysningen av scenen är likadan för när- liggande områden, dvs Im(X+l,y)= ImÅX,y), enligt föl- jande kIu,(x+1,y) __ qkI,n(x+1,y) _ r, kIm(x,y) r¿kI¿(x,y) 5 Kvoten är alltså oberoende av k.The method according to US 5,956,242 is based on calculating ratios between green levels for adjacent pixels, also called pixels. Pixel or pixel can be said to be another name for elements in the matrix that represent the digital image. The ratio is a measure that only depends on the reflectances r of a surface. You create a new image whose different point values only reflect the reflectance of the associated point and then compare this image with a reference image in which the reflectance of each point is calculated under the assumption that the light changes are proportionally linear, see 2- I 2 Shown Before light change as ropa »lO l5 20 25 30 35. .-. _ _. .. _ ..,. va: ~ I _ ", .o I '' _ '-' '' _ ... - - _,.. -; _. g. - - 1;. - - - ~ 3. I. -_ , t .. E- _ u, .n- .L _, _. n "_. 3 fU fl kCiOn av Ie fi eri fi m fi nmmrng i en Pixel, ÖVS ïener1ymfm = âmhng = k * Ifmæ nu fi ä fi mhng. If the light change is the same throughout the image, the curve looks the same for all pixels. The slope of the curve reflects the reflectance. The ratio between two adjacent pixels can, for example, be calculated in pixels assuming that the illumination of the scene is the same for adjacent areas, ie Im (X + 1, y) = ImÅX, y), according to the following kIu, (x + 1, y ) __ qkI, n (x + 1, y) _ r, kIm (x, y) r¿kI¿ (x, y) 5 The quotient is thus independent of k.

Proportionella linjära ljusförändringar som denna modell gäller för uppträder när ljuset reflekteras mot en Lambertsk yta (lambertian surface). Detta är en matt yta, som när den belyses, strålar lika mycket i alla rikt- ningar och inte ger upphov till någon reflektion. Med denna modellering och detta förfarande ökar sannolikheten för att en detekterad förändring beror på en scenföränd- ring. Dock detekteras fortfarande många ljusförändringar som scenförändringar, vilket kan orsaka kostsamma fel- larm. Om man mäter ljusintensiteten kan man i verklig- heten fà fram den kurva som visas i fig 3, vilket inte är en proportionellt linjär kurva.Proportional linear light changes to which this model applies occur when light is reflected against a lambertian surface. This is a matt surface which, when illuminated, radiates the same amount in all directions and does not give rise to any reflection. With this modeling and this procedure, the probability increases that a detected change is due to a scene change. However, many light changes are still detected as scene changes, which can cause costly error alarms. If you measure the light intensity, you can in fact obtain the curve shown in Fig. 3, which is not a proportionally linear curve.

Att kurvan inte blir proportionellt linjär beror framförallt pà att sensorn inte avbildar de infallande intensiteterna proportionellt linjärt på grå-nivåer, utan affint, och till viss del på att vissa ytor på ett av sensorn övervakat omrâde inte uppfyller kraven på att vara en Lambertsk yta. Med en affin avbildning menas att I =aIfi,.,e+b.The fact that the curve does not become proportionally linear is mainly due to the sensor not imaging the incident intensities proportionally linearly on gray levels, but affinely, and to some extent to the fact that certain surfaces in an area monitored by the sensor do not meet the requirements for a Lambert surface. By an affine mapping is meant that I = aI fi,., E + b.

Ett annat problem med förfarandet enligt efler US 5 956 424 är att beräkningen av kvoten mellan intensi- teterna för närliggande pixlar medför att systemet blir mer bruskänsligt. Bruskänsligheten uppkommer exempelvis i mycket mörka områden i bilden, eller vid kanter där ena lO 15 20 25 30 35 519 279 4 sidan är mörk och den andra är ljus. Antag att kvoten beräknas mellan tvà pixlar där intensiteterna i referens- bilden är 5 respektive 20, dvs kvoten blir 20/5 =4. Om den aktuella bilden över övervakningsområdet registreras med en sensor som innehåller brus i varje pixel på maxi- malt 2 intensitetsniväer kan denna kvot variera mellan 22/3=7.3 och 18/7=2.4, vilket kan jämföras med referens- bildens kvot på 4.Another problem with the method according to US 5,956,424 is that the calculation of the ratio between the intensities of adjacent pixels makes the system more sensitive to noise. Noise sensitivity occurs, for example, in very dark areas of the image, or at edges where one side is dark and the other is light. Assume that the ratio is calculated between two pixels where the intensities in the reference image are 5 and 20, respectively, ie the ratio becomes 20/5 = 4. If the current image over the monitoring area is registered with a sensor that contains noise in each pixel at a maximum of 2 intensity levels, this ratio can vary between 22/3 = 7.3 and 18/7 = 2.4, which can be compared with the reference image's ratio of 4.

En annan känd teknik för att försöka lösa problemet med att ljusförändringar detekteras som scenförändringar är NVD ”Normalized Vector Distance”(normaliserat vektor- avstånd). Denna teknik beskrivs i Matsuyama, Ohya, Habe: Background subtraction for non-stationary scene, Procee- dings of the fourth Asian conference on computer vision, 2000, pp 662-667. I denna artikel försöker man precis som ovan lösa problemet med ljusförändringar i bilden genom att modellera dem som proportionellt linjära ljusföränd- ringar, kLm= krIm_där k är en ljusförändringsfaktor. I NVD delas bilden upp i block. Storleken på blocken kan väljas efter användningsomràdet. Exempelvis kan blocken vara 2 pixlar stora, se fig 4. Det första blocket kan ha (30,30) och det andra blocket (50,50). torer har samma riktning och det beslutas därför att för- värdet Dessa vek- ändringen beror på en ljusförändring. Om riktningen skil- jer sig àt över en bestämd tröskelgräns beslutas föränd- ringen bero på en scenförändring. Genom att betrakta vinklar mellan vektorer bildade utifrån intensiteter i delområden, får man ett mått som är invariant under pro- portionellt linjära förändringar av intensiteterna. Med invariant menas i detta sammanhang att vinkeln mellan vektorerna för referensbilden och aktuell bild är likadan oberoende av affina transformationer av grànivåer i den aktuella bilden.Another known technique for trying to solve the problem of light changes being detected as scene changes is NVD “Normalized Vector Distance”. This technique is described in Matsuyama, Ohya, Habe: Background subtraction for non-stationary scene, Procedures of the fourth Asian conference on computer vision, 2000, pp 662-667. In this article, just as above, an attempt is made to solve the problem of light changes in the image by modeling them as proportionally linear light changes, kLm = krIm_where k is a light change factor. In NVD, the image is divided into blocks. The size of the blocks can be selected according to the area of use. For example, the blocks can be 2 pixels large, see Fig. 4. The first block can have (30.30) and the second block (50.50). tors have the same direction and it is therefore decided that the value These wek change is due to a light change. If the direction differs beyond a certain threshold limit, the change is decided to be due to a scene change. By looking at angles between vectors formed on the basis of intensities in sub-areas, one obtains a measure that is invariant during proportionally linear changes of the intensities. By invariant is meant in this context that the angle between the vectors of the reference image and the current image is the same independent of affine transformations of gray levels in the current image.

Med NVD erhålls samma nackdelar som nämnts ovan, vilket leder till att en ljusförändring kan tolkas som en scenförändring. Även problemen med mörka områden kvar- stàr, eftersom man bildar en vektor med komponenter be- lO l5 20 25 30 35 . ~ .vanan u y 519 279 5 stående av intensiteterna i en ruta som innefattar ett antal pixlar och sedan normaliserar denna. Om vektorn exempelvis utgörs av en 4 dimensionell vektor med små komponenter, t ex (2,5,4,4), och de registrerade bilderna innehåller brus med max 2 intensitetsnivàer kan rikt- ningen på denna vektor variera kraftigt, vilket kan re- sultera i falsklarm.With NVD, the same disadvantages as mentioned above are obtained, which leads to a change in light that can be interpreted as a change in scene. The problems with dark areas also remain, since a vector with components is formed. ~ .van u y 519 279 5 standing by the intensities of a box that includes a number of pixels and then normalizes this. For example, if the vector consists of a 4-dimensional vector with small components, eg (2,5,4,4), and the registered images contain noise with a maximum of 2 intensity levels, the direction of this vector can vary greatly, which can result in in false alarms.

Sammanfattning av uppfinningen Det är alltså ett ändamål med föreliggande uppfin- ning att tillhandahålla ett förfarande för bildbehandling som med större tillförlitlighet kan detektera scenför- ändringar och mer speciellt diskriminera mellan föränd- ringar beroende på ljusförhàllande och förändringar be- roende på scenförhållande.SUMMARY OF THE INVENTION It is thus an object of the present invention to provide a method for image processing which can more reliably detect scene changes and more specifically discriminate between changes depending on light conditions and changes due to scene conditions.

Enligt en första aspekt av föreliggande uppfinningen innefattar denna ett förfarande vid bildbehandling för detektion av en scenförändring i ett område innefattande stegen att med en sensor registrera en digital bild av området, att transformera den registrerade bilden med en operator, som är baserad på en i förväg gjord modellering av ljusförändringar i området och på en modellering av hur sensorn avbildar området på grànivåer i den registre- rade bilden, och att jämföra den transformerade bilden med en referensbild av området för att detektera en skillnad som indikerar en scenföràndring.According to a first aspect of the present invention, it comprises an image processing method for detecting a scene change in an area comprising the steps of registering with a sensor a digital image of the area, transforming the recorded image with an operator based on a pre-image. made modeling of light changes in the area and on a modeling of how the sensor images the area at gray levels in the registered image, and to compare the transformed image with a reference image of the area to detect a difference that indicates a scene change.

Till grund för uppfinningen ligger en analys av ljusförändringar som visar att ljusförändringar inte en- bart beror på ljusförändringar i scenen och ytornas ref- lektansegenskaper, utan även på hur sensorn avbildar in- tensiteter på grànivàer. Genom att modellera för dessa ljusförändringar reduceras antalet fellarm, eftersom dessa ljusförändringar ej kommer att transformeras bort vid jämförelsen mellan den transformerade registrerade bilden och referensbilden. Fellarm är dyra och med minskat antal fellarm minskar också kostnaden för system som använder detta förfarande. Ytterligare en fördel är att man kan göra olika sensorinställningar såsom föränd- l0 15 20 25 30 35 n annan _ i 519 279 6 ring av förstärkning och bländare, utan risk att dessa kommer att detekteras som scenförändringar i området.The invention is based on an analysis of light changes which shows that light changes are not only due to light changes in the scene and the reflectance properties of the surfaces, but also to how the sensor depicts intensities at green levels. By modeling for these light changes, the number of false alarms is reduced, since these light changes will not be transformed away in the comparison between the transformed recorded image and the reference image. Fault alarms are expensive and with a reduced number of fault alarms, the cost of systems using this procedure also decreases. Another advantage is that different sensor settings can be made, such as changes in gain and aperture, without the risk that these will be detected as scene changes in the area.

Detta förfarande är möjligt att använda vid olika typer av övervakning sàsom exempelvis inbrottsövervak- ning. I detta fall får inga främmande föremål befinna sig inom det övervakade området. Förfarandet kan också använ- das vid tillverkningsprocesser för avsyning av olika delar för att upptäcka fel pà den tillverkade produkten.This method can be used for various types of surveillance, such as burglary surveillance. In this case, no foreign objects may be within the monitored area. The method can also be used in manufacturing processes for inspecting various parts to detect defects in the manufactured product.

I en fördragen utföringsform är även referensbilden transformerad med nämnda operator.In a preferred embodiment, the reference image is also transformed with said operator.

Den transformerade bilden jämförs med en referens- bild som är transformerad enligt samma förfarande. En fördel med detta är att den transformerade referensbilden och transformerade registrerade bilden skiljer sig ät vid scenförändring, men är lika under de intensitetsföränd- ringar som operatorn är modellerad för. Pà detta sätt minskar antalet fellarm.The transformed image is compared with a reference image that has been transformed according to the same procedure. An advantage of this is that the transformed reference image and the transformed registered image differ slightly in the case of a scene change, but are equal during the intensity changes for which the operator is modeled. In this way, the number of false alarms is reduced.

I en föredragen utföringsform är operatorn invariant med avseende pä transformationer av nämnda gräniväer i den registrerade bilden.In a preferred embodiment, the operator is invariant with respect to transformations of said boundary levels in the recorded image.

Fördelen med att operatorn är invariant är att den transformerade bilden är densamma även om det sker en sådan förändring i grànivàerna som operatorn är modelle- rad för. Detta medför att när den transformerade regist- rerade bilden jämförs med en pà samma sätt transformerad referensbild kommer de skillnader som detekteras indikera scenförändring och inte ovan nämnda grànivàförändring.The advantage of the operator being invariant is that the transformed image is the same even if there is such a change in the gray levels for which the operator is modeled. This means that when the transformed registered image is compared with a similarly transformed reference image, the differences that are detected will indicate a scene change and not the above-mentioned green level change.

I ytterligare en föredragen utföringsform är opera- torn en affin invariant.In another preferred embodiment, the operator is an affine invariant.

Denna utföringsform bygger på idén att tranformera bilden och beräkna ett invariant affint mätt som är samma under affina intensitetsförändring. Fördelen med att an- vända affina funktioner är att man får ett mätt som är oförändrat vid affina intensitetsförändringar, men ändras vid en scenförändring. Operatorn är invariant under affina transformationer. lO 15 20 25 30 35 nun: . n .mono- I 519 279 7 Om man inte tar hänsyn till att grànivåerna som registreras i den digitala bilden både beror pà den in- fallande intensiteten och på hur sensorn omvandlar dessa intensiteter till grånivàer kan man missa bildinformation som kan vara viktig för den fortsatta bildbehandlingen, se fig 5. Bilden visar intensiteten före en intensitets- förändring som funktion av intensiteten efter en intensi- tetsförändring. Intervallen O - 255 är ett màtintervall inom vilket sensorn är inställd på att registrera inten- siteter och omvandla dessa till tal mellan O och 255.This embodiment is based on the idea of transforming the image and calculating an invariant affine measured which is the same during affine intensity change. The advantage of using affine functions is that you get a measure that is unchanged with affine intensity changes, but changes with a scene change. The operator is invariant during affine transformations. lO 15 20 25 30 35 nun:. n .mono- I 519 279 7 If one does not take into account that the gray levels recorded in the digital image depend both on the incident intensity and on how the sensor converts these intensities to gray levels, one can miss image information that may be important for the continued the image processing, see fig. 5. The image shows the intensity before an intensity change as a function of the intensity after an intensity change. The intervals O - 255 are a measurement interval within which the sensor is set to register intensities and convert these into numbers between 0 and 255.

Intensiteter som hamnar utanför mätintervallet omvandlas till talen O eller 255. kan mätintervallet var förskjutet och information gå för- Efter en intensitetsförändring lorad. För att åtgärda detta kan mätintervallet flyttas.Intensities that fall outside the measuring range are converted to the numbers 0 or 255. The measuring range can be shifted and information can be lost. To remedy this, the measuring range can be moved.

Det finns kända algoritmer för denna förflyttning av mät- intervallet. Om man endast använder kvoter som tar hänsyn till linjärt proportionella ljusförändringar slår denna förflyttning igenom i den transformerade bilden. Om man däremot använder det affint invarianta måttet slår inte förflyttningen av mätintervallet igenom i den transfor- merade bilden. Uppfinningen modellerar både hur belys- ningen påverkar det emitterade ljuset från en Lambertsk yta och hur sensorn avbildar den infallande intensiteten.There are known algorithms for this shift of the measurement range. If you only use quotas that take into account linearly proportional light changes, this movement will have an effect on the transformed image. If, on the other hand, the affinely invariant measure is used, the movement of the measurement interval does not take effect in the transformed image. The invention models both how the illumination affects the emitted light from a Lambert surface and how the sensor images the incident intensity.

Fig 5 visar att man med en proportionellt linjär transformation inte på ett tillförlitligt sätt kan fånga upp de variationer i intensiteten som uppträder eftersom dessa uppträder inom ett begränsat grånivåintervall. Ge- nom att istället som i vàr uppfinning tillämpa en affin transformation och flytta mätintervallen kan variatio- nerna som uppträder i ett bestämt intervall bättre fångas upp. Hur denna affina transformation ser ut, dvs var någonstans i koordinatsystemet den hamnar beror bland annat på sensorns exponeringstid och bländare. Inställ- ningarna i sensorn ändrar grånivåintervallets läge. En fördel med vår uppfinning är alltså att en ändring av mätintervallet inte ger upphov till en scenförändring. »;;|. 10 l5 20 25 30 35 n Û IQ . . n. . n _°', .Z 1 nv. ' - . I I' '° ' 4 u 0 ' " u~ v ' , .o I O: . , g .o :I- ' _ u ' , n n 8 En annan fördel med uppfinningen är att den tar hänsyn även till affina intensitetsförändringar och där- med även klarar av att hantera olika inställningar i sensorn såsom exponering och bländare. Detta för med sig att antalet fellarm minskar. Därigenom reduceras också kostnaderna för övervakning.Fig. 5 shows that with a proportional linear transformation it is not possible to reliably capture the variations in intensity that occur because these occur within a limited gray level range. By applying an affine transformation and moving the measurement intervals instead, as in our invention, the variations that occur in a specific interval can be better captured. What this affine transformation looks like, ie where somewhere in the coordinate system it ends up, depends, among other things, on the sensor's exposure time and aperture. The settings in the sensor change the position of the gray level interval. An advantage of our invention is thus that a change in the measuring interval does not give rise to a scene change. »;; |. 10 l5 20 25 30 35 n Û IQ. . n. n _ ° ', .Z 1 nv. '-. II '' ° '4 u 0' "u ~ v ', .o IO:., G .o: I-' _ u ', nn 8 Another advantage of the invention is that it also takes into account affine intensity changes and where - but also manages to handle various settings in the sensor such as exposure and aperture, which means that the number of false alarms is reduced, thereby also reducing the costs of monitoring.

Ytterligare en fördel är att uppfinningen också klarar av att hantera intensitetsförändringar i ytor som strålar lika mycket hela tiden dvs självstràlande ytor, säsom en lampa. Dessutom klarar uppfinningen också av att hantera mellantinget mellan självstràlande ytor och lambertska ytor. Givetvis klarar uppfinningen också av att hantera lambertska ytor.Another advantage is that the invention is also capable of handling intensity changes in surfaces which radiate the same amount all the time, ie self-radiating surfaces, such as a lamp. In addition, the invention is also capable of handling the intermediate between self-radiating surfaces and Lambertian surfaces. Of course, the invention is also capable of handling Lambert surfaces.

Ljusförändringen kan modelleras som Iefzer ijusföränaring = C*k*ïföre ljusföränaring + b där c är en konstant som beror pà sensorn och av reflek- tansen och b är konstant som beror pá sensorn. Fortsätt- ningsvis används beteckningen a=c*k. Fördelen med denna modellering är att man även tar hänsyn till sensorns inställningar. Genom att modellera pà detta sätt tas också hänsyn till ljusförändringsfunktioner Qm,=a[We+b i vilka a=1, dvs en rak funktion enligt följande I vilket kan inträffa vid vissa inställningar av sensorn. 4m_=Ißn-kb. Detta är speciellt bra i de fall b är stort, Ytterliggare en fördel är att man även klarar av proportionellt linjära belysningsförändringar, dvs I i de fall b är litet, vilket kan inträffa vid vissa =a[We+b, med b=O, vilket ger Iwu=wJßm. Detta är bra my belysningsförändringar.The light change can be modeled as Iefzer light change = C * k * ï before light change + b where c is a constant that depends on the sensor and of the reflectance and b is a constant that depends on the sensor. The term a = c * k is still used. The advantage of this modeling is that you also take into account the sensor's settings. By modeling in this way, light change functions Qm, = a [We + b in which a = 1, ie a straight function according to the following I, which can occur at certain settings of the sensor, are also taken into account. 4m_ = Ißn-kb. This is especially good in cases where b is large. Another advantage is that you can also handle proportionally linear lighting changes, ie I in cases where b is small, which can occur at some = a [We + b, with b = 0, which gives Iwu = wJßm. This is good my lighting changes.

I en annan föredragen utföringsform av förfarandet enligt uppfinningen innefattar steget att transformera stegen att filtrera den registrerade bilden med ett första filter, att filtrera den registrerade bilden med ett andra filter, varvid det första och det andra filtret skiljer sig fràn varandra och bäda har koefficientsumman noll, och att bilda kvoten mellan de filtrerade bilderna. 10 15 20 .. 25 30 ~" n . a .penna 519 279 ...- - '- .-..- . . . - .. .- 0,' «.,__ 9 Fördelen med att använda filter är att det minskar bruskänsligheten. Den registrerade bilden filtreras innan kvoterna mellan olika pixlar beräknas för att minska bruskänsligheten. Kvoten mellan bilderna utförs pixelvis.In another preferred embodiment of the method according to the invention, the step of transforming the steps comprises filtering the recorded image with a first filter, filtering the recorded image with a second filter, the first and the second filter being different from each other and both having the coefficient sum zero , and to form the ratio between the filtered images. 10 15 20 .. 25 30 ~ "n. A .penna 519 279 ...- - '-.-..-... - .. .- 0,'«., __ 9 The advantage of using filters is The registered image is filtered before the ratios between different pixels are calculated to reduce the noise sensitivity.The ratio between the images is executed in pixels.

Det affint invarianta måttet kan alltså skrivas som RH m'_F2=-=1 där Fl och F2 betecknar olika filter med koefficientsumman noll och I=I(x,y) betecknar intensiteterna i bilden. Fràn denna formel kan man visa att affina transformationer av intensiteterna i bilderna inte påverkar måttet ml g*¿ H*@Q+® aE*Q+E*b R*Q " FZ *Je _ F2»«(a1,+b) MFZ *1,+F2 *b _ FZ *If mf där Ie är intensiteten efter ljusförändringen och If är intensiteten före ljusförändringen. Den sista kvoten erhålls eftersom P}*If==F;*If=O, vilket kommer av att koefficientsumman för Fl och F2 är noll.The affine invariant measure can thus be written as RH m'_F2 = - = 1 where F1 and F2 denote different filters with the coefficient sum zero and I = I (x, y) denote the intensities in the image. From this formula it can be shown that refining transformations of the intensities in the images do not affect the measure ml g * ¿H * @ Q + ® aE * Q + E * b R * Q "FZ * Je _ F2» «(a1, + b) MFZ * 1, + F2 * b _ FZ * If mf where Ie is the intensity after the light change and If is the intensity before the light change.The last ratio is obtained because P} * If == F; * If = O, which comes from the coefficient sum for Fl and F2 is zero.

I specialfallet som nämndes ovan där 1¿m,=aIfim-kb och a=l, dvs en rak funktion enligt följande Qm,=Ifim+b räcker det med att använda den approximativa invarianten m(1)(x,y) = F *I där F' betecknar ett godtyckligt filter med koefficient- summan 0.In the special case mentioned above where 1¿m, = aI fi m-kb and a = 1, ie a straight function according to the following Qm, = I fi m + b, it is sufficient to use the approximate invariant m (1) (x, y) = F * Where F 'denotes an arbitrary filter with the coefficient sum 0.

I det fall där LW,=a[m?+b, næd b=O, vilket ger I =afW? räcker det med den approximativa invarianten efrer HH 'm-Fzw -. vv.. v~.- 10 15 20 25 30 35 . ~ .annan v 519 279 10 där P] och P; betecknar godtyckliga filter med samma koefficientsumma, eftersom _1946 _F,=»=(a1,)_a1~",=~=1, _F,*1, "FZ-ne " FZ *(a1,)_ QFgI, -Fglf ml I detta fall räcker det med att koefficientsummorna för P] och F; är lika eftersom b=O.In the case where LW, = a [m? + B, near b = O, which gives I = afW? it is sufficient with the approximate invariant efrer HH 'm-Fzw -. vv .. v ~ .- 10 15 20 25 30 35. ~ .annan v 519 279 10 where P] and P; denotes arbitrary filters with the same coefficient sum, since _1946 _F, = »= (a1,) _ a1 ~", = ~ = 1, _F, * 1, "FZ-ne" FZ * (a1,) _ QFgI, -Fglf ml I in this case it is sufficient that the coefficient sums of P] and F; are equal since b = 0.

I en utföringsform är det första och det andra filt- ret en derivata av Gaussfunktionen.In one embodiment, the first and second filters are a derivative of the Gaussian function.

Fördelen med Gaussfunktionen är att den är enkel att implementera och att den grundar sig pá en väl dokumen- terad skalrumsteori, som innebär att utjämningen och brusreduceringen blir optimal.The advantage of the Gaussian function is that it is easy to implement and that it is based on a well-documented scale room theory, which means that the smoothing and noise reduction is optimal.

I ytterligare en utföringsform enligt uppfinningen är det första filtret en derivata av Gaussfunktionen i x- led och det andra en derivata av samma Gaussfunktion i y- led.In a further embodiment according to the invention, the first filter is a derivative of the Gaussian function in the x-direction and the second a derivative of the same Gaussian function in the y-direction.

Med fördel används Gaussfunktionen av samma skala eftersom detta innebär en enklare implementering.The Gaussian function of the same scale is advantageously used, as this means a simpler implementation.

I en utföringsform enligt uppfinningen är det första och det andra filtret två enkla differensfilter mellan intensiteten i en pixel och intensiteten i en annan pixel.In an embodiment according to the invention, the first and the second filter are two simple difference filters between the intensity in one pixel and the intensity in another pixel.

Fördelen med denna utföringsform är att den är mycket enkel att implementera och dessutom mycket snabb.The advantage of this embodiment is that it is very easy to implement and also very fast.

I en annan utföringsform enligt uppfinningen är det första filtret ett differensfilter mellan två pixlar horisontellt bredvid varandra och det andra filtret är ett differensfilter mellan tvà pixlar vertikalt bredvid varandra.In another embodiment of the invention, the first filter is a difference filter between two pixels horizontally next to each other and the second filter is a difference filter between two pixels vertically next to each other.

De båda filtren är alltså differensfilter mellan intilliggande pixlar i två ortogonala riktningar. Med fördel överensstämmer en pixel fràn differensen i verti- kalled med en pixel fràn differensen i horisontalled. |ovn~o u s . --. e» lO 15 20 25 30 35 519 279 ll I en föredragen utföringsform enligt uppfinningen är operatorn en modifiering av normaliserat vektoravständ, varvid steget att transformera innefattar stegen att be- räkna medelvärdet av intensiteten i en delmängd av den registrerade bilden, att i varje pixel dra ifrån medel- värdet och att utföra en normaliserad vektoravstànds- beräkning.The two filters are thus difference filters between adjacent pixels in two orthogonal directions. Advantageously, one pixel from the difference in the vertical direction corresponds to one pixel from the difference in the horizontal direction. | ovn ~ o u s. -. In a preferred embodiment of the invention, the operator is a modification of normalized vector spacing, the step of transforming comprising the steps of calculating the average of the intensity in a subset of the recorded image, that in each pixel subtract the mean and perform a normalized vector distance calculation.

Fördelen med denna modifierade NVD är att den till skillnad från den normala NVD:n tar hänsyn till affina ljusförändringar.The advantage of this modified NVD is that, unlike the normal NVD, it takes into account refined light changes.

I en annan föredragen utföringsform enligt uppfin- ningen innefattar steget att jämföra steget att beräkna skillnaden mellan respektive vektor i den transformerade registrerade bilden och den transformerade referens- bilden.In another preferred embodiment according to the invention, the step of comparing comprises the step of calculating the difference between the respective vector in the transformed registered image and the transformed reference image.

Skillnaden kan beräknas genom att beräkna vinkeln mellan vektorerna eller avståndet mellan vektorerna.The difference can be calculated by calculating the angle between the vectors or the distance between the vectors.

En förutbestämd tröskelnivà kan sättas. Om avståndet överstiger denna nivà kan det beslutas att en scenföränd- ring föreligger. Alternativt kan man säga att det är vinkeln mellan vektorerna som jämförs med tröskelnivän.A predetermined threshold level can be set. If the distance exceeds this level, it can be decided that there is a scene change. Alternatively, it can be said that it is the angle between the vectors that is compared with the threshold level.

Om vinkeln är väsentligen noll sägs ingen scenförändring föreligga och om vinkeln överstiger ett förutbestämt värde kan det beslutas att en scenförändring föreligger.If the angle is substantially zero, no scene change is said to exist and if the angle exceeds a predetermined value, it can be decided that a scene change exists.

I en utföringsform enligt uppfinningen innefattar förfarandet steget att anpassa åtminstone tvà parametrar till operatorn.In an embodiment according to the invention, the method comprises the step of adapting at least two parameters to the operator.

I vissa situationer kan det uppstå problem när man dividerar tvâ filtrerade bilder med varandra. Till exempel när intensiteten är konstant i ett omrâde, vilket implicerar att motsvarande element i den filtrerade bil- den blir nära noll. Detta kan undvikas genom att istället för att jämföra kvoten av filtrerade bilder sä anpassar man koefficienter. Koefficienterna kan beräknas genom att lösa ett minsta kvadratproblem.In some situations, problems can occur when dividing two filtered images with each other. For example, when the intensity is constant in an area, which implies that the corresponding elements in the filtered image become close to zero. This can be avoided by adjusting coefficients instead of comparing the ratio of filtered images. The coefficients can be calculated by solving a least squares problem.

En fördelen med denna utföringsform är att den är mindre känslig för brus i vissa bestämda situationer. Ett 10 15 20 25 30 35 519 279 -- 12 exempel pà en sådan situation är när en del av bilden med stor intensitetsvariation övergàr i en nära konstant intensitet, vilket exempelvis är fallet när en lampa släcks.An advantage of this embodiment is that it is less sensitive to noise in certain specific situations. An example of such a situation is when a part of the image with large intensity variation changes to a near constant intensity, which is the case, for example, when a lamp goes out.

I föredragen utföringsform anpassas nämnda para- metrar så att de täcker in alla transformationer av nämnda grànivàer.In the preferred embodiment, said parameters are adapted so as to cover all transformations of said gray levels.

Pâ detta sätt kommer inte intensitetsförändring som uppkommer pga ljusförändringar eller på hur sensorn avbildar intensitetsförändringar att detekteras som scenförändringar och därmed inte ge upphov till falsk- larm.In this way, intensity changes that occur due to light changes or how the sensor detects intensity changes will not be detected as scene changes and thus will not give rise to false alarms.

I en annan föredragen utföringsform enligt uppfin- ningen är operatorn en affin transformation.In another preferred embodiment of the invention, the operator is an affine transformation.

I ytterligare en föredragen utföringsform enligt föreliggande uppfinning anpassas parametrar lokalt i den registrerade bilden.In a further preferred embodiment of the present invention, parameters are adapted locally in the recorded image.

Att anpassningen sker lokalt innebär att den regist- rerade bilden delas upp i olika delar och anpassningen av parametrar sker i varje del av bilden. Anpassningen av parametrar kan ske genom att anpassa den registrerade bilden efter referensbilden enligt följande aïregiscreraa bild + b = ïreferensbiia.The fact that the adjustment takes place locally means that the registered image is divided into different parts and the adjustment of parameters takes place in each part of the image. The adjustment of parameters can be done by adapting the registered image to the reference image according to the following aïregiscreraa image + b = ïreferencebiia.

En fördel med denna utföringsform är att man bättre kan hantera lokala ljusförändringar som endast sker i en liten del av omrâdet. Man kan se den lokala anpassningen som att man applicerar den ovan beskrivna metoden för anpassning av parametrar i en del av bilden.An advantage of this embodiment is that it is better to handle local light changes that only occur in a small part of the area. You can see the local adjustment as applying the above-described method for adjusting parameters in a part of the image.

En föredragen utföringsform enligt uppfinningen innefattar vidare steget att filtrera både den registre- rade bilden och referensbilden med ett utjämnande filter.A preferred embodiment of the invention further comprises the step of filtering both the recorded image and the reference image with a smoothing filter.

Fördelen med att filtrera är att bruskänsligheten minskar. Ett utjämnande filter är ett filter som bildar ett viktat medelvärde av intensiteterna lokalt, dvs i en del av bilden. Den viktade medelvärdesbildningen gör att variansen pà bruset i den filtrerade bilden är mycket mindre än i den ursprungliga bilden. . v -v- .- lO 15 20 25 30 35 519 279 ÉÉ?Qf{šÉ¿ï§_fr' 13 I en utföringsform är det utjämnande filtret en Gaussfunktion.The advantage of filtering is that noise sensitivity decreases. A smoothing filter is a filter that forms a weighted average of the intensities locally, ie in a part of the image. The weighted average value formation means that the variance of the noise in the filtered image is much smaller than in the original image. . v -v- .- lO 15 20 25 30 35 519 279 ÉÉ? Qf {šÉ¿ï§_fr '13 In one embodiment, the smoothing filter is a Gaussian function.

Man kan välja olika bredder pà Gaussfunktionen och kan pà så sätt få olika grader av utjämning.You can select different widths of the Gaussian function and can thus get different degrees of smoothing.

Enligt en tredje aspekt av uppfinningen innefattar denna ett datorprogram vilket är lagrat pà ett minnes- medium som kan avläsas av en dator och som innefattar instruktioner för att bringa en dator att utföra förfa- randet enligt något av patentkraven l-17.According to a third aspect of the invention, it comprises a computer program which is stored on a memory medium which can be read by a computer and which comprises instructions for causing a computer to perform the method according to any one of claims 1-17.

Enligt en fjärde aspekt av uppfinningen innefattar denna användning av en operator i bildbehandling för detektion av en scenförändring i en av en sensor regist- rerad bild av ett området, vilken operator är baserad pà en i förväg gjord modellering av ljusförändringar i om- rådet och pà en modellering av hur sensorn avbildar om- ràdet pà grànivàer i den registrerade bilden.According to a fourth aspect of the invention, this comprises the use of an operator in image processing for detecting a scene change in an image recorded by a sensor of an area, which operator is based on a pre-made modeling of light changes in the area and on a modeling of how the sensor depicts the area at green levels in the registered image.

Enligt en femte aspekt av uppfinningen innefattar denna ett system för övervakning av ett omràde innefat- tande minst en sensor för registrering av bilder av om- rådet och minst en beräkningsenhet pà vilken datorpro- grammet enligt krav l8 är lagrat.According to a fifth aspect of the invention, it comprises a system for monitoring an area comprising at least one sensor for recording images of the area and at least one calculation unit on which the computer program according to claim 18 is stored.

Fördelarna med dessa aspekter av uppfinningen fram- gär av diskussionerna ovan.The advantages of these aspects of the invention will become apparent from the discussions above.

En sjätte aspekt av uppfinningen kan förfarandet användas vid en automatisk dörröppnare.A sixth aspect of the invention is the method of using an automatic door opener.

Förfarandet ovan är särskilt fördelaktigt att använda i en automatisk dörröppnare. En sensorenhet kan vara anordnad att kontinuerligt registrera bilder av ett övervakningsomràde framför en dörr. Dörren kan exempelvis vara en svängdörr eller en slagdörr. En beräkningsenhet kan vara anordnad att utföra ovan nämnda förfarande. Om en person rör sig in i övervakningsomrädet framför dör- ren, detekteras personen som ett objekt och ett beslut kan fattas om huruvida den detekterade objektet ska ge upphov till en dörröppning. Bildbehandlingen som ligger till grund för beslutet om dörröppning kan ha olika gra- der av intelligent nivà. Detta innebär att bildbehand- lO 15 20 25 30 35 > n - ~ n. 519 279 ß* 14 lingen kan vara mycket enkel och besluta om att dörr- öppning ska ske för alla objekt som orsakar en rörelse- detektioner. Den kan också vara mycket avancerad och endast utföra dörröppning i de fall det detekterade objektet exempelvis har en bestämd form, storlek eller rörelseriktning. Om det beslutas att dörröppning ska ske kan en signal om dörröppning överföras till en dörröpp- ningsanordning, som fysiskt öppnar dörren.The above procedure is particularly advantageous to use in an automatic door opener. A sensor unit may be arranged to continuously record images of a monitoring area in front of a door. The door can be, for example, a revolving door or a swing door. A calculation unit may be arranged to perform the above-mentioned method. If a person moves into the surveillance area in front of the door, the person is detected as an object and a decision can be made as to whether the detected object should give rise to a door opening. The image processing that forms the basis for the decision to open a door can have different degrees of intelligent level. This means that image processing can be very simple and decide that door opening should take place for all objects that cause a motion detection. It can also be very advanced and only perform door opening in cases where the detected object, for example, has a specific shape, size or direction of movement. If it is decided that a door opening is to take place, a signal for a door opening can be transmitted to a door opening device, which physically opens the door.

Automatiska dörröppnare är exempelvis mycket vanliga vid huvudingàngar till olika företag. Precis innanför dörren finns vanligtvis en bemannad reception. Om dörren öppnas ofta påverkar detta temperaturen i receptionen med åtföljande ofta dyra värmeförluster. Vidare utsätts de personer som arbetar där för drag och kyla. Det är därför mycket viktigt att dörren inte felaktigt öppnas. Genom att använda ovannämnda förfarande minskar risken för att dörren felaktigt öppnas vid exempelvis svära väderför- hållande, sàsom snö och regn, och olika ljus- och skugg- förhållanden som kan uppträda när exempelvis solen gär i moln. Den automatiska dörröppnaren blir också säkrare när övervakningsomràdet är mörkt, eftersom den med förfaran- det ovan bättre klarar av att identifiera personer som rör sig i övervakningsomràdet och därmed pà ett tillför- litligt sätt kan besluta om dörröppning ska ske.Automatic door openers, for example, are very common at main entrances to various companies. Just inside the door there is usually a staffed reception. If the door is opened frequently, this affects the temperature in the reception with accompanying often expensive heat losses. Furthermore, the people who work there are exposed to drafts and cold. It is therefore very important that the door is not opened incorrectly. By using the above-mentioned procedure, the risk of the door opening incorrectly in, for example, severe weather conditions, such as snow and rain, and various light and shadow conditions that can occur when, for example, the sun is in clouds, is reduced. The automatic door opener also becomes more secure when the monitoring area is dark, as it is better able to identify people moving in the monitoring area with the procedure above and thus can reliably decide whether to open the door.

Kort beskrivning av ritninqarna Uppfinningen kommer att beskrivas närmare i det föl- jande under hänvisning till bifogade ritningar.Brief Description of the Drawings The invention will be described in more detail in the following with reference to the accompanying drawings.

Fig 1 visar schematiskt antagna källor till inten- sitetsförändringar enligt känd teknik.Fig. 1 shows schematically assumed sources of intensity changes according to known technology.

Fig 2 visar schematiskt enligt känd teknik ett diagram i vilket ljusförändringarna är linjärt propor- tionella.Fig. 2 shows diagrammatically according to the prior art a diagram in which the light changes are linearly proportional.

Fig 3 visar ett diagram i vilket man pà experimen- tell väg har tagit intensiteterna före och efter en ljus- förändring.Fig. 3 shows a diagram in which the intensities before and after a light change have been taken experimentally.

Fig 4 visar schematiskt vektorer enligt NVD.Fig. 4 schematically shows vectors according to NVD.

Fig 5 visar schematiskt en modellering av sensorn. o uvuv lO 15 20 25 30 35 519 2 79 3"; ==ï- 15 Fig 6 visar schematiskt koordinatsystemets läge i en bild vid beskrivning av ett filter.Fig. 5 schematically shows a modeling of the sensor. o uvuv 10 15 20 25 30 35 519 2 79 3 "; == ï- Fig. 6 schematically shows the position of the coordinate system in an image when describing a filter.

Fig 7 visar ett schematiskt flödesschema över en ut- föringsform enligt föreliggande uppfinning.Fig. 7 shows a schematic flow diagram of an embodiment according to the present invention.

Fig 8 visar ett schematiskt flödesschema över en annan utföringsform enligt föreliggande uppfinning.Fig. 8 shows a schematic flow diagram of another embodiment according to the present invention.

Fig 9 visar schematiskt ett övervakningssystem enligt föreliggande uppfinning.Fig. 9 schematically shows a monitoring system according to the present invention.

Fig 10 visar ett schematisk blockschema för hård- varan i en sensorenhet enligt en utföringsform.Fig. 10 shows a schematic block diagram of the hardware in a sensor unit according to an embodiment.

Beskrivning av föredragna utföringsformer Uppfinningen kommer i det närmaste att beskrivas först på ett abstrakt matematiskt språk och därefter med hjälp av ett antal utföringsformer.Description of Preferred Embodiments The invention will be described in more detail first in an abstract mathematical language and then by means of a number of embodiments.

Matematisk beskrivning av upbfinningen Den grundläggande idén med föreliggande uppfinning låter sig enklast formuleras i ett abstrakt matematiskt språk.Mathematical Description of the Invention The basic idea of the present invention is most easily formulated in an abstract mathematical language.

För att modellera den fysiska verkligheten och hur sensorn registrerar den fysiska världen används operato- rer.Operators are used to model the physical reality and how the sensor registers the physical world.

Den typ av operatorer som vi vill hitta är funktio- ner, F, som avbildar en digital bild pà något annat rum, dvs F:VaB++FeV' YLVII Här betecknar V rummet av digitala bilder (Z , där Z betecknar mängden av heltal - egentligen heltal mellan O och 255 -, kolonner), B ett element i V (dvs en digital bild), V' m betecknar antalet rader och m antalet något annat (linjärt) rum och B' ett element i V'.The type of operators we want to find are functions, F, which depict a digital image in another room, ie F: VaB ++ FeV 'YLVII Here V denotes the space of digital images (Z, where Z denotes the amount of integers - actual integer between 0 and 255 -, columns), B an element in V (ie a digital image), V 'm denotes the number of rows and m the number of any other (linear) space and B' an element in V '.

Vanligtvis består V' också av digitala bilder av någon storlek, men även generellare rum kan användas, till exempel vektorvärda bilder. '519 279§$§§j{}" 16 Den transformation av bilderna i V som vi vill ”filtrera” bort kan betraktas som någon gruppverkan pà V.Usually V 'also consists of digital images of some size, but also more general rooms can be used, for example vector-worthy images. '519 279§ $ §§j {} "16 The transformation of the images in V that we want to" filter out "can be considered as some group effect on V.

Inför beteckningen G för denna grupp: 5 geG: V9B+->g(B)eV där ett element g i gruppen G transformerar en bild B till en annan bild g(B) (i samma rum). Till exempel kan gruppen vara den endimensionella affina gruppen, 10 parametriserad av tvà parametrar, a och b enligt g@weG;V3HLw+;fl@JpweV där I(x,y) betecknar intensiteten i position (x,y). 15 De operatörer som vi letar efter är de som är invarianta under gruppverkan med gruppen G, vilket betyder att F(B) = F(g(B)), Vg G G 20 För den affina gruppen innebär detta att bilden B avbildas på samma element i V' som bilden g(B), dvs att man får samma element i V' oberoende av affina trans- formationer av intensiteten. 25 Vi kan driva formalismen ytterliggare ett steg genom att betrakta ett generaliserat mätt (metrik) pà rummet V' d(Bl',B'2): V'xV'9(B1',Bå) r-> d(B1',B;) e W 30 där W betecknar rummet av digitala bilder med samma stor- lek som bilderna i V, men med reella intensiteterna.Before the designation G for this group: 5 geG: V9B + -> g (B) eV where an element g in the group G transforms an image B into another image g (B) (in the same room). For example, the group may be the one-dimensional affine group, parameterized by two parameters, a and b according to g @ weG; V3HLw +; fl @ JpweV where I (x, y) denotes the intensity in position (x, y). The operators we are looking for are those that are invariant during group action with the group G, which means that F (B) = F (g (B)), Vg GG 20 For the affine group, this means that the image B is imaged on the same element in V 'as the image g (B), ie you get the same element in V' regardless of affine transformations of the intensity. We can pursue formalism one step further by considering a generalized measured (metric) in space V 'd (B1', B'2): V'xV'9 (B1 ', Bå) r-> d (B1', B;) e W 30 where W denotes the space of digital images with the same size as the images in V, but with real intensities.

Metriken mäter avstànd i rummet V' och àterför dessa till den ursprungliga bilden där vi kan avläsa förändringar i bilden som inte härrör fràn gruppverkan. 35 Det vi har gjort nu kan beskrivas som att vi be- -;~§ traktar ekvivalensklasserna i V som uppstår pà grund av 10 15 20 25 30 35 519 279 ~:;§= 17 gruppverkan fràn G och sedan inför ett avstàndsmàtt pà dessa ekvivalensklasser.The metric measures distance in space V 'and returns these to the original image where we can read changes in the image that do not derive from group action. 35 What we have done now can be described as that we -; ~ § treat the equivalence classes in V that arise due to 10 15 20 25 30 35 519 279 ~:; § = 17 group action from G and then introduce a distance measure of these equivalence classes.

Tillämpning i ett övervakningssystem Den matematiska beskrivningen ovan kommer nu med hjälp av ett antal utföringsformer att beskrivas hur den kan tillämpas praktiskt vid bildbehandling i ett över- vakningssystem, som visas i fig 9. Övervakningssystemet innefattar minst en ljuskänslig sensorenhet 1 som över- vakar ett övervakningsomràde 2. Övervakningsomràdet kan vara ett omrâde i vilket ingen person får vistas. Sen- sorenheten 1 registrerar kontinuerligt digitala bilder av övervakningsomràdet 2 för att detektera om exempelvis en person 3 befinner sig inom övervakningsomrádet 2. En digital bild kan sägas vara en matris där elementen pà position (i,j) talar om vilken ljusintensitet som har detekterats i den punkten. Om en person 3 detekteras inom övervakningsomràdet 2 kan sensorenheten avge en larm- signal, som exempelvis skickas till en larmcentral 4.Application in a monitoring system The mathematical description above will now be described by means of a number of embodiments how it can be applied practically in image processing in a monitoring system, shown in Fig. 9. The monitoring system comprises at least one light-sensitive sensor unit 1 which monitors a monitoring area The surveillance area may be an area in which no person may stay. The sensor unit 1 continuously registers digital images of the monitoring area 2 to detect if, for example, a person 3 is within the monitoring area 2. A digital image can be said to be a matrix where the elements at position (i, j) tell which light intensity has been detected in that point. If a person 3 is detected within the monitoring area 2, the sensor unit can emit an alarm signal, which is for example sent to an alarm center 4.

Larmsignalen, som skickas till larmcentralen 4, kan ut- göras av enbart en signal om att en rörelsedetektion skett, men det kan också innefatta en registrerad bild eller en bild av enbart det rörliga objektet som orsakat larmet. Denna bild kan visas upp på en skärm i larmcen- tralen 4 och en person pà larmcentralen 4 kan dà göra ytterligare en kontroll av vad som orsakat larmet. I ett annat mycket enkelt fall kan larmcentralen 4 vara en anordning som avger en ljudsignal när den erhåller en larmsignal från sensorenheten 1.The alarm signal, which is sent to the alarm center 4, can consist of only a signal that a motion detection has taken place, but it can also include a registered image or an image of only the moving object that caused the alarm. This image can be displayed on a screen in the alarm center 4 and a person at the alarm center 4 can then make a further check of what caused the alarm. In another very simple case, the alarm center 4 can be a device which emits an audible signal when it receives an alarm signal from the sensor unit 1.

Fig 10 visar ett blockschema över hårdvaran i sen- sorenheten 1. Sensorenheten 1 matas med en spänning till en spänningsanslutning 10. Vidare innefattar sensoren- heten 1 en kraftfull beräkningsenhet 11. Sensorenheten 1 innefattar en kommunikationsenhet 12. Kommunikations- enheten kan vara anordnad att skicka en larmsignal till larmcentralen 4 vid en rörelsedetektion. Vidare innefat- tar sensorenheten 1 en ljuskänslig sensor 13, exempelvis en CMOS-sensor, för registrering av bilder. Sensorn 13 är ._ -- n-u v 10 15 20 25 30 35 18 integrerad pà ett chip och till den finns också ett lins- arrangemang 14. Vidare innefattar sensorenheten 1 ett RAM-minne 15. Sensorenheten 1 använder ett operativsystem och kan genomföra avancerad bildbehandling. Sensorenheten 1 innefattar också ett beständigt minne 16 för beräk- ningskod och övrigt som mäste sparas i ett icke flyktigt minne. Alla i sensorenheten 1 ingående komponenter är med fördel integrerade pà ett kretskort. Fördelen med detta är att sensorenheten 1 blir mycket stabil, det vill säga att den blir mindre känslig för störkällor och har färre punkter som sabotage kan ske pà.Fig. 10 shows a block diagram of the hardware in the sensor unit 1. The sensor unit 1 is supplied with a voltage to a voltage connection 10. Furthermore, the sensor unit 1 comprises a powerful calculation unit 11. The sensor unit 1 comprises a communication unit 12. The communication unit may be arranged to send an alarm signal to the alarm center 4 during a motion detection. Furthermore, the sensor unit 1 comprises a light-sensitive sensor 13, for example a CMOS sensor, for recording images. The sensor 13 is now integrated on a chip and there is also a lens arrangement 14. Furthermore, the sensor unit 1 comprises a RAM memory 15. The sensor unit 1 uses an operating system and can perform advanced image processing. The sensor unit 1 also comprises a permanent memory 16 for calculation code and other things which must be stored in a non-volatile memory. All components included in the sensor unit 1 are advantageously integrated on a circuit board. The advantage of this is that the sensor unit 1 becomes very stable, ie it becomes less sensitive to interference sources and has fewer points at which sabotage can take place.

Algoritmerna som används finns lagrade i det bestån- diga minnet 16.The algorithms used are stored in the permanent memory 16.

Filtrering En första utföringsform förklaras nu med hjälp av flödesscheman i fig 7 och 8. Sensorn 13 registrerar 100,2OO en bild av övervakningsomràdet 2. Bilden trans- formeras genom att ett affint invarant mätt beräknas. Det affint invarianta måttet är samma under alla affina be- lysningsförändringar och alla sensorinställningar. Det beräknas genom följande förfarande.Filtering A first embodiment is now explained by means of flow charts in Figs. 7 and 8. The sensor 13 registers 100.200 an image of the monitoring area 2. The image is transformed by calculating an affine invariant measured. The affine invariant measure is the same during all affine lighting changes and all sensor settings. It is calculated by the following procedure.

Den registrerade bilden filtreras 210 med tvà god- tyckliga linjära filter I§(x,y) och P}(x,y) med egen- skapen att ZE(x,y)=o, z=1,z Filtreringen utförs för att minska bruskänsligheten.The registered image is filtered 210 with two arbitrary linear filters I§ (x, y) and P} (x, y) with the property that ZE (x, y) = o, z = 1, z The filtering is performed to reduce noise sensitivity.

Exempelvis kan derivatorn av Gaussfunktionen, Ga, använ- das. 1 - Z+ az Gn(x7y):___e (I yzwz Znu där a betecknar bredden (skalan), som filter, t ex, lO 15 20 25 30 35 19 frlçx, = í e“(xzflßz)f2ql äy2flu Filtreringen kan ske på ett antal olika sätt. Man kan exempelvis också använda derivator i samma riktning, men med olika skalor (a).For example, the derivative of the Gaussian function, Ga, can be used. 1 - Z + az Gn (x7y): ___ e (I yzwz Znu where a denotes the width (scale), as filter, eg, lO 15 20 25 30 35 19 frlçx, = í e “(xzflßz) f2ql äy2 fl u The filtering can take place on For example, derivatives can also be used in the same direction, but with different scales (a).

Efter filtreringen beräknas 110, 220 ett affint mått enligt följande _F|*1e_I¶*(aIf+b)_a1¶*If+1¶b_1fi*If FZfl-Ie Fz*(alf+b) aFz=l=lf+Fzb F2*If ml Eftersom filterna har de egenskaper som de har blir måttet oberoende av konstanterna a och b.After the filtering, 110, 220 a finite measure is calculated as follows _F | * 1e_I¶ * (aIf + b) _a1¶ * If + 1¶b_1 fi * If FZ fl- Ie Fz * (alf + b) aFz = l = lf + Fzb F2 * If ml Since the filters have the properties they have, the dimension becomes independent of the constants a and b.

Bilden filtreras innan kvoterna mellan olika pixlar beräknas för att minska bruskänsligheten.The image is filtered before the ratios between different pixels are calculated to reduce the noise sensitivity.

Referensbilden har bearbetas på samma sätt som den registrerade bilden, dvs den har filtrerats med samma linjära filter som den registrerade bilden och det affint invarianta måttet har beräknats. Det affina invarianta måttet av den registrerade bearbetade bilden jämförs 120, 230 med det affint invarianta måttet av referensbilden.The reference image has been processed in the same way as the registered image, ie it has been filtered with the same linear filter as the registered image and the affinely invariant dimension has been calculated. The affine invariant measure of the recorded processed image is compared 120, 230 with the affine invariant measure of the reference image.

Om en skillnad detekteras 130, 240 sägs denna härröra från en scenförändring och det beslutas att ett larmtill- stånd råder 140, 250.If a difference is detected 130, 240, it is said to originate from a scene change and it is decided that an alarm condition prevails 140, 250.

I formalismen i den matematiska beskrivningen mot- svarar denna utföringsform att operatorn F avbildar bilden B pà en kvot av filtrerade bilder B', vilket också är en bild, men med reell tal som element.In the formalism of the mathematical description, this embodiment corresponds to the operator F mapping the image B to a ratio of filtered images B ', which is also an image, but with real numbers as elements.

Specialfall av filtrerinq En annan utföringsform kan ses som ett specialfall av filtrering ovan. Filtret som används kan vara av olika typer. Filtret är en linjär positionsinvariant operator som representeras med en matris och verkar pà den digi- a ...non z|;-» 10 15 20 25 30 35 519 279 20 tala bilden. I ett exempel är filtret en differens mellan närliggande pixlar. I denna utföringsform beräknas en affin invariant från intensiteterna i tre närliggande pixlar, Il, I2 och I3. Det kan exempelvis beräknas enligt följande: Speciellt kan man använda pixeln till höger och pixeln under, vilket ger _1(X+1,y)-1(X,y) '"<'>(x'y) _ low +1>- fw) Man erhåller på så sätt genom transformation en “ny” bild. Samma transformation utförs på referensbilden. Den registrerade bildens affint invarianta mått jämförs med referensbildens affint invarianta mått. Om det råder en skillnad mellan de båda bilderna sägs en scenförändring råda.Special case of filtration Another embodiment can be seen as a special case of filtration above. The filter used can be of different types. The filter is a linear position invariant operator represented by a matrix and acts on the digital image. In one example, the filter is a difference between adjacent pixels. In this embodiment, an affine invariant is calculated from the intensities of three adjacent pixels, II, I2 and I3. For example, it can be calculated as follows: In particular, you can use the pixel to the right and the pixel below, which gives _1 (X + 1, y) -1 (X, y) '"<'> (x'y) _ low +1> - fw) In this way, by transformation, a “new” image is obtained.The same transformation is performed on the reference image.The affinity invariant dimensions of the registered image are compared with the affinity invariant dimensions of the reference image.If there is a difference between the two images, a scene change is said.

Det finns många typer av filter som är möjliga att använda F»=1=Zf(k,f)1(z-k,j-1),- varvid axlarna är enlighet med fig 6. Vilket filter man använder beror på vilka krav som ställs på bruskänslig- heten och hur tunga beräkningskapaciteter som kan tillåtas. Ju större filtret är ju tyngre beräkningar krävs, men å andra sidan erhålls ett robustare system som inte blir så känsligt för störningar.There are many types of filters that are possible to use F »= 1 = Zf (k, f) 1 (zk, j-1), - the axes are in accordance with Fig. 6. Which filter you use depends on the requirements. on noise sensitivity and how heavy computing capacities can be allowed. The larger the filter, the heavier calculations are required, but on the other hand, a more robust system is obtained that is not so sensitive to disturbances.

Modifierad NVD I en annan utföringsform används en modifierad NVD (Normalized Vector Distance). Sensorn registrerar en bild av övervakningsplatsen. Bilden delas in i ett antal 10 15 20 25 30 35 519 279 ÉïT§;fÉåšï§_"w§ 21 rutor, vilket antal exempelvis kan vara 8. Varje ruta innehåller ett antal pixlar, som exempelvis kan vara 8x8 stycken. Ett medelvärde av intensiteten i var och en av rutorna beräknas. Detta medelvärde dras sedan ifrån varje pixel i respektive ruta. Efter detta beräknas vektorer utifrån rutornas intensiteter. Dessa vektorer normeras.Modified NVD In another embodiment, a modified NVD (Normalized Vector Distance) is used. The sensor detects an image of the monitoring site. The image is divided into a number of boxes, which number can be, for example, 8. Each box contains a number of pixels, which can be, for example, 8x8 pieces. An average value of the intensity of each of the squares is calculated.This mean value is then subtracted from each pixel in each box.After this, vectors are calculated based on the intensities of the squares.These vectors are normalized.

Vektorerna är affint invarianta mått. Vektorerna i den transformerade registrerade bilden jämförs med vektorerna i den på samma sätt transformerade referensbilden. Genom att betrakta vinklarna mellan vektorerna i den registre- rade bilden och referensbilden får man ett mått som är invariant under affina ljusförändringar. Om avståndet är noll mellan vektorerna förekommer ingen scenförändring, dvs om vinkeln mellan vektorerna är noll förekommer ingen scenförändring. Ofta sätter man ett tröskelvärde som innebär att vinkelskillnaden måste ha en viss minsta storlek för att det ska bedömas att en scenförändring föreligger. Detta beror på att det ofta förekommer ett visst brus i bilden.The vectors are finely invariant dimensions. The vectors in the transformed recorded image are compared with the vectors in the similarly transformed reference image. By looking at the angles between the vectors in the registered image and the reference image, you get a measure that is invariant during affine light changes. If the distance between the vectors is zero, there is no scene change, ie if the angle between the vectors is zero, there is no scene change. A threshold value is often set which means that the angular difference must have a certain minimum size in order for it to be assessed that a scene change exists. This is because there is often some noise in the image.

I formalismen ovan kan denna modifiering av NVD fås genom att låta rummet V' beteckna vektorvärda bilder med en mindre upplösning än den ursprungliga bilden. Varje matriselement i bilden B' i V' är då en vektor. Det gene- raliserade måttet är sedan det normaliserade avståndet mellan vektorerna àterfört till den ursprungliga bilden.In the formalism above, this modification of NVD can be obtained by allowing the space V 'to denote vector-worthy images with a smaller resolution than the original image. Each matrix element in the image B 'in V' is then a vector. The generalized measure is then the normalized distance between the vectors returned to the original image.

Anpassa koefficienter I vissa situationer kan det uppstå problem då man dividerar två filtrerade bilder med varandra. Till exempel när intensiteten är konstant i ett område, vilket implicerar att motsvarande element i den filtrerade bilden blir nära noll. Detta kan undvikas genom att istället för att jämföra kvoten av filtrerade bilder så anpassar man koefficienter a och b så att a*Ir(x,y)+b hamnar så nära den registrerade bilden som möjligt, där Ir betecknar referensbilden. Koefficienterna beräknas lämpligast genom att lösa minsta kvadratproblemet n n o n ø u o I 22 mbinxaLJryPfb-I )2 ß mfifl där §2 betecknar en lämplig delmängd i bilden. Detta minsta kvadratproblem är mycket enkelt att lösa genom att 5 skriva upp normalekvationerna och invertera en 2x2 matris. Låt x beteckna en vektor som innehåller alla intensiteter inom (2 för referensbilden ordnade på något lämpligt sätt och låt y beteckna motsvarande intensiteter för den aktuella bilden. Normalekvationerna kan nu 10 skrivas som y,=ap+b,i=1,n, där n betecknar antalet pixlar i området šl. I matrisform kan ovanstående skrivas som x y =ax-+b=[a bí1}. 15 Om vi nu multiplicerar med transponatet till den sista vektorn pà båda sidor får vi ypf IH, bfjpcf 1140 blef x 1 vilket i sin tur ger [a b]=y[xf qxx: XT. x 1 20 I nästa steg används dessa parametrar a och b för att transformera referensbilden till en ny bild genom att bilda Irny=a*Ir+b. Sedan används Irny som jämförelse mot den aktuella bilden. Till exempel kan man titta på skill- nadsbilden och sedan tröskla denna för att detektera 25 scenförändringar.Adjusting coefficients In some situations, problems can occur when dividing two filtered images with each other. For example, when the intensity is constant in an area, which implies that the corresponding elements in the filtered image become close to zero. This can be avoided by instead of comparing the ratio of filtered images, coefficients a and b are adjusted so that a * Ir (x, y) + b ends up as close to the registered image as possible, where Ir denotes the reference image. The coefficients are most appropriately calculated by solving the least squares problem n n o n ø u o I 22 mbinxaLJryPfb-I) 2 ß m fifl where §2 denotes an appropriate subset in the image. This least squares problem is very easy to solve by writing down the normal equations and inverting a 2x2 matrix. Let x denote a vector that contains all the intensities within (2 for the reference image arranged in any suitable way and let y denote the corresponding intensities for the current image. The normal equations can now be written as y, = ap + b, i = 1, n, where n denotes the number of pixels in the range šl. In matrix form, the above can be written as xy = ax- + b = [a bí1}. which in turn gives [ab] = y [xf qxx: XT. x 1 20 In the next step, these parameters a and b are used to transform the reference image into a new image by forming Irny = a * Ir + b. Then Irny is used as a comparison with the current image, for example, you can look at the difference image and then threshold it to detect 25 scene changes.

..H Ovanstående förfarande kan med fördel modifieras I genom att man filtrerar både referensbilden och den "ï¿ aktuella bilden med något utjämnande filter innan para- :'23 metrarna a och b beräknas. Detta förfarande gör att 30 bruskänsligheten minskar och det är speciellt föredraget att använda ett Gaussfilter.The above method can be advantageously modified by filtering both the reference image and the current image with a smoothing filter before calculating the parameters a and b. This method reduces the noise sensitivity and it is especially preferred to use a Gaussian filter.

På samma sätt kan man hantera modifieringen av NVD genom att anpassa koefficienter a och b till varje block ø|||n i stället för att beräkna det normaliserade avståndet. 519 279 alla o . ou o» a c ,n ~ 23 Ett tröskelvärde sätts som om ovanstående minimering överstiger detta värde beslutas en scenförändring före- ligga. Nya konstanter a och b måste beräknas för varje ny bild som registreras av sensorn. Även om en speciell utföringsform av uppfinningen har beskrivits ovan år det uppenbart för fackmannen att många alternativ, modifieringar och variationer är möj- liga att åstadkomma i ljuset av ovanstående beskrivning.In the same way, one can handle the modification of NVD by adapting coefficients a and b to each block ø ||| n instead of calculating the normalized distance. 519 279 alla o. ou o »a c, n ~ 23 A threshold value is set as if the above minimization exceeds this value, it is decided that there is a scene change. New constants a and b must be calculated for each new image registered by the sensor. Although a particular embodiment of the invention has been described above, it will be apparent to those skilled in the art that many alternatives, modifications, and variations are possible in light of the foregoing description.

Claims (23)

10 l5 20 25 30 35 n al Q; 519 279 .gï nov n nu en u n nous 24 PATENTKRAV10 l5 20 25 30 35 n al Q; 519 279 .gï nov n nu en u n nous 24 PATENTKRAV 1. Förfarande vid bildbehandling för detektion av en scenförändring i ett område innefattande stegen att med en sensor registrera (100) en digital bild av området, att transformera (110) den registrerade bilden med en operator, som är baserad pà en i förväg gjord modelle- ring av ljusförändringar i området och på en modellering av hur sensorn avbildar området på grànivåer i den registrerade bilden, och att jämföra (120) den transformerade bilden med en referensbild av området för att detektera en skillnad som indikerar en scenförándring.An image processing method for detecting a scene change in an area comprising the steps of registering (100) a digital image of the area with a sensor, transforming (110) the recorded image with an operator based on a pre-made model calling light changes in the area and on a modeling of how the sensor depicts the area at gray levels in the recorded image, and comparing (120) the transformed image with a reference image of the area to detect a difference indicating a scene change. 2. Förfarande enligt krav l, varvid referensbilden är transformerad med nämnda operator.A method according to claim 1, wherein the reference image is transformed with said operator. 3. Förfarande enligt något av föregående krav, varvid operatorn är invariant med avseende pà transforma- tioner av nämnda grånivåer i den registrerade bilden.A method according to any one of the preceding claims, wherein the operator is invariant with respect to transformations of said gray levels in the registered image. 4. Förfarande enligt något av föregående krav, varvid operatorn är en affin invariant.A method according to any one of the preceding claims, wherein the operator is an affine invariant. 5. Förfarande enligt något av föregående krav, varvid steget att transformera innefattar stegen att filtrera den registrerade bilden med ett första filter, att filtrera den registrerade bilden med ett andra fil- ter, varvid det första och det andra filtret skiljer sig från varandra och båda har koefficientsumman noll, och att bilda kvoten mellan de filtrerade bilderna.A method according to any one of the preceding claims, wherein the step of transforming comprises the steps of filtering the recorded image with a first filter, filtering the recorded image with a second filter, the first and second filters being different from each other and both has the coefficient sum zero, and to form the ratio between the filtered images. 6. Förfarande enligt krav 5, varvid det första och det andra filtret är en derivata av Gaussfunktionen.The method of claim 5, wherein the first and second filters are a derivative of the Gaussian function. 7. Förfarande enligt krav 6, varvid det första filtret är en derivata av Gaussfunktionen i X-led och det andra en derivata av samma Gaussfunktion i y-led.The method of claim 6, wherein the first filter is a derivative of the X-linked Gaussian function and the second a derivative of the same y-linked Gaussian function. 8. Förfarande enligt krav 5, varvid det första och det andra filtret är två enkla differensfilter mellan grånivån i en pixel och grånivån i en annan pixel. ovana» 1 u . uu.-.- 10 l5 20 25 30 35 519 279 25The method of claim 5, wherein the first and second filters are two simple differential filters between the gray level in one pixel and the gray level in another pixel. ovana »1 u. uu.-.- 10 l5 20 25 30 35 519 279 25 9. Förfarande enligt krav 8, varvid det första filtret är ett differensfilter mellan två pixlar hori- sontellt bredvid varandra och det andra filtret är ett differensfilter mellan två pixlar vertikalt bredvid varandra.The method of claim 8, wherein the first filter is a difference filter between two pixels horizontally next to each other and the second filter is a difference filter between two pixels vertically next to each other. 10. Förfarande enligt något av kraven 1-4, varvid operatorn är en modifiering av normaliserat vektorav- stånd, varvid steget att transformera innefattar stegen att beräkna medelvärdet av gránivàn i en delmängd av den registrerade bilden, att i varje pixel dra ifrån medel- värdet och att utföra en normaliserad vektoravstånds- beräkning.A method according to any one of claims 1-4, wherein the operator is a modification of normalized vector distance, wherein the step of transforming comprises the steps of calculating the average value of the gray level in a subset of the recorded image, subtracting the average value in each pixel. and performing a normalized vector distance calculation. 11. Förfarande enligt krav 10, varvid steget att jämföra innefattar steget att beräkna skillnaden mellan respektive vektor i den transformerade registrerade bilden och den transformerade referensbilden.The method of claim 10, wherein the step of comparing comprises the step of calculating the difference between the respective vectors in the transformed recorded image and the transformed reference image. 12. Förfarande enligt krav 1, vidare innefattande steget att anpassa åtminstone två parametrar till opera- torn.The method of claim 1, further comprising the step of adapting at least two parameters to the operator. 13. Förfarande enligt krav 12, varvid nämnda para- metrar anpassas så att de täcker in alla transformationer av nämnda grànivàer.The method of claim 12, wherein said parameters are adjusted to cover all transformations of said green levels. 14. Förfarande enligt krav 13, varvid operatorn är en affin transformation.The method of claim 13, wherein the operator is an affine transformation. 15. Förfarande enligt något av kraven 12-14, varvid steget att anpassa nämnda parametrar till operatorn sker lokalt i den registrerade bilden.A method according to any one of claims 12-14, wherein the step of adapting said parameters to the operator takes place locally in the registered image. 16. Förfarande enligt något av kraven 13-15, vidare innefattande steget att filtrera både den registrerade bilden och referensbilden med ett utjämnande filter.The method of any of claims 13-15, further comprising the step of filtering both the recorded image and the reference image with a smoothing filter. 17. Förfarande enligt krav 16, varvid det utjämnande filtret är en Gaussfunktion.The method of claim 16, wherein the smoothing filter is a Gaussian function. 18. Datorprogram som är lagrat på ett minnesmedium som kan avläsas av en dator och som innefattar instruk- tioner för att bringa en dator att utföra förfarandet enligt något av patentkraven 1-17. nun-nn 10 15 20 519 279 annons n u uv-.va a v u n nu oo n " u._.' una: o n ozon . .annan u nano ~ u 26Computer programs stored on a computer readable memory medium and comprising instructions for causing a computer to perform the method of any of claims 1-17. nun-nn 10 15 20 519 279 advertisement n u uv-.va a v u n nu oo n "u._. ' una: o n ozon. .annan u nano ~ u 26 19. Användning av en operator i bildbehandling för detektion av en scenförändring i en av en sensor regist- rerad bild av ett omràdet, vilken operator är baserad pà en i förväg gjord modellering av ljusförändringar i om- rådet och pà en modellering av hur sensorn avbildar om- ràdet pà grànivàer i den registrerade bilden.Use of an operator in image processing for detecting a scene change in an image of an area registered by a sensor, which operator is based on a pre-made modeling of light changes in the area and on a modeling of how the sensor depicts area at green levels in the registered image. 20. Användning enligt krav 19, varvid operatorn är invariant med avseende pà de transformationer av grà- nivàerna som uppkommer genom ljusförändringarna i området och genom sensorns avbildning av dessa ljusförändringar pà grànivàer i den digitala bilden.Use according to claim 19, wherein the operator is invariant with respect to the transformations of the gray levels arising from the light changes in the area and by the sensor's depiction of these light changes at gray levels in the digital image. 21. Användning enligt krav 20, varvid operatorn är en affin invariant.Use according to claim 20, wherein the operator is an affine invariant. 22. tande minst en sensor för registrering av bilder av om- System för övervakning av ett omrâde innefat- ràdet, ett minne i vilken datorprogrammet enligt krav 18 är lagrat och en beräkningsenhet.At least one sensor for recording images of an area includes a memory program, a memory in which the computer program according to claim 18 is stored, and a computing unit. 23. Användning av ett förfarande enligt något av kraven l-17 för att styra en automatisk dörröppnare. :anv-u n a use-uaUse of a method according to any one of claims 1-17 for controlling an automatic door opener. : anv-u n a use-ua
SE0102209A 2001-06-21 2001-06-21 Custom filters for scene change detection SE519279C2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
SE0102209A SE519279C2 (en) 2001-06-21 2001-06-21 Custom filters for scene change detection
US10/174,024 US7203337B2 (en) 2001-06-21 2002-06-18 Adjusted filters
PCT/SE2002/001187 WO2003001810A1 (en) 2001-06-21 2002-06-19 Invariant filters

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE0102209A SE519279C2 (en) 2001-06-21 2001-06-21 Custom filters for scene change detection

Publications (3)

Publication Number Publication Date
SE0102209D0 SE0102209D0 (en) 2001-06-21
SE0102209L SE0102209L (en) 2002-12-22
SE519279C2 true SE519279C2 (en) 2003-02-11

Family

ID=20284563

Family Applications (1)

Application Number Title Priority Date Filing Date
SE0102209A SE519279C2 (en) 2001-06-21 2001-06-21 Custom filters for scene change detection

Country Status (2)

Country Link
SE (1) SE519279C2 (en)
WO (1) WO2003001810A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611930B (en) * 2020-05-22 2023-10-31 华域汽车***股份有限公司 Parking space line detection method based on illumination consistency

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9201006D0 (en) * 1992-01-17 1992-03-11 Philip Electronic And Associat Classifying faces
EP0578432A3 (en) * 1992-07-06 1994-06-22 Canon Kk Similarity determination among patterns using affine-invariant features
DE69519980T2 (en) * 1994-12-28 2001-06-07 Siemens Corp. Research, Inc. Method and device for the detection and interpretation of subtitles in digital video signals
US5767922A (en) * 1996-04-05 1998-06-16 Cornell Research Foundation, Inc. Apparatus and process for detecting scene breaks in a sequence of video frames
DE19623524A1 (en) * 1996-06-13 1998-01-02 Pintsch Bamag Ag Monitoring unit for danger area at railway level crossing
US6272245B1 (en) * 1998-01-23 2001-08-07 Seiko Epson Corporation Apparatus and method for pattern recognition
WO2001048696A1 (en) * 1999-12-23 2001-07-05 Wespot Ab Method, device and computer program for monitoring an area

Also Published As

Publication number Publication date
SE0102209L (en) 2002-12-22
SE0102209D0 (en) 2001-06-21
WO2003001810A1 (en) 2003-01-03

Similar Documents

Publication Publication Date Title
JP4648981B2 (en) Non-motion detection method
CN111308448B (en) External parameter determining method and device for image acquisition equipment and radar
Fathy et al. An image detection technique based on morphological edge detection and background differencing for real-time traffic analysis
US7203337B2 (en) Adjusted filters
CN112257692B (en) Pedestrian target detection method, electronic device and storage medium
Hautiére et al. Estimating meteorological visibility using cameras: A probabilistic model-driven approach
CN107635099B (en) Human body induction double-optical network camera and security monitoring system
WO2020214084A1 (en) Method and system for detecting fire and smoke
Niu et al. A moving objects detection algorithm based on improved background subtraction
CN113435278A (en) Crane safety detection method and system based on YOLO
Jain et al. Background modeling based on subpixel edges
KR100217485B1 (en) Method for movement compensation in a moving-image encoder or decoder
CN115631191A (en) Coal blockage detection algorithm based on gray level features and edge detection
JP2002304677A (en) Method and device for detecting intruder
CN115947066B (en) Belt tearing detection method, device and system
SE519279C2 (en) Custom filters for scene change detection
Jiang et al. Tracking objects with shadows
Sidnev et al. Efficient camera tampering detection with automatic parameter calibration
Lanza et al. Detecting changes in grey level sequences by ML isotonic regression
CN114494313A (en) Conveyor belt deviation detection method based on edge detection
CN113496501A (en) Method and system for detecting invader in dynamic scene based on video prediction
Zhu et al. A transform domain approach to real-time foreground segmentation in video sequences
Chen et al. Detection and localization of untwisted strands in transmission lines using cascaded shape filtering and color filtering
Liu et al. Shadow Elimination in Traffic Video Segmentation.
Li et al. A video-based algorithm for moving objects detection at signalized intersection

Legal Events

Date Code Title Description
NUG Patent has lapsed