WO2007014557A1 - Method and device for the autostereoscopic reproduction of 3d representations - Google Patents

Method and device for the autostereoscopic reproduction of 3d representations Download PDF

Info

Publication number
WO2007014557A1
WO2007014557A1 PCT/DE2006/001365 DE2006001365W WO2007014557A1 WO 2007014557 A1 WO2007014557 A1 WO 2007014557A1 DE 2006001365 W DE2006001365 W DE 2006001365W WO 2007014557 A1 WO2007014557 A1 WO 2007014557A1
Authority
WO
WIPO (PCT)
Prior art keywords
subpixel
subpixels
color
screen
image
Prior art date
Application number
PCT/DE2006/001365
Other languages
German (de)
French (fr)
Inventor
Siegbert Hentschke
Eduard Fuchs
Thorsten Elle
Original Assignee
Siegbert Hentschke
Eduard Fuchs
Thorsten Elle
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siegbert Hentschke, Eduard Fuchs, Thorsten Elle filed Critical Siegbert Hentschke
Publication of WO2007014557A1 publication Critical patent/WO2007014557A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects

Definitions

  • the invention relates to a method of the type specified in the preamble of claim 1 and a device suitable for carrying out this method.
  • HR filtering high resolution filtering
  • the technical problem of the present invention is the methods and devices described at the beginning are to be improved in order to achieve both real-time capability and high resolution.
  • the invention has the advantage that in each case in narrow surrounding zones of polygon lines of a vector-based image, a special, taking place on the basis of Subpixelmustern control of the screen subpixel is made. This makes it possible to repeat once created subpixel pattern as often as necessary, which significantly reduces the computational effort, at least in the area of the polygon lines. If it is also taken into account that the described HR filtering in the regions delimited by the polygonal lines, in which there are no or only minor changes in color and brightness, does not bring any significant qualitative advantages, then HR filtering can take place therein According to the invention areas completely omitted. As a result, significant parts of the previously required computing times are saved and, according to the invention, 3D representations are made possible in real time and with high resolution.
  • Fig. 1 shows schematically a known 3D reproduction system
  • FIG. 2 shows optical beam paths for the right and left eye when using a raster lens provided with cylindrical lenses for a part of a horizontal subpixel line of a screen of the display system according to FIG. 1;
  • FIG. 3 schematically shows the generation and combing of perspectives for autostereoscopic 3D representations
  • FIG. 4 schematically shows the representation of gray stripes on a colored background in each case in the case of a resolution in the image pixel region (A1, A2) and in a resolution according to the invention in the subpixel region (B1, B2);
  • FIG. 8 is a flow chart of pre-filtering for HR 3D subpixel filtering
  • FIG. 1 and 2 show schematically a reproduction system according to the invention for
  • the display system includes a screen 1, in particular a flat screen (TFT or plasma screen), in front of which a grid disk 2 designed here as a lenticular screen is arranged.
  • the z. B. contains a memory provided with a graphics card, the od of a camera. Like. Supplied, electrical signals from pictures, scenes od. Like. Are dubbed in real time. Alternatively, these signals can come from a mass storage and constantly be delivered new. The pictures can also be used otherwise. B. in point form, be stored on the map. From the processor unit 3, right and left image signals for in Fig. 1 schematically indicated by rectangles, right and left images 4 and 5 are generated in original size and in pixel form and z. B. stored in each a right and left memory. These image signals are then fed to a block 6 and in this, based on the screen width, z. B.
  • image signals for narrow, indicated by further rectangles, right and left images 7 and 8 are obtained.
  • the image signals in block 6 can, if required, be subjected entirely and / or in selected areas to a treatment which will be briefly described at the outset as HR filtering.
  • the signals of the compressed images 7 and 8 are supplied to another block 9, in which they are decomposed into signals for right and left image strips 10 and 11.
  • the calculation of the image stripe signals is preferably adaptive, i. H. depending on the position of a viewer in front of the screen, including in particular the respective initial position of the image strips 10 and 11 on the screen after each movement must be determined new and accurate.
  • the image strip signals are also interleaved or multiplexed in block 9, so that the associated image strips 10, 11 alternate in the line direction as shown in FIG. 1, while in the column direction (vertical) z. B. are continuous.
  • the signals representing the right and left image strips 10, 11 are finally fed via a conventional interface 12 to the monitor provided with the screen 1 or the like.
  • the viewer is associated, for example, with an eye tracker 14 whose signals are fed to the processor unit 3 and the blocks containing the blocks 6 and 9, hereinafter referred to overall as the coding unit.
  • the display system of Fig. 1 may be provided in a conventional manner with a 3D mouse 15, an input controller 16, a 3D library 17, and, if necessary, a personal-specific adjuster 18 Be provided settings.
  • Fig. 2 shows in the top row schematically some with the reference numeral R.
  • FIG. 2 shows that in front of the subpixels representing the screen 1, there is arranged a lenticular disk 20 shown in cross section, which has a glass pane 21 and a plurality of vertically extending cylindrical lenses (eg a few 100) arranged side by side. B. on the observer facing broadside of the glass sheet 21 are mounted, of which, however, Fig. 2 shows only two cylindrical lenses 22a and 22b. Finally, Fig. 2 shows schematically the optical beam path, starting from each of a right and left eye 23, 24 of a viewer.
  • the lenticular disk 20 is dimensioned and arranged such that at least the right and left image strips produced by the subpixels R, G and B in a selected area of the screen 1 appear to be overlapping-free or disjoint to the viewer, and the order of colors at the transition from a right (left) subpixel strip to the respective preceding or following right (left) SubpixelstMail always steadily continues. This is z. B. from Fig. 2 can be seen.
  • the right subpixel strip 25a starts on the left with a green subpixel and right ends with a red subpixel
  • the next right subpixel strip 25b also begins on the left with a green subpixel and ends on the right with a red subpixel, so that - viewed over both subpixel strips - the color order G, B, R etc. is continuously obtained from left to right.
  • the color order GBR, GBR, etc., for the left subpixel strips 26a, 26b is continuous, as viewed from left to right.
  • the right (left) subpixel strips 25, 26 are automatically spaced apart from one another in that the gaps between a lateral end (e.g., 26c in Fig. 2) of a right (left) subpixel strip and a facing lateral end (e.g., 26d) in Fig. 2 are from one in the row direction and / or subsequent right (left) subpixel stripe corresponds exactly to an integer multiple of an image pixel (or the number of pixel colors present).
  • FIG. 2 shows that the coding unit 6, 9 is so controllable and the grid disc 20 is dimensioned and arranged such that at least those right and left image stripes, e.g. 28 and 29, which are generated in a selected area of the screen 1 (eg in the left half thereof), are seen by the viewer without overlapping.
  • the right-hand image strips 28 are generated by the right subpixel strips 25 and the left image strips 29 by the left subpixel strips 26 and all the right or left image strips 28 and 29, of which in FIG two are shown by the grid plate 20 to a the spatial vision enabling right or left image for the right and left eye 23, 24 are summarized, wherein the screen plate 20 is one of the preceding compression in the block 6 (Fig. 1) corresponding stretching of the images.
  • a protective sequence 30 (FIG. 2) can be arranged.
  • the pixels z. B. in block 6 (Fig. 1) of the repeatedly mentioned HR filtering.
  • a brightness filter having a plurality of coefficients is applied in such a way that a constant gray value in the original image provides a corresponding average gray value in the target image.
  • Fig. 3 shows schematically the generation of a 3D representation on the screen, from here only the lenticular disk 20 is shown.
  • two perspectives P1, P2 of a simple, cuboid object are shown, it being understood that more than two perspectives P1, P2... Pi can also be present in multi-view representations.
  • the individual cuboids are each bounded by surfaces 31, 32, 33, etc.
  • a section of the surface 32 is also shown in Fig. 4. It is additionally assumed for a particularly simple case that the surface 32 is provided with an oblique, gray or white, bounded by parallel and straight side edges strip 34 of the width of an image pixel. In conventional image processing, which works on the basis of image pixels, this has the consequence that on the screen all arranged along the strip 34, in Fig. 4 superimposed nine image pixels are displayed in gray.
  • the resulting representation is shown in the image Al of FIG. 4 in the compressed arrangement obtained by the drive input of the screen pixels and in the image A2 of FIG. 4 by the arrangement which occurs when the image Al is viewed through the lenticular screen through which a line-wise stretched representation is obtained.
  • the strip 34 not as in Al, A2 the. from the polygon line 35 met or traversed image pixels, but only to associate with the traversed by the polygon line 35 subpixels.
  • image Bl is assumed that the polygon line 35 in each case passes through a subpixel 36, 37, 38... 39, the subpixel 36 turning green, the subpixel 37 red, the subpixel 38 blue and the subpixel 39 is also blue, as evidenced by the different shading of the individual subpixels.
  • the subpixels 36... 39, which lie on the polygonal line 35 are therefore initially calculated.
  • the image Bl shows, like the image Al, the conditions on the screen and the image B2 and the image A2 the conditions when viewed through the cylindrical lens. 0
  • each subpixel 36 .... 39 passing through the polygonal line 35 is assigned an environmental zone which contains the subpixel passed through and subpixels immediately adjacent in a tight environment.
  • the surrounding zone of the subpixel 36 is formed overall by a red subpixel 40 located to the left of the polygonal line 35, the subpixel 36 and a blue subpixel 41 lying to the right of the polygon line 35. Accordingly, the procedure in the other lines is such that the blue subpixel 39, a green subpixel 42 lying to the left and a red subpixel 43 located to the right form a surrounding zone associated with the subpixel 39.
  • the strip 34 z. B. be gray. Therefore, the same color value as sub-pixel 40 and 41 is given the same color value as sub-pixel 36 and sub-pixels 42, 43, as well as sub-pixel 39.
  • a polygon line 46 indicating the color transition is determined from the vector data. Then be traversed by the polygon line 46 and lying on her
  • Subpixels calculated here by the reference numerals 46, 48, 49 50 are calculated. Depending on the case, this is a green, blue or red subpixel.
  • each subpixel 47 to 50 passed through an ambient zone of a plurality of subpixels immediately adjacent in a line.
  • subpixels 50 are assigned two subpixels 51, 52 immediately following to the left and three subpixels 53, 54 and 55 immediately following to the right, and these subpixels 50 to 55 form the surrounding zone.
  • the subpixels 50 to 55 lying in this surrounding zone are driven in accordance with a predetermined subpixel pattern defined on both sides of the polygon line 46 as a function of the brightness and / or color values. This means in Fig. 5 that z. B.
  • Subpixels 51, 52 lying on polygonal line 46 and the affected subpixel 50 are displayed in the color of area Fl, ie subpixels 50 to 52 are given the values Gl, Bl and Rl.
  • the subpixels 53 to 55 are driven by the values of the right face F2, that is, G2, B2 and R2.
  • the transition area between the areas Fl and F2 is much finer graded than if the separation were made on the basis of image pixels.
  • FIG. 5 shows that green, blue and red subpixels follow one another along the polygonal line 46 and therefore a subpixel pattern is required for each color.
  • the subpixel patterns to be used in individual cases are largely freely selectable and can be defined as a function of the respective colors / brightnesses.
  • the subpixel pattern provided here in the surrounding zone 57 and stored here as HR filtering could be stored in a simple manner on the surrounding zones 57a to 57c, thereby saving considerable computing times and at least making it easier to achieve real-time capability.
  • FIG. 8 A hardware device capable of generating the luminance signals Y and the color difference signals DG, DB and DR in real time is schematically shown in Fig. 8 with reference to a flow chart for HR 3D subpixel adaptation.
  • FIG. 9 shows schematically and by way of example how color and brightness values for the HD-3D subpixel filtering (HR filtering) can be distributed to the surrounding subpixels by means of a luminance filter h L used for this purpose and a chrominance filter hc.
  • the target subpixel S (n, m) is formed from the red, green and blue environment pixels of the original image R (ni, mk), G (ni, mk), B (ni, mk).
  • HR filtering is performed, which is suitable for stereo image generation with a DELL M60 laptop with vertical lens raster and 1920 • 1200 TFT pixels.
  • the data means that one lens of the lenticular lens extends over twelve subpixels of the screen, three lenses of the right and left images are simultaneously seen at a time, and the jump from the end of a right image to the beginning of the next right is nine subpixels.
  • three subpixels form an interlaced (combed) image strip for the left image, whereas the remaining six subpixels are in reserve serve and allow slight head movements to the right or left (see PCT WO 2004/081863 A2).
  • the six subpixels per image strip only three are ever seen through a lens. Consequently, under the next lens, a repetition of the last three subpixels of the previous lens must be made while the next three subpixels of the respective source are removed again.
  • the brightness filter used is the filter given by way of example in the following table, which extends over three lines and seven (horizontally adjacent) subpixels.
  • the coefficients in the columns H 1 _ 3 , H 1 -0 and H 1 _ 3 belong to the color 1, the coefficients H 1 -2 and H u to the color 2 and the coefficients H ;. 2 and H; 2 to the color 3.
  • the total of all coefficients is equal to 1.
  • the filter is applied in such a way that the coefficients in a first step are multiplied by the G, B or R values of seven adjacent subpixels of the right or left original image and a first subpixel of an associated one Image pixels of the screen are added, for three lines of the original one above the other.
  • the filter is shifted in such a way that the coefficients are now applied to seven subpixels of the original, which are offset by exactly three in the row direction of the subpixels used in the first step.
  • the obtained sum is added to the second subpixel of the image pixel of the screen already used in the first step.
  • an offset by three subpixels in the original and an offset by one subpixel of the target image again takes place.
  • the color filter used by way of example in Table 2 below likewise extends over three lines and seven horizontally adjacent subpixels.
  • the sum total of all coefficients is equal to 1.
  • the coefficients C 1 -3 to Q 3 are applied in a first step to the color 1 (eg G) of seven adjacent image pixels of the original, the sum obtained being one associated subpixels of the same color 1 on the screen is assigned.
  • the remaining color information of the original is distributed to assigned target pixels.
  • the filtering operation can be expressed by the following formula.
  • DC (n, m, 0) DR (n, m)
  • DC (n, m, l) DG (n, m)
  • DC (n, m, 2) DB (n, m).
  • the upsetting operation during filtering can be carried out without additional expenditure by the following renumbering:
  • the invention is not limited to the described embodiments, which can be modified in many ways. This applies first of all to the type of concealment described by way of example, the number of subpixels per image strip as well as the type and geometry of the raster disc and the screen. It is also clear that there may be cases in which the pixels are not three, but z. B. two or more than three differently colored subpixels are formed and / or the subpixels within the image pixels are not row by row next to each other, but at least partially arranged one above the other. The mappings and subpixel patterns must then be adjusted accordingly. In addition, of course, the invention can also be applied to other screens, in particular plasma screens, which enable digital and subpixel accurate control.
  • the assignment of the subpixels used for the brightness and color control or their distribution to adjacent subpixels or within the surrounding zones as described in the context of HR filtering can also be changed and adapted to the specific needs. Furthermore, the number of intended perspectives or locations from which the 3D representations can be viewed is variable within wide limits. Furthermore, the subpixel patterns used in the described surrounding zones can be varied in many ways and adapted to those in the Individual case existing conditions adapted. In principle, it does not matter during which stage of the image transmission the subpixel patterns are formed and assigned to the surrounding zones. In particular, it would be possible to select those that are similar to the desired pattern or come as close as possible to fill the surrounding zones from already stored subpixel patterns. This would significantly reduce the number of subpixel patterns that need to be stored to capture all conceivable cases. Finally, it is understood that the various features may be applied in combinations other than those described and illustrated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

The invention relates to a method and a device for the autostereoscopic reproduction of 3D representations using a screen containing a plurality of pixels which are arranged in lines and columns and comprise a pre-determined number of sub-pixels (G, B, R) of different colours. Said sub-pixels (G,B, R) can be combined in such a way that alternately successive sub-pixel strips are created in each line of the screen, forming right images and left images by means of a grid disk arranged in front of the screen. The image data is stored in a 3D vector form on the basis of vertexes that can be connected by polygonal lines (35). An environment zone is respectively associated with the sub-pixels (36 to 39) crossed by a polygonal line (35), said zone containing the crossed sub-pixel (e.g. 36) and directly adjacent sub-pixels (e.g. 40, 41). The sub-pixels (e.g. 36, 40, 41) located in said environment zone are then controlled according to a sub-pixel pattern depending on the brightness and/or colour values on both sides of the polygonal line (35).

Description

Verfahren und Vorrichtung zur autostereoskopischen Wiedergabe von 3D-Darstellun-Method and device for autostereoscopic reproduction of 3D representations
Die Erfindung betrifft ein Verfahren der im Oberbegriff des Anspruchs 1 angegebenen Gattung und eine zur Durchführung dieses Verfahrens geeignete Vorrichtung.The invention relates to a method of the type specified in the preamble of claim 1 and a device suitable for carrying out this method.
Verfahren und Vorrichtungen dieser Art sind bekannt (z. B. PAM in EP 0 836 332 Al). Bei ihrer Anwendung werden die aus je einem roten, grünen und blauen Subpixel (G, B, R) gebildeten Bildpixel eines Bildschirms zeilenweise so angesteuert, dass abwechselnd vertikale, rechte und linke Sύbpixelstreifen entstehen, die zur Erzeugung zugeordneter, rechter und linker Bildstreifen dienen. Diese Bildstreifen werden mit Hilfe einer vor dem Bildschirm angeordneten Rasterscheibe zu den für 3D-Dar- Stellungen benötigten, rechten und linken Bildern zusammengefasst.Methods and devices of this type are known (eg PAM in EP 0 836 332 A1). When they are used, the image pixels of a screen formed from one red, one green and one blue subpixel (G, B, R) are controlled line by line in such a way that alternating vertical, right and left Sb pixel strips are produced, which are used to generate associated, right and left image strips. These image strips are combined with the help of an arranged in front of the screen grid to the required for 3D-Dar positions, right and left images.
Bei einer bekannten Weiterentwicklung dieser Verfahren und Vorrichtungen (PARSC in PCT WO 2004/081863 A2) ist vorgesehen, die originalen rechten und linken Bilder zunächst in Zeilenrichtung auf z. B. ein Drittel ihrer Breite zu stauchen und dann mit Hilfe der vor dem Bildschirm angeordneten Rasterscheibe wieder auf das ursprüngliche Maß zu strecken. Zur Vermeidung von Farbstörungen und zur Verbesserung der Auflösung werden die Helligkeits- und Farbwerte der verschiedenen Bildpixel mit Hilfe von Helligkeits- und Farbfiltern in unterschiedlicher Weise und so auf die Subpixel des Bildschirms verteilt, dass die Helligkeitsinformation nahezu unverändert bleibt, während die Farbinformation um ca. zwei Drittel reduziert wird. Trotz der Stauchung der Ursprungsbilder auf ein Drittel geht daher praktisch keine Helligkeitsinformation verloren, und die gewählte Farbverteilung führt trotz des Informationsver- lustes dazu, dass die Farbqualität für einen Betechter allenfalls geringfügig verschlechtert wird. Diese als HR-Filterung (High Resolution Filterung) bezeichnete Maßnahme macht von der bekannten Eigenschaft Gebrauch, dass das menschliche Auge aufgrund seiner physiologischen Gegebenheiten Helligkeitsschwankungen stärker als Farbschwankungen wahrnimmt.In a known further development of these methods and devices (PARSC in PCT WO 2004/081863 A2) is provided, the original right and left images first in the row direction to z. B. to compress a third of their width and then stretch with the help of arranged in front of the screen grid again to the original level. In order to avoid color interference and to improve the resolution, the brightness and color values of the various image pixels are varied in a variety of ways by means of brightness and color filters Subpixel of the screen distributes that the brightness information remains almost unchanged, while the color information is reduced by about two-thirds. Despite the compression of the original images to one third, therefore, virtually no brightness information is lost, and the chosen color distribution leads, despite the loss of information, to the fact that the color quality is at most slightly deteriorated for a Betechter. This measure, called HR filtering (high resolution filtering) makes use of the known property that the human eye perceives brightness fluctuations more than color fluctuations due to its physiological conditions.
Ein bei der HR-Filterung noch nicht befriedigend gelöstes Problem besteht darin, dass wegen der hohen erforderlichen Rechenleistungen, die z. B. durch Bildschirmgrößen mit 1024 • 768 Bildpixeln, 50 Bilder pro Sekunde und zwei Filter mit z. B. je sieben oder mehr Filterkoeffizienten bedingt sind, die Echtzeitfähigkeit verloren gehen kann.A not yet satisfactorily solved in HR filtering problem is that because of the high computational power required, the z. For example, screen sizes of 1024 • 768 image pixels, 50 images per second, and two filters with z. B. each seven or more filter coefficients are conditional, the real-time capability can be lost.
Alternativ wäre es möglich, die erforderliche Stauchung der Originalbilder dadurch herbeizuführen, dass man jedes zweite und dritte Bildpixel wegfallen lässt. Dadurch würde der Rechenaufwand erheblich reduziert. Nachteilig wäre jedoch, dass bei der nachträglichen Verbreiterung der Bildpunkte auf das Dreifache vergleichsweise grobe Raster und dadurch insbesondere bei schrägen Kanten stark treppenstufenförmige und unschön wirkende Begrenzungslinien erhalten würden. Außerdem würden sich Aliasfehler ergeben. Diese könnten zwar dadurch vermieden werden, dass bei der Stauchung jeweils eine Mittelwertbildung über je drei Bildpixel vorgenommen wird. Das würde jedoch eine Reduzierung der Auflösung auf ca. ein Drittel zur Folge haben.Alternatively, it would be possible to bring about the required compression of the original images by eliminating every second and third image pixel. This would significantly reduce the computational effort. The disadvantage, however, would be that in the subsequent broadening of the pixels to three times comparatively coarse grid and thus particularly in oblique edges would receive strong staircase-shaped and unsightly-acting boundary lines. In addition, alias errors would result. Although this could be avoided by the fact that in the compression each averaging over three image pixels is made. However, this would result in a reduction of the resolution to about one third.
Aus den genannten Gründen kann heute zwischen einer autostereoskopischen Darstellung mit hohem Auflösungsvermögen und nicht, immer ausreichender Echtzeitfähigkeit und einer 3D-Darstellung in Echtzeit, jedoch mit mäßiger Auflösung gewählt werden. .For the reasons mentioned above, it is now possible to choose between an autostereoscopic display with high resolution capability and not always sufficient real-time capability and a 3D representation in real time, but with a moderate resolution. .
Ausgehend davon besteht das technische Problem der vorliegenden Erfindung darin, die eingangs bezeichneten Verfahren und Vorrichtungen dahingegen zu verbessern, dass sowohl Echtzeitrahigkeit erreicht als auch eine hohe Auflösung erzielt wird.Based on this, the technical problem of the present invention is the methods and devices described at the beginning are to be improved in order to achieve both real-time capability and high resolution.
Zur Lösung dieser Aufgabe dienen ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Vorrichtung, die zur Durchführung dieses Verfahrens eingerichtet ist.To achieve this object, a method with the features of claim 1 and a device which is adapted to carry out this method serve.
Die Erfindung bringt den Vorteil mit sich, dass jeweils in schmalen Umgebungszonen von Polygonlinien eines auf Vektorbasis vorliegenden Bildes eine spezielle, anhand von Subpixelmustern erfolgende Ansteuerung der Bildschirm-Subpixel vorgenommen wird. Dadurch ist es möglich, einmal geschaffene Subpixelmuster so oft wie nötig zu wiederholen, was zumindest im Bereich der Polygonlinien den Rechenaufwand erheblich reduziert. Wird außerdem berücksichtigt, dass die beschriebene HR-Filte- rung in den von den Polygonlinien umgrenzten Bereichen, in denen keine oder nur geringfügige Färb- und Helligkeitsänderungen stattfinden, keine wesentlichen qualitati- ven Vorteile mit sich bringt, dann kann die HR-Filterung in diesen Bereichen erfindungsgemäß auch ganz unterbleiben. Dadurch werden wesentliche Teile der bisher benötigten Rechenzeiten eingespart und erfindungsgemäß 3D-Darstellungen in Echtzeit und mit hoher Auflösung ermöglicht.The invention has the advantage that in each case in narrow surrounding zones of polygon lines of a vector-based image, a special, taking place on the basis of Subpixelmustern control of the screen subpixel is made. This makes it possible to repeat once created subpixel pattern as often as necessary, which significantly reduces the computational effort, at least in the area of the polygon lines. If it is also taken into account that the described HR filtering in the regions delimited by the polygonal lines, in which there are no or only minor changes in color and brightness, does not bring any significant qualitative advantages, then HR filtering can take place therein According to the invention areas completely omitted. As a result, significant parts of the previously required computing times are saved and, according to the invention, 3D representations are made possible in real time and with high resolution.
Weitere vorteilhafte Merkmale der Erfindung ergeben sich aus den Unteransprüchen.Further advantageous features of the invention will become apparent from the dependent claims.
Die Erfindung wird nachfolgend in Verbindung mit den beiliegenden Zeichnungen an Ausführungsbeispielen näher erläutert. Es zeigen:The invention will be explained in more detail below in connection with the accompanying drawings of exemplary embodiments. Show it:
Fig. 1 schematisch ein bekanntes 3D- Wiedergabesystem;Fig. 1 shows schematically a known 3D reproduction system;
Fig. 2 optische Strahlengänge für das rechte und linke Auge bei Anwendung einer mit Zylinderlinsen versehenen Rasterscheibe für einen Teil einer horizontalen Subpixelzei- Ie eines Bildschirms des Wiedergabesystems nach Fig. 1;FIG. 2 shows optical beam paths for the right and left eye when using a raster lens provided with cylindrical lenses for a part of a horizontal subpixel line of a screen of the display system according to FIG. 1; FIG.
Fig. 3 schematisch das Generieren und Verkämmen von Perspektiven für autostereo- skope 3D-Darstellungen; - A -FIG. 3 schematically shows the generation and combing of perspectives for autostereoscopic 3D representations; FIG. - A -
Fig. 4 schematisch die Darstellung von grauen Streifen auf einem farbigen Untergrund jeweils bei einer Äufösung im Bildpixelbereich (Al, A2) und bei einer erfindungsgemäßen Auflösung im Subpixelbereich (Bl, B2);4 schematically shows the representation of gray stripes on a colored background in each case in the case of a resolution in the image pixel region (A1, A2) and in a resolution according to the invention in the subpixel region (B1, B2);
Fig. 5 und 6 die erfindungsgemäße Behandlung von Übergängen zwischen zwei Farbflächen;5 and 6 show the treatment according to the invention of transitions between two color areas;
Fig. 7 schematisch die erfindungsgemäße Generierung von 3D-Darstellungen;7 shows schematically the generation of 3D representations according to the invention;
Fig. 8 ein Ablaufdiagramm der Vorfilterung zur HR-3D-Subpixelfilterung; undFIG. 8 is a flow chart of pre-filtering for HR 3D subpixel filtering; FIG. and
Fig. 9 je einen Luminanz-Filter hL und einen Chrominanz-Filter hc zur HR-3D- Subpixelfilterung.9 shows a luminance filter h L and a chrominance filter hc for HR 3D subpixel filtering.
Fig. 1 und 2 zeigen schematisch ein erfindungsgemäßes Wiedergabesystem fürFig. 1 and 2 show schematically a reproduction system according to the invention for
3D-Darstellungen, die Bilder oder Szenen beinhalten können. Das Wiedergabesystem enthält einen Bildschirm 1 , insbesondere einen Flachbildschirm (TFT- oder Plasma- Bildschirm), vor dem eine hier als Linsenrasterscheibe ausgebildete Rasterscheibe 2 angeordnet ist. Der Bildschirm 1 enthält gemäß Fig. 2 in einer Vielzahl von z. B. 768 bis 1200 (horizontalen) Zeilen eine Vielzahl von nebeneinander liegenden, z. B. je 1024 bis 1920 Bildpixeln, die aus je drei nebeneinander liegenden, farbigen Subpixeln in den Farben rot (= R), grün (= G) und blau (= B) zusammengesetzt sind. Innerhalb jedes Bildpixels ist die Reihenfolge der Subpixel stets dieselbe, z. B. RGB.3D images that can contain images or scenes. The display system includes a screen 1, in particular a flat screen (TFT or plasma screen), in front of which a grid disk 2 designed here as a lenticular screen is arranged. The screen 1 includes shown in FIG. 2 in a variety of z. B. 768 to 1200 (horizontal) rows a plurality of adjacent, z. For example, every 1024 to 1920 image pixels are composed of three adjacent color subpixels in the colors red (= R), green (= G) and blue (= B). Within each image pixel, the order of the subpixels is always the same, e.g. B. RGB.
Zur Erzeugung von 3 D-Darstellungen dient eine Prozessoreinheit 3, die z. B. eine mit einem Speicher versehene Grafikkarte enthält, auf die in Echtzeit die von einer Kamera od. dgl. gelieferten, elektrischen Signale von Bildern, Szenen od. dgl. überspielt werden. Alternativ können diese Signale auch aus einem Massenspeicher kommen und ständig neu geliefert werden. Die Bilder können auch sonstwie z. B. in Punktform, auf der Karte abgelegt sein. Von der Prozessoreinheit 3 werden rechte und linke Bildsignale für in Fig. 1 schematisch durch Rechtecke angedeutete, rechte bzw. linke Bilder 4 und 5 in Originalgröße und in Pixelform erzeugt und z. B. in je einem rechten und linken Speicher abgelegt. Diese Bildsignale werden dann einem Block 6 zugeführt und in diesem, bezogen auf die Bildschirmbreite, z. B. auf je ein Drittel ihrer ursprünglichen Breite und insbesondere in demselben Verhältnis gestaucht, wie sie später durch die Rasterscheibe 2 wieder vergrößert werden. Dadurch werden Bildsignale für schmale, durch weitere Rechtecke angedeutete, rechte und linke Bilder 7 und 8 erhalten. Außerdem können die Bildsignale im Block 6 bei Bedarf ganz und/oder in ausgewählten Bereichen einer weiter unten erläuterten, eingangs kurz als HR-Filterung bezeichneten Behandlung unterworfen werden.To generate 3 D representations is a processor unit 3, the z. B. contains a memory provided with a graphics card, the od of a camera. Like. Supplied, electrical signals from pictures, scenes od. Like. Are dubbed in real time. Alternatively, these signals can come from a mass storage and constantly be delivered new. The pictures can also be used otherwise. B. in point form, be stored on the map. From the processor unit 3, right and left image signals for in Fig. 1 schematically indicated by rectangles, right and left images 4 and 5 are generated in original size and in pixel form and z. B. stored in each a right and left memory. These image signals are then fed to a block 6 and in this, based on the screen width, z. B. each compressed to one third of their original width and in particular in the same ratio, as they are later increased again by the grid plate 2. As a result, image signals for narrow, indicated by further rectangles, right and left images 7 and 8 are obtained. In addition, the image signals in block 6 can, if required, be subjected entirely and / or in selected areas to a treatment which will be briefly described at the outset as HR filtering.
Die Signale der gestauchten Bilder 7 und 8 werden einem weiteren Block 9 zugeführt, in dem sie in Signale für rechte und linke Bildstreifen 10 und 11 zerlegt werden. Die Berechnung der Bildstreifensignale erfolgt vorzugsweise adaptiv, d. h. in Abhängigkeit von der Position eines Betrachters vor dem Bildschirm, wozu insbesondere die jeweilige Anfangsposition der Bildstreifen 10 und 11 auf dem Bildschirm nach jeder Bewegung neu und genau ermittelt werden muss. Die Bildstreifensignale werden im Block 9 außerdem verkämmt bzw. gemultiplext, so dass sich die zugehörigen BiId- streifen 10, 11 entsprechend Fig. 1 in Zeilenrichtung miteinander abwechseln, während sie in Spaltenrichtung (vertikal) z. B. durchgehend sind. Die die rechten und linken Bildstreifen 10, 11 repräsentierenden Signale werden schließlich über eine übliche Schnittstelle 12 dem mit dem Bildschirm 1 versehenen Monitor od. dgl. zugeführt.The signals of the compressed images 7 and 8 are supplied to another block 9, in which they are decomposed into signals for right and left image strips 10 and 11. The calculation of the image stripe signals is preferably adaptive, i. H. depending on the position of a viewer in front of the screen, including in particular the respective initial position of the image strips 10 and 11 on the screen after each movement must be determined new and accurate. The image strip signals are also interleaved or multiplexed in block 9, so that the associated image strips 10, 11 alternate in the line direction as shown in FIG. 1, while in the column direction (vertical) z. B. are continuous. The signals representing the right and left image strips 10, 11 are finally fed via a conventional interface 12 to the monitor provided with the screen 1 or the like.
Damit die Berechnung der Bildstreifensignale adaptiv erfolgen kann, ist dem Betrachter beispielsweise ein Eye-Tracker 14 zugeordnet, dessen Signale der Prozessoreinheit 3 und der die Blöcke 6 und 9 enthaltenden, nachfolgend insgesamt als Codiereinheit bezeichneten Einrichtung zugeführt werden. Außerdem kann das Wiedergabesystem der Fig. 1 in üblicher Weise mit einer 3D-Maus 15, einer Eingabesteuerung 16, einer 3D-Bibliothek 17 und ggf. einer Einstellvorrichtung 18 für personenspezifische Einstellungen versehen sein.So that the calculation of the image strip signals can be done adaptively, the viewer is associated, for example, with an eye tracker 14 whose signals are fed to the processor unit 3 and the blocks containing the blocks 6 and 9, hereinafter referred to overall as the coding unit. In addition, the display system of Fig. 1 may be provided in a conventional manner with a 3D mouse 15, an input controller 16, a 3D library 17, and, if necessary, a personal-specific adjuster 18 Be provided settings.
Fig. 2 zeigt in der obersten Reihe schematisch einige mit den Bezugszeichen RFig. 2 shows in the top row schematically some with the reference numeral R.
(= rot), B (= grün) und B (= blau) bezeichnete Subpixel des Flachbildschirms 1 der Fig. 1, wobei je drei solcher Subpixel R, G, B und von links nach rechts in jedem Bildpixel stets dieselbe Reihenfolge, z. B. RGB-RGB usw. haben. Weiter zeigt Fig. 2, dass vor den den Bildschirm 1 repäsentierenden Subpixeln eine in Querschnitt dargestellte Linsenrasterscheibe 20 angeordnet ist, die eine Glasscheibe 21 und eine Mehrzahl von nebeneinander angeordneten, vertikal erstreckten Zylinderlinsen (z. B. einige 100) aufweist, die z. B. auf der dem Betrachter zugewandten Breitseite der Glasscheibe 21 angebracht sind, von denen jedoch Fig. 2 nur zwei Zylinderlinsen 22a und 22b zeigt. Schließlich zeigt Fig. 2 schematisch den optischen Strahlengang, ausgehend von je einem rechten bzw. linken Auge 23, 24 eines Betrachters.(= red), B (= green) and B (= blue) designated subpixels of the flat panel 1 of Fig. 1, each three such subpixels R, G, B and from left to right in each image pixel always the same order, for. B. RGB-RGB, etc. have. 2 shows that in front of the subpixels representing the screen 1, there is arranged a lenticular disk 20 shown in cross section, which has a glass pane 21 and a plurality of vertically extending cylindrical lenses (eg a few 100) arranged side by side. B. on the observer facing broadside of the glass sheet 21 are mounted, of which, however, Fig. 2 shows only two cylindrical lenses 22a and 22b. Finally, Fig. 2 shows schematically the optical beam path, starting from each of a right and left eye 23, 24 of a viewer.
Erfindungsgemäß ist die Linsenrasterscheibe 20 so dimensioniert und angeordnet, dass zumindest die in einem ausgewählten Bereich des Bildschirms 1 von den Subpixeln R, G und B erzeugten, rechten und linken Bildstreifen für den Betrachter überlappungsfrei bzw. disjunkt erscheinen und sich die Reihenfolge der Farben beim Übergang von einem rechten (linken) Subpixelstreifen zum jeweils vorhergehenden oder nachfolgen- den rechten (linken) Subpixelstreifen stets stetig fortsetzt. Dies ist z. B. aus Fig. 2 ersichtlich. Hier sind abwechselnd rechte bzw. linke, aus je sechs Subpixeln R, G und B gebildete Subpixelstreifen 25a, 25b bzw. 26a, 26b dargestellt, wobei der rechte Subpixelstreifen 25a links mit einem grünen Subpixel beginnt und rechts mit einem roten Subpixel endet, während der nächste rechte Subpixelstreifen 25b links ebenfalls mit einem grünen Subpixel beginnt und rechts mit einem roten Subpixel endet, so dass - über beide Subpixelstreifen betrachtet - von links nach rechts durchgehend stetig die Farbreihenfolge G, B, R usw. erhalten wird. Entsprechend ergibt sich für die linken Subpixelstreifen 26a, 26b durchgehend die Farbreihenfolge GBR, GBR usw. , wiederum von links nach rechts betrachtet.According to the invention, the lenticular disk 20 is dimensioned and arranged such that at least the right and left image strips produced by the subpixels R, G and B in a selected area of the screen 1 appear to be overlapping-free or disjoint to the viewer, and the order of colors at the transition from a right (left) subpixel strip to the respective preceding or following right (left) Subpixelstreifen always steadily continues. This is z. B. from Fig. 2 can be seen. Here, alternately right and left, each formed from six subpixels R, G and B subpixel strips 25a, 25b and 26a, 26b are shown, the right subpixel strip 25a starts on the left with a green subpixel and right ends with a red subpixel, while the next right subpixel strip 25b also begins on the left with a green subpixel and ends on the right with a red subpixel, so that - viewed over both subpixel strips - the color order G, B, R etc. is continuously obtained from left to right. Accordingly, the color order GBR, GBR, etc., for the left subpixel strips 26a, 26b, is continuous, as viewed from left to right.
Wenn die Zahl der nebeneinander liegenden Subpixel sowohl in den rechten als auch in den linken Subpixelstreifen 25, 26 in Fig. 2 einem ganzzahligen Vielfachen der Farbenzahl bzw. einem ganzzahligen Vielfachen einer Bildpixelbreite entspricht und die Subpixelstreifen 25, 26 ohne Zwischenräume aneinander grenzen, dann sind die rechten (linken) Subpixelstreifen 25, 26 automatisch so voneinander beabstandet, dass die Zwischenräume bzw. Sichtsprünge zwischen einem seitlichen Ende (z. B. 26c in Fig. 2) eines rechten (linken) Subpixelstreifens und einem zugewandten seitlichen Ende (z. B. 26d) in Fig. 2 von einem in Zeilenrichtung vorhergehenden und/oder nachfolgenden rechten (linken) Subpixelstreifen genau einem ganzzahligen Vielfachen eines Bildpixels (bzw. der vorhandenen Anzahl der Pixelfarben) entspricht. Als nachteilig könnte dabei allerdings empfunden werden, dass die rechten und linken Subpixelstreifen jeweils unmittelbar aneinander grenzen, was bei ungenauer Positionierung der Rasterscheibe 20 und bei geringen Bewegungen des Betrachters zu Bildstörungen führen könnte. Daher wird in Weiterbildung der Erfindung vorgeschlagen, zwischen den Subpixelstreifen 25, 26 weitere Subpixel R, G bzw. B vorzusehen. Dies ist in Fig. 2 dadurch sichtbar gemacht, dass zwischen den Subpixelstreifen 25a und 26a bzw. 26a und 25b bzw. 25b und 26b jeweils drei weitere Subpixel 27a, 27b bzw. 27c angeordnet sind. Diese weiteren Subpixel 27 dienen einerseits der besseren räumlichen Trennung der Subpixelstreifen 25, 26 und ermöglichen andererseits begrenzte Kopfbewegungen eines Betrachters, wie weiter unten näher erläutert ist, ohne dadurch Bildstörungen zu verursachen. Letzteres gilt insbesondere dann, wenn die Zahl der weiteren Subpixel 27 vorzugsweise einem ganzzahligen Vielfachen der Bildpixelbreite bzw. der vorhandenen Pixelfarben (hier drei) entspricht.If the number of adjacent subpixels in both the right and 2 corresponds to an integral multiple of the number of colors or an integer multiple of an image pixel width and the subpixel strips 25, 26 adjoin one another without gaps, then the right (left) subpixel strips 25, 26 are automatically spaced apart from one another in that the gaps between a lateral end (e.g., 26c in Fig. 2) of a right (left) subpixel strip and a facing lateral end (e.g., 26d) in Fig. 2 are from one in the row direction and / or subsequent right (left) subpixel stripe corresponds exactly to an integer multiple of an image pixel (or the number of pixel colors present). However, it could be perceived as disadvantageous that the right and left subpixel strips each adjoin one another directly, which could lead to image disturbances if the grid disk 20 were positioned inaccurately and the viewer made slight movements. Therefore, it is proposed in a further development of the invention to provide 26 further subpixels R, G and B between the subpixel strips 25, 26. This is made visible in FIG. 2 by arranging three further subpixels 27a, 27b and 27c between the subpixel strips 25a and 26a or 26a and 25b or 25b and 26b. These further subpixels 27 serve on the one hand the better spatial separation of the subpixel strips 25, 26 and on the other hand allow limited head movements of a viewer, as explained in more detail below, without causing image interference. The latter applies in particular when the number of further subpixels 27 preferably corresponds to an integer multiple of the image pixel width or the existing pixel colors (here three).
Weiter zeigt Fig. 2, dass die Codiereinheit 6, 9 so steuerbar und die Rasterscheibe 20 so dimensioniert und angeordnet ist, dass zumindest diejenigen rechten und linken Bildstreifen, z. B. 28 und 29, die in einem ausgewählten Bereich des Bildschirms 1 (z. B. in dessen linker Hälfte) erzeugt werden, vom Betrachter überlappungsfrei gesehen werden. Dabei ist klar, dass in Fig. 2 die rechten Bildstreifen 28 durch die rechten Subpixelstreifen 25 und die linken Bildstreifen 29 durch die linken Subpixel- streifen 26 erzeugt werden und alle rechten bzw. linken Bildstreifen 28 und 29, von denen in Fig. 2 nur zwei gezeigt sind, durch die Rasterscheibe 20 zu einem das räumliche Sehen ermöglichenden rechten bzw. linken Bild für das rechte bzw. linke Auge 23, 24 zusammengefasst werden, wobei durch die Rasterscheibe 20 eine der vorhergehenden Stauchung in dem Block 6 (Fig. 1) entsprechende Streckung der Bilder erfolgt.Furthermore, FIG. 2 shows that the coding unit 6, 9 is so controllable and the grid disc 20 is dimensioned and arranged such that at least those right and left image stripes, e.g. 28 and 29, which are generated in a selected area of the screen 1 (eg in the left half thereof), are seen by the viewer without overlapping. It is clear that in FIG. 2, the right-hand image strips 28 are generated by the right subpixel strips 25 and the left image strips 29 by the left subpixel strips 26 and all the right or left image strips 28 and 29, of which in FIG two are shown by the grid plate 20 to a the spatial vision enabling right or left image for the right and left eye 23, 24 are summarized, wherein the screen plate 20 is one of the preceding compression in the block 6 (Fig. 1) corresponding stretching of the images.
Zwischen der Rasterscheibe 20 und dem Bildschirm 1 kann eine Schutzfolge 30 (Fig. 2) angeordnet sein.Between the grid plate 20 and the screen 1, a protective sequence 30 (FIG. 2) can be arranged.
Zur Verbesserung der Auflösung, die durch die Stauchung der Bilder auf etwa ein Dritter ihrer Breite (in Zeilenrichtung) stark reduziert ist, können die Bildpunkte z. B. im Block 6 (Fig. 1) der mehrfach genannten HR-Filterung unterzogen werden. Dabei wird in einem ersten Schritt ein Helligkeitsfilter mit einer Mehrzahl von Koeffizienten derart angewendet, dass ein gleichbleibender Grauwert im Originalbild einen entsprechenden mittleren Grauwert im Zielbild liefert. Mit anderen Worten werden die Helligkeitswerte Y = (G + B + R)/3 von drei nebeneinander liegenden Bildpixeln des Originals in einer von den Filterkoeffizienten abhängigen Weise auf die drei Subpixel eines zugeordneten Bildpixels auf dem Bildschirm verteilt.To improve the resolution, which is greatly reduced by the compression of the images to about a third of their width (in the row direction), the pixels z. B. in block 6 (Fig. 1) of the repeatedly mentioned HR filtering. In this case, in a first step, a brightness filter having a plurality of coefficients is applied in such a way that a constant gray value in the original image provides a corresponding average gray value in the target image. In other words, the brightness values Y = (G + B + R) / 3 of three adjacent image pixels of the original are distributed in a filter-dependent manner to the three sub-pixels of an associated image pixel on the screen.
In einem zweiten Schritt wird die Farbinformation mit einer reduzierten örtlichen Auflösung hinzugefügt. Dies erfolgt dadurch, die Farbdifferenzwerte DG = G - Y, DB = B - Y und DR = R - Y mit einem ebenfalls eine Mehrzahl von Koeffizienten aufweisenden Farbfilter behandelt und dann in den gestauchten Bildern den Helligkeitswerten Y = (G + B + R)/3 hinzuaddiert werden. Für die rechten und linken Bilder werden zweckmäßig dieselben Operationen durchgeführt.In a second step, the color information is added at a reduced local resolution. This is done by treating the color difference values DG = G - Y, DB = B - Y and DR = R - Y with a color filter also having a plurality of coefficients and then in the compressed images the brightness values Y = (G + B + R) / 3 are added. For the right and left images, the same operations are conveniently performed.
Verfahren und Vorrichtungen der beschriebenen Art sind bekannt. Insoweit wird insbesondere auf das Dokument PCT WO 2004/081863 A2 verwiesen, das hiermit zur Vermeidung von Wiederholungen zum Gegenstand der vorliegenden Offenbarung gemacht wird.Methods and devices of the type described are known. In that regard, reference is made in particular to the document PCT WO 2004/081863 A2, which is hereby made the subject of the present disclosure in order to avoid repetition.
Fig. 3 zeigt schematisch die Erzeugung einer 3D-Darstellung auf dem Bildschirm, von dem hier nur die Linsenrasterscheibe 20 dargestellt ist. In der obersten Reihe der Fig. 3 sind zwei Perspektiven Pl, P2 eines einfachen, quaderförmigen Gegenstandes dargestellt, wobei klar ist, dass bei Multi- View-Darstellungen auch mehr als zwei Perspektiven Pl, P2 .... Pi vorhanden sein können. Die einzelnen Quader sind jeweils durch Flächen 31, 32, 33 usw. begrenzt.Fig. 3 shows schematically the generation of a 3D representation on the screen, from here only the lenticular disk 20 is shown. In the uppermost row of FIG. 3, two perspectives P1, P2 of a simple, cuboid object are shown, it being understood that more than two perspectives P1, P2... Pi can also be present in multi-view representations. The individual cuboids are each bounded by surfaces 31, 32, 33, etc.
In der zweiten Reihe der Fig. 3 sind die aus den Perspektiven Pl und P2 erhaltenen, gestauchten Perspektiven PSl und PS2 und weitere gestauchte, z. B. aus Perspektiven P3 und P4 erhaltene Perspektiven PS3 und PS4 dargestellt.In the second row of Fig. 3 are obtained from the prospects Pl and P2, compressed perspectives PSl and PS2 and other compressed, z. B. perspectives P3 and P4 perspectives PS3 and PS4 shown.
In der dritten Reihe der Fig. 3 sind schließlich schematisch die auf den Bildschirm kopierten Subpixelstreifen angedeutet.Finally, in the third row of FIG. 3, the subpixel strips copied onto the screen are schematically indicated.
In Fig. 3 ist vorausgesetzt, dass die einzelnen Flächen überall gleiche Färb- und Helligkeitswerte aufweisen, d. h. z. B. die Fläche 31 durchgehend den Wert Yl = (Gl, Bl, Rl), die Fläche 32 durchgehend den Wert Y2 = (G2, B2, R2) und die Fläche 33 durchgehend den Wert Y3 = (G3, B3, R3) besitzt. Für die anderen Perspektiven P2 .... Pi gilt im Beispiel sinngemäß dasselbe.In Fig. 3, it is assumed that the individual areas have the same color and brightness values everywhere, i. H. z. For example, surface 31 has the value Yl = (Gl, Bl, Rl) continuously, surface 32 has the value Y2 = (G2, B2, R2) continuously, and surface 33 has the value Y3 = (G3, B3, R3) , For the other perspectives P2 .... Pi, the same applies mutatis mutandis in the example.
Ein Ausschnitt der Fläche 32 ist auch in Fig. 4 dargestellt. Dabei ist für einen besonders einfachen Fall zusätzlich angenommen, dass die Fläche 32 mit einem schräg verlaufenden, grauen oder weißen, durch parallele und gerade Seitenkanten begrenzten Streifen 34 von der Breite eines Bildpixels versehen ist. Bei der herkömmlichen Bildverarbeitung, die auf der Basis von Bildpixeln arbeitet, hat das zur Folge, dass auf dem Bildschirm alle längs des Streifens 34 angeordneten, in Fig. 4 übereinander liegenden neun Bildpixel grau dargestellt werden. Die sich dadurch ergebende Darstellung ist im Bild Al der Fig. 4 in der gestauchten, durch die Ansteuerang der Bildschirmpixel erhaltenen Anordnung und im Bild A2 der Fig. 4 durch diejenige Anordnung gezeigt, die sich bei der Betrachtung des Bildes Al durch die Linsenraster- scheibe hindurch ergibt, durch die eine in Zeilenrichtung gedehnte Darstellung erhalten wird. Daraus ist ersichtlich, dass die neun in Fig. 4 dargestellten Bildpixel im sichtbaren Bild A2 zu einem stark ausgeprägten, treppenstufenförmigen Verlauf des Streifens 34 zwischen zwei beispielhaft eingezeichneten, übertrieben dick dargestellten Begrenzungslinien 34a und 34b führen. Dadurch sind die ursprünglich geraden Seitenkanten des Streifens 34 stark verzerrt. Eine feinere Auflösung ist hier nicht möglich.A section of the surface 32 is also shown in Fig. 4. It is additionally assumed for a particularly simple case that the surface 32 is provided with an oblique, gray or white, bounded by parallel and straight side edges strip 34 of the width of an image pixel. In conventional image processing, which works on the basis of image pixels, this has the consequence that on the screen all arranged along the strip 34, in Fig. 4 superimposed nine image pixels are displayed in gray. The resulting representation is shown in the image Al of FIG. 4 in the compressed arrangement obtained by the drive input of the screen pixels and in the image A2 of FIG. 4 by the arrangement which occurs when the image Al is viewed through the lenticular screen through which a line-wise stretched representation is obtained. It can be seen that the nine image pixels shown in FIG visible image A2 lead to a strong, stepped step-shaped course of the strip 34 between two exemplarily drawn, exaggeratedly shown boundary lines 34a and 34b. As a result, the originally straight side edges of the strip 34 are greatly distorted. A finer resolution is not possible here.
Demgegenüber wird erfindungsgemäß vorgeschlagen, die Bilder, insbesondere die gestauchten Bilder vektoriell abzuspeichern. Bei dieser Art der Speicherung werden nur die die Eckpunkte von Polygonflächen abgespeichert, wobei die Polygonflächen 0 durch gedachte, die Eckpunkte verbindende Polygonlinien begrenzt sind. Innerhalb einer Polygonfläche ist dabei stets dieselbe Farbe (G, B, R) vorhanden. Dadurch ergeben sich für die Fläche 32 zwei nicht dargestellte Eckpunkte, zwischen denen eine den Streifen 34 markierende Polygonlinie 35 verläuft, die auch als Kante aufgefasst werden kann, längs der sich die Werte G, B, R entsprechend dem darzustellenden 5 Streifen 34 ändern. Die Berechnung der Polygonlinien 35 erfolgt über die Software, und zwar vorzugsweise nicht anhand der Perspektiven, sondern anhand der Flächen, die sich nach der Projektion der Perspektiven auf die Bildschirmebene ergeben, unter Anwendung einer geeigneten Grafikkarte. In contrast, it is proposed according to the invention to vectorially store the images, in particular the compressed images. In this type of storage, only the vertices of polygon surfaces are stored, the polygon surfaces 0 being bounded by imaginary polygon lines connecting the vertices. Within a polygon surface, the same color (G, B, R) is always present. This results in the surface 32, two vertices, not shown, between which runs a strip 34 marking polygonal line 35, which can also be understood as an edge along which the values G, B, R change according to the displayed strip 5 34. The calculation of the polygon lines 35 takes place via the software, preferably not on the basis of the perspectives, but on the basis of the areas that result after the projection of the perspectives on the screen level, using a suitable graphics card.
0 Erfindungsgemäß wird weiter vorgesehen, dem Streifen 34 nicht wie in Al, A2 die . von der Polygonlinie 35 getroffenen bzw. durchlaufenen Bildpixel, sondern nur die von der Polygonlinie 35 durchlaufenen Subpixel zuzuordnen. Dabei ist zur Vereinfachung der Beschreibung in Fig. 4, Bild Bl angenommen, dass die Polygonlinie 35 jeweils ein Subpixel 36, 37, 38 .... 39 durchläuft, wobei das Subpixel 36 grün, das 5 Subpixel 37 rot, das Subpixel 38 blau und das Subpixel 39 ebenfalls blau ist, was an der unterschiedlichen Schattierung der einzelnen Subpixel erkennbar ist. Es werden daher zunächst die Subpixel 36 .... 39 berechnet, die auf der Polygonlinie 35 liegen. Dabei zeigt das Bild Bl wie das Bild Al die Verhältnisse am Bildschirm und das Bild B2 wie das Bild A2 die Verhältnisse bei Betrachtung durch die Zylinderlinse. 00 According to the invention is further provided, the strip 34 not as in Al, A2 the. from the polygon line 35 met or traversed image pixels, but only to associate with the traversed by the polygon line 35 subpixels. In this case, to simplify the description in FIG. 4, image Bl is assumed that the polygon line 35 in each case passes through a subpixel 36, 37, 38... 39, the subpixel 36 turning green, the subpixel 37 red, the subpixel 38 blue and the subpixel 39 is also blue, as evidenced by the different shading of the individual subpixels. The subpixels 36... 39, which lie on the polygonal line 35, are therefore initially calculated. In this case, the image Bl shows, like the image Al, the conditions on the screen and the image B2 and the image A2 the conditions when viewed through the cylindrical lens. 0
Da der Streifen 34 grau oder auch weiß mit G = B = R dargestellt werden soll, wird erfindungsgemäß jedem von der Polygonlinie 35 durchlaufenden Subpixel 36 .... 39 je eine Umgebungszone zugeordnet, die das durchlaufene Subpixel und in einer engen Umgebung unmittelbar benachbarte Subpixel enthält. Im Bild Bl von Fig. 4 wird die Umgebungszone des Subpixels 36 insgesamt durch ein links von der Polygonlinie 35 liegendes, rotes Subpixel 40, das Subpixel 36 und ein rechts von der Polygonlinie 35 liegendes, blaues Subpixel 41 gebildet. Entsprechend wird in den anderen Zeilen vorgegangen, so dass das blaue Subpixel 39, ein links daneben liegendes grünes Subpixel 42 und ein rechts daneben liegendes rotes Subpixel 43 eine dem Subpixel 39 zugeordnete Umgebungszone bilden. .Since the strip 34 is to be gray or white with G = B = R is shown is According to the invention, each subpixel 36 .... 39 passing through the polygonal line 35 is assigned an environmental zone which contains the subpixel passed through and subpixels immediately adjacent in a tight environment. 4, the surrounding zone of the subpixel 36 is formed overall by a red subpixel 40 located to the left of the polygonal line 35, the subpixel 36 and a blue subpixel 41 lying to the right of the polygon line 35. Accordingly, the procedure in the other lines is such that the blue subpixel 39, a green subpixel 42 lying to the left and a red subpixel 43 located to the right form a surrounding zone associated with the subpixel 39. ,
Schließlich wird softwaremäßig festgelegt, dass die erläuterten Umgebungszonen nach einem vorgegebenen, von den Helligkeits- und/oder Farbwerten beidseitig der Polygonlinie 35 abhängigen Subpixelmuster angesteuert werden. Im Ausführungsbeispiel soll der Streifen 34 z. B. grau sein. Daher wird den Subpixeln 40 und 41 derselbe Farbwert wie dem Subpixel 36 und den Subpixeln 42, 43 derselbe Farbwert wie dem Subpixel 39 gegeben. Längs des gesamten Streifens 34 haben daher jeweils die von der Polygonlinie 35 durchlaufenen und die beiden Nachbar-Subpixel dieselben Farbwerte G = B = R.Finally, it is determined by software that the described surrounding zones are controlled according to a predetermined subpixel pattern which is dependent on the brightness and / or color values on both sides of the polygonal line 35. In the exemplary embodiment, the strip 34 z. B. be gray. Therefore, the same color value as sub-pixel 40 and 41 is given the same color value as sub-pixel 36 and sub-pixels 42, 43, as well as sub-pixel 39. Along the entire strip 34, therefore, in each case the traversed by the polygon line 35 and the two neighboring subpixels have the same color values G = B = R.
Bei der beschriebenen Vorgehensweise ist es lediglich erforderlich, für jeweils ein grünes, rotes und blaues Subpixel 36, 37, 38 die Umgebungszonen und die diesen zugeordneten Subpixelmuster auszurechnen. Dieselben Subpixelmuster werden dann längs des gesamten Streifens 34 wiederholt. Die einmal ermittelten Subpixelmuster können außerdem gespeichert und und an anderen Stellen im Bild wieder verwendet werden, wo es erforderlich oder erwünscht ist. Soll im Streifen 34 überall G = B = R gelten, dann genügt im Prinzip auch die Ermittlung einer einzigen Umgebungszone und eines zugehörigen Subpixelmusters. In jedem Fall wird die Rechenzeit für den Bereich des Streifens 34 erheblich reduziert.In the described procedure, it is only necessary to calculate the surrounding zones and the subpixel patterns associated therewith for each of a green, red and blue subpixel 36, 37, 38. The same subpixel patterns are then repeated along the entire strip 34. The once-determined subpixel patterns may also be stored and reused elsewhere in the image where needed or desired. If G = B = R should apply everywhere in the strip 34, then in principle it is also sufficient to determine a single surrounding zone and an associated subpixel pattern. In either case, the computation time for the area of the strip 34 is significantly reduced.
Das Ergebnis der beschriebenen Verfahrensweise zeigt das Bild B2 in Fig. 4, wobei allerdings die unterste Zeile abweichend vom Bild Bl ein RGB-Bildpixel ist und das Bildpixel 39, 42, 43 aus Bl die zweite Zeile von unten in B2 bildet. Nach der Verbreiterung des gestauchten Bildes Bl durch die Linsenrasterscheibe (Bild B2) werden längs des Streifens 34 neun, in Spaltenrichtung aufeinander folgende, aus je drei Subpixeln bestehende Bildpixel erhalten. In diesen gilt jeweils G = B = R, wobei die Reihenfolge der Farben in jedem Bildpixel abweichend von den Bildern Al, A2 jeweils von links nach rechts und von Zeile zu Zeile wechselt (z. B. unterste Zeile R, G und B, in der nächsten Zeile dagegen G, B und R usw. in B2). Insbesondere zeigt Bild B2 im Vergleich zu Bild A2, dass der treppenstufenförmige Verlauf längs Begrenzungslinien 44a und 44b im Bild B2 wesentlich weniger stark ausgeprägt und die Auflösung daher verbessert ist.The result of the procedure described shows the image B2 in FIG. 4, wherein, however, the bottom line deviating from the image Bl is an RGB image pixel and the Image pixels 39, 42, 43 of Bl forms the second line from below in B2. After the widening of the compressed image Bl through the lens grid disk (image B2), nine image pixels, each consisting of three subpixels each, are obtained along the strip 34, successive in the column direction. In each case, G = B = R, where the order of the colors in each image pixel changes from left to right and from line to line, differing from the pictures A1, A2 (eg lowest line R, G and B, in FIG the next line is G, B and R, etc. in B2). In particular, image B2 shows, compared to image A2, that the step-shaped course along boundary lines 44a and 44b in image B2 is much less pronounced and therefore the resolution is improved.
Alternativ wäre es möglich, den Streifen 34 farbig auszubilden, in welchem Fall mittels des Subpixelmusters vorgegeben wird, dass die Subpixel entsprechend unterschiedliche G-, B- und R- Werte haben.Alternatively, it would be possible to colorize the strip 34, in which case it is predetermined by means of the subpixel pattern that the subpixels have correspondingly different G, B and R values.
Soll ein scharfkantiger Übergang zwischen zwei farbigen Flächen vorgesehen werden, wie in Fig. 5 für zwei Flächen mit den Farben Fl = (Gl, Bl, Rl) und F2 = (G2, B2, R2) dargestellt ist, wird erfindungsgemäß analog zu Fig. 4 vorgegangen. Es wird zunächst aus den Vektordaten eine den Farbübergang anzeigende Polygonlinie 46 ermittelt. Danach werden von der Polygonlinie 46 durchlaufene bzw. auf ihr liegendeIf a sharp-edged transition between two colored surfaces is to be provided, as shown in FIG. 5 for two surfaces with the colors F1 = (G1, B1, R1) and F2 = (G2, B2, R2), according to the invention, analogous to FIG. 4 proceeded. At first, a polygon line 46 indicating the color transition is determined from the vector data. Then be traversed by the polygon line 46 and lying on her
Subpixel berechnet, die hier durch die Bezugszeichen 46, 48, 49 50 angegeben sind. Je nach Fall handelt es sich dabei um ein grünes, blaues oder rotes Subpixel.Subpixels calculated here by the reference numerals 46, 48, 49 50 are calculated. Depending on the case, this is a green, blue or red subpixel.
Es wird nun jedem durchlaufenen Subpixel 47 bis 50 eine Umgebungszone aus mehreren, hier in einer Zeile unmittelbar benachbarten Subpixeln zugeordnet. Im Beispiel werden dem Subpixel 50 zwei unmittelbar links folgende Subpixel 51, 52 sowie drei unmittelbar rechts folgende Subpixel 53, 54 und 55 zugeordnet, und diese Subpixel 50 bis 55 bilden die Umgebungszone. Schließlich werden die in dieser Umgebungszone liegenden Subpixel 50 bis 55 entsprechend einem vorgegebenen, in Abhängigkeit von den Helligkeits- und/oder Farbwerten beidseitig der Polygonlinie 46 festgelegten Subpixelmuster angesteuert. Das bedeutet in Fig. 5, dass z. B. die links ■ von Polygonlinie 46 liegenden Subpixel 51, 52 und das getroffene Subpixel 50 in der Farbe der Fläche Fl dargestellt werden, d. h. die Subpixel 50 bis 52 erhalten die Werte Gl, Bl und Rl. Dagegen werden die Subpixel 53 bis 55 mit den Werten der rechten Fläche F2, d. h. mit G2, B2 und R2 angesteuert. Alternativ wäre es aber auch möglich, die Subpixel 51, 53 und 54 entsprechend der Farbe/Helligkeit der Fläche F2 und die Subpixel 51, 52 und ein weiteres Subpixel entsprechend der Farbe/Helligkeit der Fläche Fl anzusteuern. Auch hier ergibt sich, dass der Übergangsbereich zwischen den Flächen Fl und F2 viel feiner abgestuft ist, als wenn die Trennung auf der Basis von Bildpixeln vorgenommen würde.It is now assigned to each subpixel 47 to 50 passed through an ambient zone of a plurality of subpixels immediately adjacent in a line. In the example, subpixels 50 are assigned two subpixels 51, 52 immediately following to the left and three subpixels 53, 54 and 55 immediately following to the right, and these subpixels 50 to 55 form the surrounding zone. Finally, the subpixels 50 to 55 lying in this surrounding zone are driven in accordance with a predetermined subpixel pattern defined on both sides of the polygon line 46 as a function of the brightness and / or color values. This means in Fig. 5 that z. B. the left ■ Subpixels 51, 52 lying on polygonal line 46 and the affected subpixel 50 are displayed in the color of area Fl, ie subpixels 50 to 52 are given the values Gl, Bl and Rl. On the other hand, the subpixels 53 to 55 are driven by the values of the right face F2, that is, G2, B2 and R2. Alternatively, it would also be possible to drive the subpixels 51, 53 and 54 in accordance with the color / brightness of the area F2 and the subpixels 51, 52 and a further subpixel corresponding to the color / brightness of the area F1. Again, it follows that the transition area between the areas Fl and F2 is much finer graded than if the separation were made on the basis of image pixels.
Eine weitere Möglichkeit für den Fall der Fig. 5 wäre, mittels des Subpixelmusters für die Subpixel 50 bis 52 die Werte G3 = B3 = R3 so festzulegen, dass sich insgesamt dieselbe Helligkeit Y = (G3 -I- B3 + R3)/3 wie in der Fläche Fl ergibt, und entsprechend für die Subpixel 53 bis 55 vorzugehen. In diesem Fall würde zwischen den Flächen Fl, F2 ein kaum sichtbarer, grauer Streifen erzeugt.A further possibility for the case of FIG. 5 would be to set the values G3 = B3 = R3 by means of the subpixel pattern for the subpixels 50 to 52 so that overall the same brightness Y = (G3 -I-B3 + R3) / 3 as FIG in the area Fl, and proceed accordingly for the subpixels 53 to 55. In this case, a barely visible, gray stripe would be created between the surfaces Fl, F2.
Im übrigen zeigt Fig. 5, dass längs der Polygonlinie 46 grüne, blaue und rote Subpixel aufeinander folgen und daher für jede Farbe je ein Subpixelmuster erforderlich ist.Incidentally, FIG. 5 shows that green, blue and red subpixels follow one another along the polygonal line 46 and therefore a subpixel pattern is required for each color.
Die im Einzelfall anzuwendenden Subpixelmuster sind weitgehend frei wählbar und in Abhängigkeit von den jeweiligen Farben/Helligkeiten festzulegen. Außerdem ist es möglich, die Umgebungszonen nicht aus drei (Fig. 4) oder sechs (Fig. 5) Subpixeln, sondern aus einer anderen Anzahl von Subpixeln zu bilden, was auch Umgebungszonen einschließt, die sich über mehr als eine Bildschirmzeile erstrecken. Zweckmäßig sollten jedoch alle Umgebungszonen insgesamt jeweils gleich viele grüne, blaue und rote Subpixel enthalten.The subpixel patterns to be used in individual cases are largely freely selectable and can be defined as a function of the respective colors / brightnesses. In addition, it is possible to form the surround zones not from three (Figure 4) or six (Figure 5) subpixels, but from a different number of subpixels, which also includes surrounding zones extending over more than one screen line. However, all surrounding zones should have the same number of green, blue and red subpixels.
In komplexeren Fällen kann es erwünscht sein, die als brauchbar erwiesene HR- Filterung anzuwenden, insbesondere wenn dies in Echtzeit möglich ist. In diesem Fall könnte entsprechend Fig. 6 vorgesehen sein, einer Mehrzahl von in Spaltenrichtung aufeinander folgenden Subpixeln, die sämtlich von einer Polygonlinie 56 durchlaufen werden, eine vergleichsweise große Umgebungszone 57 zuzuordnen, auf alle in dieser Umgebungszone 57 liegenden Subpixel eine HR-Filterung anzuwenden und diese HR- Filterung in entsprechenden, längs der Polygonlinie 56 aufeinander folgenden Umgebungszonen 57a, 57b, 57c usw. zu wiederholen. Auch in diesem Fall könnte das in der Umgebungszone 57 vorgesehene, hier als HR-Filterung ausgeführte Subpixelmu- ster abgespeichert und damit auf einfache Weise auf die Umgebungszonen 57a bis 57c übertragen werden, wodurch erhebliche Rechenzeiten eingespart und das Erreichen der Echtzeitfähigkeit zumindest erleichert würde.In more complex cases, it may be desirable to use the proven useful HR filtering, especially if this is possible in real time. In this case, corresponding to FIG. 6, a plurality of subpixels succeeding one another in the column direction, all of which pass through a polygonal line 56, could be provided to assign a comparatively large surrounding zone 57, to apply HR filtering to all the subpixels lying in this surrounding zone 57 and to repeat this HR filtering in corresponding surrounding zones 56a, 57b, 57c along the polygonal line 56. In this case as well, the subpixel pattern provided here in the surrounding zone 57 and stored here as HR filtering could be stored in a simple manner on the surrounding zones 57a to 57c, thereby saving considerable computing times and at least making it easier to achieve real-time capability.
Aus allen beschriebenen Fällen ergibt sich, dass die Grundidee der vorliegenden Erfindung darin besteht, nur schmale Umgebungszonen der Polygonlinien 35, 46, 56 auf Subpixelebene zu generieren und dadurch die Auflösung in diesen Umgebungszonen zu vergrößern.From all of the described cases it follows that the basic idea of the present invention consists in generating only narrow surrounding zones of the polygon lines 35, 46, 56 at the subpixel level and thereby increasing the resolution in these surrounding zones.
Mit der HR-Filterung durchgeführte Berechnungen und Versuche haben gezeigt, dass die anhand der Fig. 4 und 5 beschriebenen Subpixelmuster in den angegebenen Bereichen eine gute bzw. sehr gute Approximation der HR-Filterung darstellen. Außerdem hat sich ergeben, dass eine HR-Filterung in den von Polygonlinien umgrenzten Flächen (z. B. Fl und F2) keine Vorteile mit sich bringt. Daher ist es erfmdungsgemäß möglich, in entsprechender Anwendung des sog. Renderns die in Fig. 3 dargestellten Perspektiven dadurch zu generieren, dass entsprechend Fig. 7 von Polygonlinien 61, 62, 63, 64 umgrenzte Flächenbereiche der Perspektiven (z. B. 65 von PSl in Fig. 7) unverändert gelassen werden, während im Bereich der Übergänge bzw. Kanten, an denen die Polygonlinien 61 bis 64 liegen, die oben beschriebene, subpixelgenaue Anpassung erfolgt, wie in Fig. 7 durch die Ansichten PUl bis PU4 mit Übergangsbereichen 66 bis 69 usw. angedeutet ist. Die Gesamtbilder bzw. Gesamtperspektiven PSUl bis PSU4 (Fig. 7) ergeben sich dann durch Zusammenführen der Polygonflächen (z. B. 65) und der Übergangsbereiche (z. B. 66 bis 69).Calculations and experiments performed using HR filtering have shown that the subpixel patterns described with reference to FIGS. 4 and 5 represent a good or very good approximation of the HR filtering in the given ranges. In addition, it has been found that HR filtering in the areas bounded by polygon lines (eg Fl and F2) has no advantages. Therefore, according to the invention, it is possible to generate the perspectives shown in Fig. 3 by correspondingly applying the so-called rendering by defining surface areas of perspectives bounded by polygon lines 61, 62, 63, 64 (eg 65 of PSI in FIG. 7), while in the region of the transitions or edges on which the polygonal lines 61 to 64 lie, the subpixel-accurate adaptation described above takes place, as in FIG. 7 through the views PU1 to PU4 with transition regions 66 to 69, etc. is indicated. The overall images PSU1 to PSU4 (Figure 7) are then obtained by merging the polygon surfaces (eg 65) and the transition regions (eg 66 to 69).
Auf die beschriebene Weise können unter erheblicher Einsparung an Rechenzeit und damit in Echtzeit autostereoskopische 3D-Darstellungen realisiert werden, die trotz der beschriebenen Vereinfachungen eine hohe Qualität hinsichtlich Auflösung und; Farbe haben.In the described manner, autostereoscopic 3D representations can be realized with considerable savings in computation time and thus in real time, which despite the simplifications described achieves a high quality in terms of resolution and; colour to have.
Eine Hardwareanordnung, die dazu in der Lage ist, die Helligkeitssignale Y und die Farbdifferenzsignale DG, DB und DR in Echtzeit zu erzeugen, ist schematisch in Fig. 8 anhand eines Ablaufdiagramms zur HR-3D-Subpixelfϊlterung gezeigt. Dagegen zeigt Fig. 9 schematisch und beispielhaft, wie zur HD-3D-Subpixelfilterung (HR- Filterung) mittels je eines dazu verwendeten Luminanzfilters hL und eines Chrominanzfilters hc Färb- und Helligkeitswerte auf die umgebenden Subpixel verteilt werden können.A hardware device capable of generating the luminance signals Y and the color difference signals DG, DB and DR in real time is schematically shown in Fig. 8 with reference to a flow chart for HR 3D subpixel adaptation. By contrast, FIG. 9 shows schematically and by way of example how color and brightness values for the HD-3D subpixel filtering (HR filtering) can be distributed to the surrounding subpixels by means of a luminance filter h L used for this purpose and a chrominance filter hc.
Bei einem Echtzeitfilter wird aus den roten, grünen und blauen Umgebungspixeln des Urbildes R(n-i, m-k), G(n-i, m-k), B(n-i, m-k) das Ziel-Subpixel S(n,m) gebildet - über die Filter-Koeffizienten HL(i,k) und HC(i,k), für die Luminanz bzw. Chrominanzdifferenz.In the case of a real-time filter, the target subpixel S (n, m) is formed from the red, green and blue environment pixels of the original image R (ni, mk), G (ni, mk), B (ni, mk). Coefficients HL (i, k) and HC (i, k), for the luminance and chrominance difference, respectively.
Im folgenden wird ein konkretes Beispiel eine HR-Filterung ausgeführt, die sich für eine Stereo Bild-Erzeugung mit einem DELL-Laptop M60 mit senkrechter Linsenra- sterscheibe und 1920 • 1200 TFT-Pixeln eignet.In the following, a concrete example of HR filtering is performed, which is suitable for stereo image generation with a DELL M60 laptop with vertical lens raster and 1920 • 1200 TFT pixels.
Parameter:Parameter:
Senkrechte Linsen, Lenspitch = 12 SP, SPSeen = 3 SP, 2 x 1/4 is seen (right and left), SPJump = 9; gestauchte Bilder (rechts und links) von 1920 auf 1920/4*3 = 1440 • 1200; Format Y = int{R + G + B)/3}, DR = Y - R, DB = Y - B. . ' Vertical lenses, Lenspitch = 12 SP, SPSeen = 3 SP, 2 x 1/4 is seen (left and right), SPJump = 9; compressed pictures (right and left) from 1920 to 1920/4 * 3 = 1440 • 1200; Format Y = int {R + G + B) / 3}, DR = Y - R, DB = Y - B. '
Die Angaben bedeuten insbesondere, dass sich hier eine Linse der Linsenrasterscheibe über zwölf Subpixel des Bildschirms erstreckt, pro Linse jeweils drei Subpixel des rechten und linken Bildes gleichzeitig gesehen werden und der Sprung vom Ende eines rechten Bildstreifens zum Anfang des nächsten rechten Bildstreifens neun Subpixel beträgt. Von diesen bilden drei Subpixel einen dazwischen liegenden (verkämmten) Bildstreifen für das linke Bild, wohingegen die übrigen sechs Subpixel als Reserve dienen und geringfügige Kopfbewegungen nach rechts bzw. links ermöglichen (vgl. PCT WO 2004/081863 A2). Dabei werden von den sechs Subpixeln pro Bildstreifen immer nur drei durch eine Linse gesehen. Folglich muss unter der nächsten Linse eine Wiederholung der letzten drei Subpixel der vorhergehenden Linse vorgenommen werden, während die nächsen drei Subpixel der jeweiligen Quelle neu entnommen werden. Außerdem wird eine Stauchung von 1920 Bildpixeln auf ein Viertel, d. h. 440 Bildpixel vorgenommen, die je drei Subpixel, d. h. insgesamt 1440 Subpixel enthalten.Specifically, the data means that one lens of the lenticular lens extends over twelve subpixels of the screen, three lenses of the right and left images are simultaneously seen at a time, and the jump from the end of a right image to the beginning of the next right is nine subpixels. Of these, three subpixels form an interlaced (combed) image strip for the left image, whereas the remaining six subpixels are in reserve serve and allow slight head movements to the right or left (see PCT WO 2004/081863 A2). Of the six subpixels per image strip, only three are ever seen through a lens. Consequently, under the next lens, a repetition of the last three subpixels of the previous lens must be made while the next three subpixels of the respective source are removed again. In addition, a compression of 1920 image pixels to a quarter, ie 440 image pixels made, each containing three subpixels, ie a total of 1440 subpixels.
Als Helligkeitsfilter wird der in der nachfolgenden Tabelle beispielhaft angegebene Filter verwendet, der sich über drei Zeilen und sieben (horizontal benachbarte) Subpixel erstreckt. Dabei gehören die Koeffizienten in den Spalten H1 _3, H1 -0 und H1 _3 jeweils zur Farbe 1, die Koeffizienten H1 -2 und Hu zur Farbe 2 und die Koeffizienten H;.2 und H; 2 zur Farbe 3.The brightness filter used is the filter given by way of example in the following table, which extends over three lines and seven (horizontally adjacent) subpixels. The coefficients in the columns H 1 _ 3 , H 1 -0 and H 1 _ 3 belong to the color 1, the coefficients H 1 -2 and H u to the color 2 and the coefficients H ;. 2 and H; 2 to the color 3.
Tabelle 1Table 1
# Hir2 Hi,-! Hj1-O Hu Hil2 Hi,3# H ir2 Hi, -! Hj 1- OH u H il2 Hi, 3
I = -1 -0 .7/12 0 .4/12 0 .6/12 -1/12 0 .6/12 0 .4/12 -0 .7/12I = -1 -0 .7 / 12 0 .4 / 12 0 .6 / 12 -1/12 0 .6 / 12 0 .4 / 12 -0 .7 / 12
I = 0 -1 .6/12 0 .8/12 1 .2/12 12/12 1 .2/12 0 .8/12 -1 .6/12I = 0 -1 .6 / 12 0 .8 / 12 1 .2 / 12 12/12 1 .2 / 12 0 .8 / 12 -1 .6 / 12
I = 1 -0 .7/12 0 .4/12 0 .6/12 -1/12 0 .6/12 0 .4/12 -0 .7/12I = 1 -0 .7 / 12 0 .4 / 12 0 .6 / 12 -1/12 0 .6 / 12 0 .4 / 12 -0 .7 / 12
Die Summe der Koeffizienten, die zu den Subpixeln gleicher Farbe gehören, beträgt 1/3 (z. B. gilt für die Farbe 1 hier 2 x (-0,7/12 - 1,6/12 - 0,7/12) - 1/12 + 12/12 - 1/12 = 1/3. Die Gesamtsumme aller Koeffizienten ist gleich 1.The sum of the coefficients belonging to the subpixels of the same color is 1/3 (eg for the color 1 here 2 x (-0.7 / 12 - 1.6 / 12 - 0.7 / 12) - 1/12 + 12/12 - 1/12 = 1/3 The total of all coefficients is equal to 1.
Der Filter wird in der Weise angewendet, dass die Koeffizienten in einem ersten Schritt mit den G-, B- bzw. R-Werten von sieben benachbarten Subpixeln des rechten oder linken Originalbildes multipliziert und einem ersten Subpixel eines zugeordneten Bildpixels des Bildschirms hinzuaddiert werden, und zwar für drei übereinander liegenden Zeilen des Originals. In einem zweiten Schritt wird der Filter in der Weise verschoben, dass die Koeffizienten jetzt auf sieben Subpixeln des Originals angewendet werden, die zu den im ersten Schritt verwendeten Subpixeln in Zeilenrichtung um genau drei versetzt sind. Die erhaltene Summe wird dem zweiten Subpixel des bereits im ersten Schritt verwendeten Bildpixels des Bildschirms hinzugefügt. Im dritten Schritt erfolgt wiederum ein Versatz um drei Subpixel im Original und ein Versatz um ein Subpixel des Zielbildes. Da die Koeffizienten für die drei Farben jeweils in der Summe ein Drittel betragen, wird auf diese Weise die Helligkeitsinformation von drei Bildpixeln bzw. neun Subpixeln des Originals, als Grauwert auf das betreffende eine Bildpixel des Zielpixels übertragen, bei dem für diese Werte G = B = R gilt. Diese Art der Filterung wird über das gesamte Original fortgesetzt.The filter is applied in such a way that the coefficients in a first step are multiplied by the G, B or R values of seven adjacent subpixels of the right or left original image and a first subpixel of an associated one Image pixels of the screen are added, for three lines of the original one above the other. In a second step, the filter is shifted in such a way that the coefficients are now applied to seven subpixels of the original, which are offset by exactly three in the row direction of the subpixels used in the first step. The obtained sum is added to the second subpixel of the image pixel of the screen already used in the first step. In the third step, an offset by three subpixels in the original and an offset by one subpixel of the target image again takes place. In this way, since the coefficients for the three colors each amount to one third in total, the brightness information of three image pixels or nine subpixels of the original is transmitted as a gray value to the relevant one image pixel of the target pixel, for which G = B = R holds. This type of filtering will continue throughout the original.
Der verwendete, in der nachfolgenden Tabelle 2 beispielhaft angegebene Farbfilter erstreckt sich ebenfalls über drei Zeilen und sieben horizontal benachbarte Subpixel. Die Gesamtsumme aller Koeffizienten ist gleich 1. Im Gegensatz zur Helligkeitsfilterung werden die Koeffizienten C1 -3 bis Q3 in einem ersten Schritt auf die Farbe 1 (z. B. G) von sieben benachbarten Bildpixeln des Original angewendet, wobei die erhaltene Summe einem zugeordneten Subpixel derselben Farbe 1 auf dem Bildschirm zugeordnet wird. In weiteren Schritten werden die übrigen Farbinformationen des Originals auf zugeordnete Zielpixel verteilt.The color filter used by way of example in Table 2 below likewise extends over three lines and seven horizontally adjacent subpixels. The sum total of all coefficients is equal to 1. In contrast to the brightness filtering, the coefficients C 1 -3 to Q 3 are applied in a first step to the color 1 (eg G) of seven adjacent image pixels of the original, the sum obtained being one associated subpixels of the same color 1 on the screen is assigned. In further steps, the remaining color information of the original is distributed to assigned target pixels.
Tabelle 2Table 2
Figure imgf000019_0001
ie angegebenen Koeffizienten sind jeweils mit 1/36 zu multiplizieren, so dass sich ie Gesamtsumme zu 36/36 = 1 errechnet.
Figure imgf000019_0001
The coefficients given are to be multiplied by 1/36, so that the total sum is calculated to be 36/36 = 1.
Die Filteroperation kann durch folgende Formel ausgedrückt werden.The filtering operation can be expressed by the following formula.
Sei DC(n,m,0) = DR(n,m), DC(n,m,l) = DG(n,m) und DC(n,m,2) = DB(n,m).Let DC (n, m, 0) = DR (n, m), DC (n, m, l) = DG (n, m) and DC (n, m, 2) = DB (n, m).
Die Anzahl der Subpixel ist für jedes gefilterte Bild (rechts, links) für den DELL- Laptop M60, wie oben angegeben, NSP = 1920/4*3 = 1440. Das gefilterte Bild besteht dann aus NSP/3 = NP = 480 Pixel.The number of subpixels for each filtered image (right, left) for the DELL laptop M60, as noted above, is N SP = 1920/4 * 3 = 1440. The filtered image then consists of N SP / 3 = N P = 480 pixels.
Zeilen und Spalten können beim Filtern modulo operieren, d. h. (i)mod(1200), (k)mod(1440). Mit (n)mod(M) = n -M*int(n/M).Rows and columns can operate modulo while filtering, d. H. (i) mod (1200), (k) mod (1440). With (n) mod (M) = n -M * int (n / M).
Für n = 0 bis 1200-1, m = 0 bis 1440-1 gilt dannFor n = 0 to 1200-1, m = 0 to 1440-1 then applies
SP(n, m) = ∑ Y1 [Y (n -i, m -k)- FL(i, k) + DC(n -i,m - k, (m) mod(3)) FC(i, k)]SP (n, m) = ΣY 1 [Y (n -i, m-k) - FL (i, k) + DC (n -i, m -k, (m) mod (3)) FC ( i, k)]
Ist man bereit, im Ergebnisbild Subpixel-Sprünge in Kauf zu nehmen, so kann die Stauchoperation beim Filtern ohne Zusatzaufwand mit durchgeführt werden durch folgende Umnummerierung:If one is prepared to accept subpixel jumps in the resulting image, the upsetting operation during filtering can be carried out without additional expenditure by the following renumbering:
Figure imgf000020_0001
Figure imgf000020_0001
mit f(n-i) = int[(n-i) • 4/3]with f (n-i) = int [(n-i) • 4/3]
undand
f(m-k) = int[(m-k) • 4/3]. Weitere Einzelheiten lassen sich PCT WO 2004/081863 A2 entnehmen.f (mk) = int [(mk) • 4/3]. Further details can be found in PCT WO 2004/081863 A2.
Dieselben Filterkoeffizienten können bei schräger Anordnung der Zylinderlinsen vor dem Bildschirm angewendet werden (vgl. hierzu PCT WO 2004/081863 A2, Fig. 9). Dabei können die Linsen z. B. mit einem Versatz von einem Bildpixel auf sechs (oder zwölf) Zeilen angeordnet sein, woraus sich ein Versatz LSL = 1/6 bzw. = 1/12 ergibt. Für LSL = 1/6 gilt außerdemThe same filter coefficients can be used in an oblique arrangement of the cylindrical lenses in front of the screen (see PCT WO 2004/081863 A2, Fig. 9). The lenses z. B. with an offset of one image pixel on six (or twelve) rows, resulting in an offset LSL = 1/6 or = 1/12 results. For LSL = 1/6 also applies
SPPitch = 12 sqr(l + l/62) = 12,6553; SPSprung = 12; SP(gesehen) = SPPitch - SPSprung,SPPitch = 12 sqr (l + l / 6 2 ) = 12.6553; PLC jump = 12; SP (seen) = SPPitch - PLC jump,
während für LSL = 1/12 gelten würde SPPitch = 12,0416.while for LSL = 1/12, SPPitch = 12.0416 would apply.
Die Erfindung ist nicht auf die beschriebenen Ausführungsbeispiele beschränkt, die auf vielfache Weise abgewandelt werden können. Dies gilt zunächst für die beispielhaft beschriebene Art der Verkämmung, die Zahl der Subpixel pro Bildstreifen sowie die Art und die Geometrie der Rasterscheibe und des Bildschirms. Weiter ist klar, dass es auch Fälle geben kann, in denen die Bildpunkte nicht aus drei, sondern aus z. B. zwei oder mehr als drei unterschiedlich farbigen Subpixeln gebildet werden und/oder die Subpixel innerhalb der Bildpixel nicht zeilenweise nebeneinander, sondern zumindest teilweise auch übereinander angeordnet sind. Die Zuordnungen und Subpixelmuster müssen dann entsprechend angepasst werden. Außerdem läßt sich die Erfindung natürlich auch bei anderen Bildschirmen, insbesondere bei Plasma-Bildschirmen anwenden, die eine digitale und subpixelgenaue Ansteuerung ermöglichen. Auch die im Rahmen der HR-Filterung beschriebene Zuordnung der für die Helligkeits- und Farbsteuerung verwendeten Subpixel bzw. deren Verteilung auf benachbarte Subpixel oder innerhalb der Umgebungszonen kann geändert und den speziellen Bedürfnissen angepasst werden. Weiterhin ist die Zahl der vorgesehenen Perspektiven bzw. Standorte, von denen aus die 3D-Darstellungen betrachtet werden können, in weiten Grenzen variabel. Ferner können die Subpixelmuster, die in den beschriebenen Umgebungszonen angewendet werden, in vielfacher Weise variiert und an die im Einzelfall vorliegenden Verhältnisse angepasst werden. Dabei ist es im Prinzip gleichgültig, während welcher Verfahrensstufe der Bildübertragung die Subpixelmuster gebildet und den Umgebungszonen zugeordnet werden. Insbesondere wäre es möglich, zur Auffüllung der Umgebungszonen aus bereits gespeicherten Subpixelmustern diejenigen auszuwählen, die dem gewünschten Muster ähnlich sind oder möglichst nahekommen. Hierdurch ließe sich die Zahl der Subpixelmuster, die zur Erfassung aller denkbaren Fälle gespeichert werden müssen, wesentlich reduzieren. Schließlich versteht sich, dass die verschiedenen Merkmale auch in anderen als den beschriebenen und dargestellten Kombinationen angewendet werden können. The invention is not limited to the described embodiments, which can be modified in many ways. This applies first of all to the type of concealment described by way of example, the number of subpixels per image strip as well as the type and geometry of the raster disc and the screen. It is also clear that there may be cases in which the pixels are not three, but z. B. two or more than three differently colored subpixels are formed and / or the subpixels within the image pixels are not row by row next to each other, but at least partially arranged one above the other. The mappings and subpixel patterns must then be adjusted accordingly. In addition, of course, the invention can also be applied to other screens, in particular plasma screens, which enable digital and subpixel accurate control. The assignment of the subpixels used for the brightness and color control or their distribution to adjacent subpixels or within the surrounding zones as described in the context of HR filtering can also be changed and adapted to the specific needs. Furthermore, the number of intended perspectives or locations from which the 3D representations can be viewed is variable within wide limits. Furthermore, the subpixel patterns used in the described surrounding zones can be varied in many ways and adapted to those in the Individual case existing conditions adapted. In principle, it does not matter during which stage of the image transmission the subpixel patterns are formed and assigned to the surrounding zones. In particular, it would be possible to select those that are similar to the desired pattern or come as close as possible to fill the surrounding zones from already stored subpixel patterns. This would significantly reduce the number of subpixel patterns that need to be stored to capture all conceivable cases. Finally, it is understood that the various features may be applied in combinations other than those described and illustrated.

Claims

Ansprüche claims
1. Verfahren zur autostereoskopischen Wiedergabe von 3D-Darstellungen mit einem Bildschirm (1), der eine Vielzahl von in Zeilen und Spalten angeordneten Bildpixeln enthält, die je eine vorgegebene Anzahl von Subpixeln (G, B, R) unterschiedlicher Farben aufweisen, wobei die Subpixel (G, B, R) derart verkämmt angesteuert werden, dass in jeder Zeile des Bildschirms (1) abwechselnd aufeinander folgende Subpixel- > streifen (25, 26) entstehen, die wenigstens zwei Bildstreifen (28, 29) für unterschiedliche Betrachtungsrichtungen erzeugen, und mit einer vor dem Bildschirm (1) angeordneten Rasterscheibe (20) zum Zusammenfassen der Bildstreifen (28, 29) zu rechten und linken Bildern, dadurch gekennzeichnet, dass die zur Erzeugung der 3D-Dar- Stellungen erforderlichen Daten in 3D-Vektorform anhand von Eckpunkten gespeichert werden, die durch Polygonlinien (35, 46, 56) verbindbar sind, dass in Bereichen der Subpixelstreifen (25, 26), die von einer Polygonlinie (35, 46, 50) durchlaufen werden, zumindest ausgewählten der durchlaufenen Subpixel (36 bis 39, 47 bis 50) je eine Umgebungszone zugeordnet wird, die das durchlaufene Subpixel (z. B. 36) und unmittelbar benachbarte Subpixel (z. B. 40, 41) enthält, und dass die in dieser Umgebungszone befindlichen Subpixel (z. B. 36, 40, 41) dann entsprechend einem von den Helligkeits- und/oder Farbwerten beidseitig der Polygonlinie (35, 46, 56) abhängigen Subpixelmuster angesteuert werden.A method of autostereoscopic reproduction of 3D images with a screen (1) containing a plurality of image pixels arranged in rows and columns each having a predetermined number of subpixels (G, B, R) of different colors, the subpixels (G, B, R) are controlled in such a way that in each row of the screen (1) alternately successive subpixel strips (25, 26) are produced, which generate at least two image strips (28, 29) for different viewing directions, and with a raster (20) arranged in front of the screen (1) for combining the image strips (28, 29) into right and left images, characterized in that the data required for generating the 3D representations are in 3D vector form based on vertices which are connectable by polygonal lines (35, 46, 56), that in regions of the subpixel strips (25, 26), which are traversed by a polygonal line (35, 46, 50), at least selected one of the passed subpixels (36 to 39, 47 to 50) is assigned to each one surrounding zone, the subpixel (z. 36) and immediately adjacent sub-pixels (e.g., 40, 41), and that the sub-pixels (e.g., 36, 40, 41) located in that surrounding zone are then both sides in accordance with one of the brightness and / or color values the polygon line (35, 46, 56) dependent subpixel pattern are driven.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in dem Fall, dass die Polygonlinie (35) längs eines Subpixelstreifens (34) in einer einfarbigen Fläche (32) des Bildes verläuft, das Subpixelmuster durch die Vorschrift gegeben ist, dass das jeweils von der Polygonlinie (35) durchlaufene Subpixel (36 bis 39) des Streifens (34) und die beiden in derselben Zeile des Bildschirms unmittelbar rechts bzw. links daneben liegenden Subpixel (40, 41 bzw. 42, 43) jeweils mit demselben Farbwert derart angesteuert werden, dass längs der gesamten Polygonlinie (35) in jeder Zeile des Streifens (34) G = B = R gilt. A method according to claim 1, characterized in that, in the case that the polygon line (35) runs along a subpixel strip (34) in a monochrome area (32) of the image, the subpixel pattern is given by the rule that The subpixels (36 to 39) of the strip (34) passed through the polygonal line (35) and the two subpixels (40, 41 or 42, 43) immediately adjacent to the same line of the screen are respectively driven with the same color value in that G = B = R along the entire polygonal line (35) in each row of the strip (34).
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in dem Fall, dass die Polygonlinie (46) längs einer Kante verläuft, die den Übergang von zwei unterschiedlichen Farbfiächen (Fl, F2) bildet, das Subpixelmuster durch die Vorschrift gegeben ist, dass die jeweils von der Polygonlinie (46) durchlaufenen Subpixel (47 bis 50) und in einer der beiden Farbflächen (Fl, F2) unmittelbar daneben liegende Subpixel (51, 52) mit der Farbe und Helligkeit dieser Farbfläche (Fl) dargestellt werden, während Subpixel (53 bis 55), die in der anderen Farbfläche (F2) und in derselben Zeile ebenfalls unmittelbar neben den von der Polygonlinie (46) durchlaufenen Subpixeln (50) liegen, mit der Farbe und Helligkeit der anderen Farbfläche (F2) dargestellt werden.Method according to claim 1, characterized in that, in the case that the polygonal line (46) runs along an edge forming the transition of two different color planes (Fl, F2), the subpixel pattern is given by the rule that the each of the polygon line (46) traversed subpixels (47 to 50) and in one of the two color areas (Fl, F2) immediately adjacent subpixels (51, 52) are displayed with the color and brightness of this color area (Fl), while subpixels ( 53 to 55), which in the other color area (F2) and in the same line are also immediately adjacent to the subpixels (50) traversed by the polygonal line (46), with the color and brightness of the other color area (F2) being represented.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Zahl der mit der Farbe und Helligkeit der einen oder anderen Farbfläche (Fl, F2) dargestellten Subpixel (50 bis 55) wenigstens drei beträgt.4. The method according to claim 3, characterized in that the number of subpixels (50 to 55) represented by the color and brightness of one or the other color area (Fl, F2) is at least three.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Subpixelmuster durch wenigstens einen Filter gegeben ist, der eine vorgewählte Anzahl von je einem Subpixel in der Umgebungszone (57, 57a bis 57c) zugeordneten Koeffizienten aufweist.5. The method according to claim 1, characterized in that the subpixel pattern is given by at least one filter having a preselected number of one subpixel each in the surrounding zone (57, 57a to 57c) associated coefficients.
6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass das Subpixelmuster bei allen oder wenigstens ausgewählten, entsprechend gebildeten und längs der gesamten Polygonlinie (35, 46, 56) aufeinander folgenden Umgebungszonen (z. B. 57, 57a bis 57c) angewendet wird.A method according to any one of claims 2 to 5, characterized in that the subpixel pattern is applied to all or at least selected contiguous zones (eg 57, 57a to 57c) formed successively along the entire polygonal line (35, 46, 56) ) is applied.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass das Subpixelmuster durch je einen Helligkeits- und einen Farbdifferenzfilter gegeben ist.7. The method according to claim 5 or 6, characterized in that the Subpixelmuster is given by a respective brightness and a color difference filter.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die G-, B- und R- Werte außerhalb der Umgebungszonen (z. B. 57, 57a bis 57c) unverändert gelassen werden. 8. Method according to one of claims 1 to 7, characterized in that the G, B and R values outside the surrounding zones (eg 57, 57a to 57c) are left unchanged.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass sich die Subpixelmuster in Abhängigkeit davon unterscheiden, welche Farbe ein von der Polygonlinie durchlaufenes Subpixel aufweist.9. The method according to any one of claims 1 to 8, characterized in that the subpixel patterns differ depending on which color has a traversed by the polygonal subpixel.
10. Vorrichtung zur autostereoskopischen Wiedergabe von 3D-Darstellungen, dadurch gekennzeichnet, dass sie zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 9 eingerichtet ist.10. A device for autostereoscopic reproduction of 3D representations, characterized in that it is adapted to carry out the method according to one or more of claims 1 to 9.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Rasterscheibe eine Linsenrasterscheibe (22) ist.11. The device according to claim 10, characterized in that the grid plate is a lenticular screen (22).
12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass der Bildschirm (1) ein TFT-Bildschirm ist. 12. The device according to claim 10 or 11, characterized in that the screen (1) is a TFT screen.
PCT/DE2006/001365 2005-08-02 2006-08-02 Method and device for the autostereoscopic reproduction of 3d representations WO2007014557A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005036744.5 2005-08-02
DE102005036744A DE102005036744B4 (en) 2005-08-02 2005-08-02 Method and device for autostereoscopic reproduction of 3D representations

Publications (1)

Publication Number Publication Date
WO2007014557A1 true WO2007014557A1 (en) 2007-02-08

Family

ID=37463548

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2006/001365 WO2007014557A1 (en) 2005-08-02 2006-08-02 Method and device for the autostereoscopic reproduction of 3d representations

Country Status (2)

Country Link
DE (1) DE102005036744B4 (en)
WO (1) WO2007014557A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007043574A1 (en) 2007-09-13 2009-04-09 Hentschke, Siegbert, Prof. Dr.-Ing. Autostereoscopic flat display for e.g. computer tomography, has rear lens scanning disk with horizontal cylinder lenses that are focused on surface of subpixels, where barrier mask is permitted to be used in place of scanning disk
CN101127207B (en) * 2007-09-26 2010-06-02 北大方正集团有限公司 Method and device for promoting grey scale font display quality
DE102012003789A1 (en) 2012-02-25 2013-08-29 3 D Graphics Gmbh Monitor for stereoscopic 3D image display and associated operating method for a perceptual coding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2358980A (en) * 2000-02-07 2001-08-08 British Broadcasting Corp Processing of images for 3D display.
EP1158813A2 (en) * 2000-05-23 2001-11-28 Sharp Kabushiki Kaisha Image display apparatus, image display method and recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7061507B1 (en) * 2000-11-12 2006-06-13 Bitboys, Inc. Antialiasing method and apparatus for video applications
WO2004081863A2 (en) * 2003-03-12 2004-09-23 Siegbert Hentschke Autostereoscopic reproduction system for 3d displays

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2358980A (en) * 2000-02-07 2001-08-08 British Broadcasting Corp Processing of images for 3D display.
EP1158813A2 (en) * 2000-05-23 2001-11-28 Sharp Kabushiki Kaisha Image display apparatus, image display method and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007043574A1 (en) 2007-09-13 2009-04-09 Hentschke, Siegbert, Prof. Dr.-Ing. Autostereoscopic flat display for e.g. computer tomography, has rear lens scanning disk with horizontal cylinder lenses that are focused on surface of subpixels, where barrier mask is permitted to be used in place of scanning disk
CN101127207B (en) * 2007-09-26 2010-06-02 北大方正集团有限公司 Method and device for promoting grey scale font display quality
DE102012003789A1 (en) 2012-02-25 2013-08-29 3 D Graphics Gmbh Monitor for stereoscopic 3D image display and associated operating method for a perceptual coding

Also Published As

Publication number Publication date
DE102005036744B4 (en) 2009-07-23
DE102005036744A1 (en) 2007-02-15

Similar Documents

Publication Publication Date Title
EP2472889B1 (en) Method for the autostereoscopic presentation of image information with adaptation to suit changes in the head position of the observer
EP1602243A2 (en) Autostereoscopic reproduction system for 3d displays
DE10003326C2 (en) Method and arrangement for spatial representation
EP1820354B1 (en) Method for autostereoscopically producing three-dimensional image information from scanned sub-pixel extracts and device for carrying out said method
DE10145133C1 (en) Spatial representation method
WO1999067956A1 (en) Method and device for autostereoscopy
WO1998027451A1 (en) Method and device for the three-dimensional representation of information
EP2143282A1 (en) Method and arrangement for three-dimensional representation
DE102008062790A1 (en) Method and arrangement for spatial representation
EP3170307B1 (en) Method for displaying three dimensional scene on an autostereoscopic display
DE102009013912A1 (en) Method for autostereoscopic visualization of scene or object, involves partially seeing different image elements and/or parts of image elements by observers with both eyes due to vision limitation effect of parallax barrier screen
DE102005036744B4 (en) Method and device for autostereoscopic reproduction of 3D representations
EP1535202A1 (en) Method for simulating optical components for the stereoscopic production of spatial impressions
DE102010018083B4 (en) Simultaneous reproduction of a plurality of images by means of a two-dimensional image representation matrix
DE102006012059B3 (en) Three dimensional picture information creation method, e.g. using matrix display, involves screening subpixels with line-by-line picture offset in direction of raster, and selecting multiplex schema for formation of samples
WO2021008780A1 (en) Basic display for an autostereoscopic display arrangement
DE102009022049B4 (en) Method and arrangement for spatial representation
DE19736035A1 (en) Three dimensional information representation method
DE10046788B4 (en) Method and device for generating a combination image from image information stored in a data record
DE10311389A1 (en) Autostereoscopic reproduction system for three-dimensional displays has coding unit controlled and raster plate dimensioned so that image strips appear free of overlapping for one or more observers
EP1016287A2 (en) Improved image resolution with cameras and copy cameras
WO1998046004A9 (en) Improved image resolution with cameras and copy cameras
DE102011004242A1 (en) Operation of a picture display device for the simultaneous reproduction of at least three pictures

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase

Ref document number: 06775804

Country of ref document: EP

Kind code of ref document: A1