DE69307088T2 - Verfahren zum Erzeugen von holographischer Information - Google Patents

Verfahren zum Erzeugen von holographischer Information

Info

Publication number
DE69307088T2
DE69307088T2 DE69307088T DE69307088T DE69307088T2 DE 69307088 T2 DE69307088 T2 DE 69307088T2 DE 69307088 T DE69307088 T DE 69307088T DE 69307088 T DE69307088 T DE 69307088T DE 69307088 T2 DE69307088 T2 DE 69307088T2
Authority
DE
Germany
Prior art keywords
line segment
hologram
phase distribution
virtual space
seen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69307088T
Other languages
English (en)
Other versions
DE69307088D1 (de
Inventor
Hirokazu Aritake
Masayuki Kato
Hirokuni Monzen
Masato Nakashima
Akihiko Ueda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of DE69307088D1 publication Critical patent/DE69307088D1/de
Publication of DE69307088T2 publication Critical patent/DE69307088T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • G03H1/2294Addressing the hologram to an active spatial light modulator
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0402Recording geometries or arrangements
    • G03H2001/0421Parallax aspect
    • G03H2001/0423Restricted parallax, e.g. horizontal parallax only holograms [HPO]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0841Encoding method mapping the synthesized field into a restricted set of values representative of the modulator parameters, e.g. detour phase coding
    • G03H2001/085Kinoform, i.e. phase only encoding wherein the computed field is processed into a distribution of phase differences
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2210/00Object characteristics
    • G03H2210/303D object
    • G03H2210/36Occluded features resolved due to parallax selectivity
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2210/00Object characteristics
    • G03H2210/40Synthetic representation, i.e. digital or optical object decomposition
    • G03H2210/45Representation of the decomposed object
    • G03H2210/452Representation of the decomposed object into points
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2210/00Object characteristics
    • G03H2210/40Synthetic representation, i.e. digital or optical object decomposition
    • G03H2210/45Representation of the decomposed object
    • G03H2210/454Representation of the decomposed object into planes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2225/00Active addressable light modulator
    • G03H2225/30Modulation
    • G03H2225/32Phase only
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2240/00Hologram nature or properties
    • G03H2240/50Parameters or numerical values associated with holography, e.g. peel strength
    • G03H2240/62Sampling aspect applied to sensor or display

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Holo Graphy (AREA)

Description

  • Die Erfindung bezieht sich auf ein Hologramminformationsbildungsverfahren, das unter Verwendung einer elektronischen Vorrichtung eine stereoskopische Anzeige ausführen kann, und im besonderen auf ein Hologramminformationsbildungsverfahren zum Berechnen einer Hologrammphasenverteilung von einer 3-dimensionalen Struktur und zum Ausführen einer stereoskopischen Anzeige.
  • Die stereoskopische Anzeige ist ein Mittel zum Ermöglichen des leichten visuellen Erkennens einer Tiefen- oder Dickenstruktur eines 3-dimensionalen Objektes und ist bei der Anzeige einer Struktur, die durch CAD oder dergleichen konstruiert ist, der Anzeige eines medizinischen Bildes oder dergleichen sehr gefragt. Ein räumliches Bild ist verglichen mit der 2-dimensionalen Anzeige wirkungsvoll und wird auch bei einer Anzeige zur Unterhaltung oder dergleichen in Vergnügungsparks, Kinos oder dergleichen verwendet.
  • Bezüglich der stereoskopischen Anzeige sind schon verschiedene Arten von Verfahren vorgeschlagen worden. Es gibt das Hologramm als Mittel dafür, daß ein räumliches Bild ohne das Tragen spezieller Brillen gesehen werden kann. Das Hologramm wird erhalten, indem ein Objektbild unter Verwendung einer Interferenzoperation des Lichtes auf einer fotografischen Trockenplatte aufgezeichnet wird. Hinsichtlich eines unbewegten Objektes ist schon ein Farbhologramm mit einem ausreichenden Tiefengefühl erzeugt worden. Beim Aufzeichnen auf die fotografische Trockenplatte wird für einen Entwicklungsprozeß jedoch Zeit benötigt, und der Anzeigeinhalt kann nicht neu geschrieben werden, so daß das obige Mittel als stereoskopisches Anzeigesystem unpraktisch ist. In den letzten Jahren ist mit dem Fortschritt einer Technik zum Realisieren einer hohen Feinheit einer Flüssigkristallanzeigevorrichtung eine Vorrichtung zum elektronischen Anzeigen eines Hologramms durch eine Flüssigkristallanzeige vorgeschlagen worden (JP-A-64-84993). Beim elektronischen Anzeigen eines Hologramms durch eine Flüssigkristallanzeige oder dergleichen ist es erforderlich, durch Berechnungen eine Phasenverteilung des Hologramms zu erhalten. Die Berechnung der Phasenverteilung des Hologramms erfolgt durch Produktsummierung des Phasenanteils von jeweiligen Punkten, die ein 3-dimensionales Objekt bilden, bezüglich jedes Punktes auf dem Hologramm.
  • Andererseits gibt es ein Gomputergrafik-(CG)-Verfahren als Verfahren dafür, daß ein Ziel mit einer 3-dimensionalen Struktur, die durch CAD oder dergleichen gebildet ist, stereoskopisch gesehen werden kann. Die Computergrafik ist solch eine Technik, daß 2-dimensionale Bilder berechnet werden, wenn ein Ziel von vorbestimmten visuellen Punkten aus gesehen wird, und in Anbetracht der Reflexion oder des Schattens des Lichtes tatsächlich ein stereoskopisches Gefühl dargestellt wird. Da die computergrafik darauf gerichtet ist, ein 2-dimensionales Bild anzuzeigen, selbst wenn sich die Beobachtungsposition verändert, ist nur dasselbe Bild zu sehen, und ein stereoskopisches Gefühl ist unzureichend.
  • Wenn eine Hologrammphasenverteilung aus den Formdaten eines 3-dimensionalen Objektes berechnet wird, ist bislang ein Prozeß für 3-dimensionale verdeckte Linien erforderlich. Solch ein Prozeß entspricht einer Technik zum Realisieren solch eines pHänomens, das der stereoskopischen Beobachtung eigen ist, daß ein Bild durch Verändern eines visuellen Punktes gesehen werden kann. Jedoch ist es beim Prozeß für verdeckte Linien, der gestattet, daß der visuelle Punkt in einem 3-dimensionalen Raum frei verändert wird, bezüglich aller Punkte, die ein Ziel bilden, erforderlich, eine Raumverteilung des visuellen Punktes zu erhalten, bei der jeder Punkt gesehen werden kann, und eine Berechnungszone der Phasenverteilung auf dem Hologramm zu erhalten, und eine Menge an Berechnungen in diesem Fall ist extrem groß.
  • Genauer gesagt, wenn Zielobjekte 14 und 16, die in einem Raum zwischen einer Hologrammebene 10 und einem Sehfeld 26, in dem eine stereoskopische Anzeige erkannt werden kann, anzuzeigen sind, wie in Fig. 1 gezeigt, wird die Berechnung der Phasenverteilung bezüglich eines Punktes P auf der hologrammbildenden Oberfläche 10 wie folgt vorgenommen.
  • (I) Wenn der Punkt P des Zielobjektes 14 von dem Sehfeld 26 aus gesehen wird, wird ein Sehfeldabschnitt 62 berechnet, in dem der Punkt P gesehen werden kann und der durch eine schraffierte Zone gezeigt ist, in der ein Sehfeldabschnitt, der durch das Objekt 16 versperrt ist, das auf dieser Seite existiert, wenn der Punkt P des Zielobjektes 14 von dem Sehfeld 26 aus gesehen wird, eliminiert wurde.
  • (II) Bezüglich des Sehfeldabschnittes 62, in dem der Punkt P gesehen werden kann, wird anschließend eine Zone des schraffierten Abschnittes, die die Hologrammstelle 10 kreuzt und den Punkt P des Zielobjektes durchläuft, als Berechnungszone 60 einer Phasenverteilung hinsichtlich des Punktes P erhalten.
  • (III) Die Berechnungszone 60 wird in Mikrozonen eingeteilt, und eine Phasenverteilung auf Grund des Lichtes von dem Punkt P wird für jede der Mikrozonen berechnet.
  • Da solche Berechnungen bezüglich aller Punkte der Zielobjekte 14 und 16 ausgeführt werden, ist eine Menge an Berechnungen für sie extrem groß. Je nach der Verarbeitungsgeschwindigkeit des vorhandenen Computers ist es schwierig, die Phasenverteilungen in einer Zeit zu berechnen, die in der Praxis für eine Anzeige verwendet werden kann. Es ist ein umfangreiches Thema, solch eine extrem große Menge an Berechnungen zu reduzieren.
  • Ausführungsformen der Erfindung können ein Hologramminformationsbildungsverfahren vorsehen, wodurch eine Berechnungsmenge, wenn eine Hologrammphasenverteilung erhalten wird, reduziert wird. Eine Hologrammoberfläche, um die Phasenverteilung darzustellen, ein Sehfeld, in dem ein räumliches Bild gesehen werden kann, das durch die Phasenverteilung rekonstruiert wird, die auf der Hologrammoberfläche dargestellt wird, und ein Limit der stereoskopischen Anzeige werden zuerst in einem virtuellen Raum festgelegt. Ein Ziel, das stereoskopisch anzuzeigen ist, wird anschlie ßend in dem virtuellen Raum durch einen Satz von Mikropolygonen dargestellt. Eine Vielzahl von Schnittebenen, die zu der horizontalen Ebene parallel sind, wird in dem virtuellen Raum, der das Objekt enthält, angeordnet. Ein Liniensegment, das das Polygon kreuzt, wird in jeder Schnittebene erhalten. Das Liniensegment wird nach Bedarf geteilt oder abgeschnitten. Das Liniensegment wird ferner in einen Abschnitt geteilt, der von der gesamten Zone des Sehfeldes aus immer gesehen werden kann, und in einen Abschnitt, der durch ein anderes Liniensegment versperrt wird und nur von einem Teil des Sehfeldes aus gesehen werden kann, und jene Abschnitte werden extrahiert. Abtastpunkte werden auf dem Liniensegment festgelegt. Eine 1-dimensionale Phasenverteilung auf der Hologrammoberfläche wird bei jedem Abtastpunkt berechnet. Die eindimensionalen Hologrammphasenverteilungen, die für die verschiedenen Abtastpunkte berechnet wurden, werden bei derselben Schnittebene immer addiert.
  • Gemäß solch einem Hologramminformationsbildungsverfahren wird ein Prozeß für 2-dimensionale verdeckte Linien der Computergrafiktechnik modifiziert und auf die Daten mit 3- dimensionaler Struktur des Ziels angewendet, die in einem Computer als CAD oder dergleichen enthalten sind, so daß ein Prozeß für 3-dimensionale verdeckte Linien, der erforderlich ist, um eine Berechnungszone der Hologrammphasenverteilung festzulegen, vereinfacht werden kann. Andererseits können unter Verwendung eines 1-dimensionalen Hologramms mit einer Parallaxe nur in der horizontalen Richtung als zu bildendes Hologramm der Prozeß für verdeckte Linien und die Berechnungen der Phasenverteilung vereinfacht werden, und eine Menge an Berechnungen kann reduziert werden.
  • Zum besseren Verstehen der Erfindung und um zu zeigen, wie dieselbe verwirklicht werden kann, wird nun als Beispiel Bezug auf die beiliegenden Zeichnungen genommen, in denen:
  • Fig. 1 ein erläuterndes Diagramm einer Berechnungszone einer herkömmlichen Hologrammphasenverteilung ist;
  • Fig. 2 ein Flußdiagramm ist, das eine gesamte Verarbeitungsprozedur gemäß einer Ausführungsform der Erfindung zeigt;
  • Fig. 3 ein erläuterndes Diagramm ist, das die Beziehung zwischen der 1-dimensionalen Phasenverteilung und dem Zielobjekt zeigt;
  • Fig. 4 ein Diagramm der Systemkonstruktion ist;
  • Fig. 5 ein Flußdiagramm ist, das eine Hologramminformationsbildungsprozedur zeigt;
  • Fig. 6 ein erläuterndes Diagramm ist, das einen Anordnungszustand eines virtuellen Raumes zeigt;
  • Fig. 7 eine Draufsicht auf Fig. 6 ist;
  • Fig. 8 ein erläuterndes Diagramm eines Scheibenzustandes eines Zielobjektes ist;
  • Fig. 9 ein erläuterndes Diagramm ist, das die Schnittlinie zwischen der Polygondarstellung eines Zielobjektes und der Schnittebene zeigt;
  • Fig. 10 ein erläuterndes Diagramm von Liniensegmenten ist, die in einem gesamten Sehfeld zu sehen sind;
  • Fig. 11a und 11b erläuternde Diagramme eines Datenformats von Liniensegmenten sind, die in dem gesamten Sehfeld zu sehen sind;
  • Fig. 12 ein erläuterndes Diagramm zum Abschneiden des Liniensegmentes ist, das das Limit auf einer Seite überschreitet;
  • Fig. 13 ein erläuterndes Diagramm zum Abschneiden des Liniensegmentes ist, das die Limits auf beiden Seiten überschreitet;
  • Fig. 14 ein erläuterndes Diagramm des Liniensegmentes ist, von dem ein Teil auf der rechten Seite des Sehfeldes nicht gesehen werden kann;
  • Fig. 15A und 15B erläuternde Diagramme eines Datenformats des Liniensegmentes sind, von dem ein Teil auf der rechten Seite des Sehfeldes nicht gesehen werden kann;
  • Fig. 16 ein erläuterndes Diagramm des Liniensegmentes ist, von dem ein Teil auf der linken Seite des Sehfeldes nicht gesehen werden kann;
  • Fig. 17A und 17B erläuternde Diagramme eines Datenformats des Liniensegmentes sind, von dem ein Teil auf der linken Seite des Sehfeldes nicht gesehen werden kann;
  • Fig. 18 ein erläuterndes Diagramm beim Teilen der sich kreuzenden Liniensegmente ist;
  • Fig. 19 ein erläuterndes Diagramm des Berechnungsprinzips einer Phasenverteilung eines Hologramms ist;
  • Fig. 20 ein erläuterndes Diagramm einer Phasenberechnungszone des Liniensegmentes ist, das in dem gesamten Sehfeld gesehen werden kann;
  • Fig. 21 ein erläuterndes Diagramm ist, das das Festlegen von Helligkeitsinformationen von Abtastpunkten zeigt, die zwischen den Endpunkten angeordnet sind;
  • Fig. 22 ein erläuterndes Diagramm einer Phasenberechnungszone des Liniensegmentes ist, das in einem Teil des Sehfeldes nicht gesehen werden kann;
  • Fig. 23 ein Flußdiagramm ist, das die Einzelheiten der Bildung von Hologramminformationen zeigt;
  • Fig. 24 ein Flußdiagramm ist, das die Einzelheiten der Bildung von Hologramminformationen zeigt; und
  • Fig. 25 ein Flußdiagramm ist, das die Einzelheiten der Bildung von Hologramminformationen zeigt.
  • Ein Flußdiagramm von Fig. 2 zeigt eine gesamte Verarbeitungsprozedur eines stereoskopischen Anzeigeverfahrens, das ein Hologramminformationsbildungsverfahren enthält. Zuerst wird bei einem Phasenberechnungsprozeß bei Schritt S1 eine Hologrammphasenverteilung zur stereoskopischen Anzeige berechnet. Der Phasenberechnungsprozeß wird in diesem Fall ausgeführt wie in Fig. 3 schematisch gezeigt. Das heißt, 3- dimensionale Informationen der Zielobjekte 14 und 16, die stereoskopisch anzuzeigen sind, werden in einem virtuellen Raum, der zur Phasenberechnung vorbereitet wurde, von einem System dargestellt, wie z. B. einem CAD-System oder dergleichen, in dem Daten mit 3-dimensionaler Struktur gehalten worden sind. Durch Modifizieren und Anwenden eines Prozesses für 2-dimensionale verdeckte Linien in der Computergrafiktechnik auf die Zielobjekte 14 und 16, die jeweils eine 3- dimensionale Struktur haben, wird eine Phasenberechnungszone bestimmt, und Phasenberechnungen, bei denen eine Berechnungsmenge beträchtlich reduziert wurde, werden ausgeführt. Zu diesem Zweck wird ein 1-dimensionales Hologramm mit einer Parallaxe nur in der horizontalen Richtung berechnet. Die Hologrammoberfläche 10 als Phasenanzeigeoberfläche wird nämlich in die streifenförmigen Zonen geteilt, die in vertikaler Richtung jeweils eine Mikrobreite haben. Die streifenförmige Zone wird in Mikrozonen geteilt, die in vertikaler Richtung der Zielobjekte 14 und 16 in Entsprechung zu den streifenförmigen Zonen jeweils eine Mikrobreite haben. Abtastpunkte werden in den Teilungszonen der Zielobjekte 14 und 16 festgelegt, und Phasenanteile von den Abtastpunkten werden produktsummiert, wodurch ein 1-dimensionales Hologramm 12 erhalten wird.
  • Da ferner jedes der Zielobjekte 14 und 16 allgemein als Polygon dargestellt wird, das durch eine Satz von Mikrodreieckselementen dargestellt wird, wird eine Anzahl von Schnittebenen 18, die zu der horizontalen Ebene parallel sind, in den vertikalen Richtungen in Mikromtervallen angeordnet, wodurch die Zielobjekte in Scheiben zerschnitten werden. Anschließend werden Liniensegmente extrahiert, die durch die Kreuzung zwischen jeder Schnittebene 18 und den Dreieckselementen, die die Zielobjekte 14 und 16 bilden, erhalten werden. Jene Liniensegmente werden als Zielobjekte 14 und 16 betrachtet, und eine Phasenverteilung des 1-dimensionalen Hologramms 12 wird berechnet. Nun wird angenommen, daß das Intervall in der vertikalen Richtung der Schnittebenen 18 an das Intervall zwischen den Hologrammebenen 10 angeglichen ist, um das 1-dimensionale Hologramm 12 darzustellen. Gemäß der Erfindung können, wie oben erwähnt, da die Zielobjekte 14 und 16 durch die Schnittebenen 18 in horizontaler Richtung zerschnitten werden und als Liniensegmente behandelt werden, die Berechnungen der Phasenverteilung des 1-dimensionalen Hologramms 12 weiter vereinfacht werden.
  • Fig. 4 ist ein Diagramm der Systemkonstruktion, das einem Ablauf zur stereoskopischen Anzeige entspricht. Das System ist konstruiert aus einer Bildungsvorrichtung 20 von 3-dimensionalen Informationen, einer Phasenberechnungsvorrichtung 22 und einer stereoskopischen Anzeigevorrichtung 24. Als Bildungsvorrichtung 20 von 3-dimensionalen Informationen kann eine Vorrichtung wie zum Beispiel ein CAD-System verwendet werden, in dem Daten mit 3-dimensionaler Struktur, die ein Zielobjekt bezeichnen, in einem Computer gehalten worden sind. In der Phasenberechnungsvorrichtung 22 kann ein Algorithmus, der später erläutert wird, durch Software oder Hardware realisiert werden. Ferner umfaßt die stereoskopi sche Anzeigevorrichtung 24: eine Flüssigkristallanzeige, um die 1-dimensionale Phasenverteilung darzustellen, die durch die Phasenberechnungsvorrichtung 22 erhalten wurde; und eine Laserlichtquelle, um ein Referenzlicht zur Reproduktion auf die Flüssigkristallanzeige einzustrahlen.
  • Ein Flußdiagramm von Fig. 5 zeigt eine grundlegende Verarbeitungsprozedur des Phasenberechnungsprozesses, der bei Schritt S1 in Fig. 2 gezeigt ist, nämlich das Hologramminformationsbildungsverfahren. Schritt S1 betrifft einen Prozeß zum Festlegen eines virtuellen Raumes. Eine rechteckige Hologrammoberfläche, um eine Phasenverteilung darzustellen, ein rechteckiges Sehfeld, von dem aus ein räumliches Bild beobachtet werden kann, das durch die Phasenverteilung, die auf der Hologrammoberfläche dargestellt wird, rekonstruiert wird, und eine Grenzoberfläche, die eine Limitzone bei der stereoskopischen Anzeige bezeichnet, werden festgelegt. Schritt S2 betrifft einen Objektdarstellungsprozeß. Das Zielobjekt, das unter Verwendung des CAD- Systems oder dergleichen stereoskopisch anzuzeigen ist, wird als Polygon dargestellt, das aus einem Satz von Mikrodreiecksflächenelementen konstruiert ist. Schritt S3 betrifft den Schnittebenenanordnungsprozeß. Eine Vielzahl von Schnittebenen wird in Mikromtervallen in vertikaler Richtung angeordnet, um zu der horizontalen Ebene eines virtuellen Raumes parallel zu sein. Durch die Schnittebenen wird ein Kreuzungszustand mit dem Polygon als Zielobjekt, das bei Schritt S2 dargestellt wurde, erzeugt. Schritt S4 betrifft einen Liniensegmentdetektionsprozeß. Die Liniensegmente, die durch die Kreuzung zwischen den angeordneten Schnittebenen und den Dreiecksflächenelementen, die das Zielobjekt bilden, das als Polygon dargestellt ist, erhalten werden, werden detektiert. Schritt S5 betrifft einen Liniensegmenteinstellprozeß. Es wird ein Liniensegmenteinstellprozeß ausgeführt, so daß bei den Liniensegmenten, die das Zielobjekt bezeichnen und durch die Anordnung der Schnittebenen detektiert wurden, der überlappte Abschnitt des Liniensegmentes, das das Zielobjekt bezeichnet und durch das Anordnen der Schnittebenen detektiert wurde, gemäß der Beziehung zu der Grenzebene, die das stereoskopische Anzeigelimit darstellt und in dem virtuellen Raum angeordnet wurde, abgeschnitten wird, oder daß das Liniensegment geteilt wird, um die Prozesse bezüglich des Überkreuzens des Liniensegmentes zu vereinfachen. Bei einem Liniensegmentextraktionsprozeß bei Schritt S6 wird das Liniensegment, das von der gesamten Sehebene aus nicht gesehen werden kann, da es durch die Liniensegmente versperrt wird, die auf dieser Seite existieren, in einen Abschnitt geteilt, der von dem gesamten Sehfeld aus immer zu sehen ist, und in einen Abschnitt, der durch ein anderes Liniensegment versperrt wird und nur von einem Teil des Sehfeldes aus zu sehen ist, und das Liniensegment wird extrahiert.
  • Durch die Prozesse wie Detektion, Einstellung und Extraktion des Liniensegmentes bei den Schritten S4 bis S6 wird das Liniensegment auf jeder Schnittebene in das Liniensegment klassifiziert, das von dem gesamten Sehfeld aus gesehen werden kann, und in das Liniensegment, das durch ein anderes Liniensegment versperrt wird und nur von einem Teil des Sehfeldes aus gesehen werden kann.
  • Die obengenannten Prozesse bei den Schritten S1 bis S6 betreffen die Prozesse im virtuellen Raum, der zuerst festgelegt worden ist. Der virtuelle Raum bezeichnet hier eine Anzeigevorrichtung, um eine 1-dimensionale Phasenverteilung tatsächlich darzustellen, und eine Wellenlänge von Reproduktionslicht wird nicht bestimmt, sondern es wird ein Raum bezüglich der Anzeige und der wellenlänge von Reproduktions licht, die als Voraussetzung virtuell bestimmt wurde, festgelegt. Was andererseits die Prozesse bei Schritt S7 und den folgenden Schritten betrifft, werden sie in einer Struktur einer Anzeige ausgeführt, wie in einer stereoskopischen Anzeigevorrichtung, um eine 1-dimensionale Phasenverteilung tatsächlich darzustellen, genauer gesagt, in einem realen Raum auf der Basis des Pixelabstandsintervalls und der Wellenlänge von Referenzucht, die tatsächlich verwendet wird.
  • Bei dem Abtastprozeß bei Schritt S7 werden Abtastpunkte zur Phasenberechnung auf dem Liniensegment angeordnet, das bei jeder Schnittebene extrahiert wurde. Koordinatenwerte und Helligkeiten sind bezüglich der Abtastpunkte gegeben. Bezüglich der Helligkeit des Abtastpunktes wird ein Wert auf der Basis eines Prozesses für verborgene Oberflächen in der Computergrafiktechnik verwendet. Bei einem Phasenverteilungsberechnungsprozeß bei Schritt S8 wird bei jedem Abtastpunkt eine Phasenverteilung eines 1-dimensionalen Hologramms auf der Hologrammoberfläche berechnet. Bei dem Phasenverteilungsaddierprozeß bei dem letzten Schritt S9 werden 1-dimensionale Hologrammphasenverteilungen, die für die verschiedenen Abtastpunkte berechnet wurden, bei derselben Schnittebene immer addiert. Schließlich wird eine 1- dimensionale Phasenverteilung in der Streifenzone in horizontaler Richtung der Hologrammoberfläche erhalten.
  • Fig. 6 zeigt visuell einen Zustand des Festlegungsprozesses des virtuellen Raumes, der bei Schritt S1 in Fig. 5 gezeigt ist. Die virtuelle Hologrammoberfläche 10 und das Sehfeld 26 werden in dem virtuellen Raum festgelegt. Nun wird angenommen, daß die Hologrammoberfläche 10 solch eine Struktur hat, daß Mikropixels 25, die die berechneten Phasenwerte ausdrücken, 2-dimensional angeordnet sind. Im allgemeinen sind als Auflösung der Anzeige, die zur Rekonstruktion eines Hologramms benötigt wird, etwa 1000 lp/mm erforderlich. Deshalb wird eine Größe der Pixels 25 auf der Basis solch einer Auflösung festgelegt. Ein Abstandsintervall der Pixels 25, die auf der virtuellen Hologrammoberfläche 10 vörgesehen sind, ist auf Pv festgelegt.
  • Der Einfachheit der Erläuterung halber wird nun angenommen, daß Abstandsintervalle in den vertikalen und seitlichen Richtungen des Pixels 25 auf dasselbe Abstandsintervall Pv festgelegt sind. Die Hologrammoberfläche 10 hat auf der Basis der Annahme der virtuellen Anzeige eine Größe einer seitlichen Breite L&sub1; und einer Höhe L&sub2;.
  • Das Sehfeld 26 ist durch eine Wellenlänge von Referenzlicht bestimmt, die bei der Wellenfrontkonvertierung durch die Phasenverteilung, die auf der Hologrammoberfläche 10 dargestellt wird, verwendet wird. Nun wird der Einfachheit der Erläuterung halber angenommen, daß die Wellenlänge von Referenzucht im virtuellen Raum auf λv festgelegt ist und das Referenzucht rechtwinklig zur Hologrammoberfläche 10 eingestrahlt wird. Da das Abstandsintervall der Pixels 25 der virtuellen Hologrammoberfläche 10 gleich Pv ist, wird eine Raumfrequenz f erhalten durch:
  • f = 1/2Pv [1P/mm]
  • Ein maximaler Beugungswinkel φ auf Grund der Phasenverteilung hat folgende Beziehungsgleichung:
  • f = sinφ/λv
  • Wie in der Draufsicht von Fig. 7 gezeigt, können deshalb, wenn der Beugungswinkel φ des Referenzlichtes, das auf Grund der 1-dimensionalen Phasenverteilung, die auf der Hologrammoberfläche 10 dargestellt wird, rechtwinklig eintrat, an beiden Enden festgelegt wird, Grenzoberflächen 30 und 32 festgelegt werden. Obwohl ein räumliches Bild durch das Hologramm 10 gesehen werden kann, indem der Sehpunkt innerhalb der Grenzoberflächen 30 und 32 festgelegt wird, kann ein räumliches Bild nämlich nicht gesehen werden, wenn der Sehpunkt außerhalb der Grenzoberflächen 30 und 32 festgelegt wird. Die Grenzoberflächen 30 und 32 bestimmen daher eine Zone, in der ein räumliches Bild beobachtet werden kann. Ein Polygon, das in dem virtuellen Raum dargestellt wird, wird, während ein Sehpunkt W&sub0; an einem Ursprung festgelegt wird, in das Koordinatensystem mit dem Ursprung 0 in der Mitte der Hologrammoberfläche 10 koordinatenkonvertiert. Danach wird das Liniensegment extrahiert.
  • Fig. 8 zeigt eine Objektdarstellung für einen virtuellen Raum und einen Anordnungszustand von Schnittebenen. Ein Zielobjekt (Polygon) 34, das durch Daten mit 3-dimensionaler Struktur durch ein CAD-System oder dergleichen gebildet ist, wird in dem virtuellen Raum dargestellt. Zum Beispiel wird, wie bei einer Box 36 in Fig. 9 gezeigt, das Zielobjekt 34 als Satz von Dreiecksebenen und -seiten dargestellt. Das Darstellungsformat des Polygons durch den Satz von Dreieckselementen 38 wird durch eine Koppelliste der Koordinatenwerte dreier Spitzen von jedem Ebenenelement und der Spitzen der anderen Ebenenelemente konstruiert. Wie in Fig. 8 gezeigt, werden für das Zielobjekt 34, das in dem virtuellen Raum angeordnet ist, Schnittebenen 18-1, 18-2, ---, 18-n parallel zu der horizontalen Ebene festgelegt. Ein Intervall zwischen den Schnittebenen 18-1 bis 18-n ist auf das Abstandsintervall Pv der Pixels 25 der Hologrammoberfläche festgelegt. Um die Berechnungsmenge durch Verringern der Auflösung zu reduzieren, können die Schnittebenen 18-1 bis 18-n auch in einem Intervall angeordnet werden, das gleich dem oder größer als das Abstandsintervall Pv der Pixels 25 ist. Durch Anordnen der Schnittebenen 18-1 bis 18-n für das Zielobjekt 34, wie oben erwähnt, ist ein Kreuzungszustand der Schnittebene für die Dreiecksebenenelemente, die das Zielobjekt 34 darstellen, derart, daß eine Kreuzungslinie von jedem Ebenenelement 38 und der Schnittebene 18 ein Liniensegment bildet, wie aus Fig. 9 hervorgeht. Wenn das Kreuzungsliniensegment des Zielobjektes und der Schnittebene wie oben erwähnt erhalten ist, ist das Liniensegment durch die Koordinatenwerte zweier Endpunkte definiert.
  • Der Liniensegmenteinstellprozeß und der Liniensegmentextraktionsprozeß bei den Schritten SS und S6 in Fig. 5 werden nun praktisch erläutert. Fig. 10 zeigt einen Zustand, bei demeinliniensegment 40 existiert, das in bezug auf eine gewisse Schnittebene von dem gesamten Sehfeld 26 aus gesehen wird. Endpunkte des Sehfeldes 26 sind durch W&sub1; und W&sub2; bezeichnet. Endpunkte der Hologrammoberfläche 10 sind durch S&sub1; und S&sub2; bezeichnet. Das Liniensegment 40, das durch die Koordinatenwerte der Endpunkte P&sub1; und P&sub2; dargestellt wird, existiert in der Zone im Inneren der Grenzoberflächen 32 und 30. Das Liniensegment, das im Inneren der Grenzoberflächen 32 und 30 existiert, wie bei dem Liniensegment 40 gezeigt, wird als Zielliniensegment der Phasenberechnung extrahiert. Andererseits wird ein Liniensegment 42, das außerhalb der Grenzoberfläche 30 existiert, gelöscht, da es kein Ziel für die Berechnung ist.
  • Fig. 11a und 11b zeigen ein Datenformat des Liniensegmentes 40, das in Fig. 10 von der gesamten Zone des Sehfeldes 26 aus gesehen werden kann. Das heißt, Fig. 11A zeigt den Inhalt des Datenformats. Die Koordinatenwerte der linken und rechten Endpunkte des Liniensegmentes werden im Anschluß an die Liniensegmentnummer gespeichert. Obwohl das Liniensegment in den rechten Endpunkt und linken Endpunkt geteilt worden ist, ist es auch möglich, diese Seite als Ausgangspunkt und die Tiefenseite als Endpunkt zu definieren, wenn sie in der Tiefenrichtung gesehen werden. Anschließend werden die Koordinatenwerte des linken Endpunktes und rechten Endpunktes des Sehfeldes gespeichert. Bezüglich des Liniensegmentes 40 in Fig. 10 werden Daten gemäß dem Datenformat gebildet, wie oben erwähnt, bei denen die Liniensegmentnummer #001, der linke Endpunkt P&sub1; des Liniensegmentes, der rechte Endpunkt P&sub2; des Liniensegmentes, der linke Endpunkt W&sub1; des Sehfeldes und der rechte Endpunkt W&sub2; des Sehfeldes gespeichert worden sind, wie in Fig. 11B gezeigt, und die das Liniensegment 40 bezeichnen, das von der gesamten Zone des Sehfeldes aus gesehen wird. Unter Verwendung solch eines Datenformats des Liniensegmentes kann eine Berechnungszone der 1-dimensionalen Phasenverteilung auf der Hologrammoberfläche 10 bei der Phasenberechnung weiter vereinfacht werden.
  • Fig. 12 zeigt einen Abschneideprozeß eines Liniensegmentes. Bezüglich des Liniensegmentes mit den Endpunkten P&sub1; und P&sub2; wird, da der Endpunkt P&sub1; außerhalb der Grenzoberfläche 32 existiert, ein Liniensegment 44, das außerhalb eines Kreuzungspunktes P&sub1;&sub2; mit der Grenzoberfläche 32 existiert, gelöscht, wodurch ein neues Liniensegment 40 gebildet wird, das den Kreuzungspunkt P&sub1;&sub2; und den Endpunkt P&sub2; auf der rechten Seite hat. Da das Liniensegment 40, das abgeschnitten wurde, wie oben erwähnt, von der gesamten Zone des Sehfeldes 26 aus gesehen werden kann, hat es dasselbe Daten format wie jenes von Fig. 11A und 11B.
  • Fig. 13 zeigt ein anderes Beispiel des Abschneideprozesses eines Liniensegmentes. In diesem Fall verläuft das Liniensegment 42, das die Endpunkte P&sub1; und P&sub2; hat, durch beide Grenzoberflächen 32 und 30 und existiert außerhalb. Deshalb werden Kreuzungspunkte P&sub3; und P&sub4; mit den Grenzoberflächen 30 und 32 erhalten und an die Endpunkte eines neuen Liniensegmentes gesetzt, und das Liniensegment, das außerhalb existiert, wird gelöscht.
  • Fig. 14 zeigt ein Liniensegment, von dem ein Teil auf der rechten Seite des Sehfeldes 26 nicht gesehen werden kann. Ein anderes Liniensegment 46, das Endpunkte P&sub3; und P&sub4; hat, ist vor dem Liniensegment 44 angeordnet, das die Endpunkte P&sub1; und P&sub2; hat. Zuerst kann, wenn das Liniensegment 44 von dem Endpunkt W&sub1; des Sehfeldes 26 aus gesehen wird, die gesamte Zone in einem Bereich von dem Endpunkt P&sub1; bis zu dem Endpunkt P&sub2; gesehen werden. Wenn das Liniensegment 44 andererseits von dem Endpunkt W&sub2; auf der rechten Seite des Sehfeldes 26 aus gesehen wird, kann die rechte Seite ab dem Punkt P&sub1;&sub2;, der durch den Endpunkt P&sub3; des Liniensegmentes 46 verläuft und das Liniensegment 44 schneidet, von dem Endpunkt W&sub2; aus nicht gesehen werden. Das heißt, obwohl der Abschnitt des Liniensegmentes 44 in einem Bereich ab dem Endpunkt P&sub1; bis zu dem Kreuzungspunkt P&sub1;&sub2; von der gesamten Zone des Sehfeldes 26 aus gesehen werden kann, kann der Abschnitt in einem Bereich ab dem Kreuzungspunkt P&sub1;&sub2; bis zu dem Endpunkt P&sub2; nicht in der gesamten Zone des Sehfeldes 26 gesehen werden. Deshalb ist der Abschnitt bis zu dem Kreuzungspunkt P&sub1;&sub2; ein Limitbereich, der in dem gesamten Sehfeld 26 gesehen werden kann. Ferner ist bezüglich der rechten Seite das Sehfeld 26, in dem das Liniensegment gesehen werden kann, begrenzt, um hin zu der linken Seite, die den Endpunkt W&sub1; enthält, allmählich verengt zu werden. In solch einem Fall wird das Liniensegment 44 in ein Liniensegment 48 mit Endpunkten P&sub1; und P&sub1;&sub2; geteilt, das von der gesamten Zone des Sehfeldes aus gesehen werden kann, und in ein Liniensegment 50 mit Endpunkten P&sub1;&sub2; und P&sub2;, das in einem Teil des Sehfeldes nicht gesehen werden kann, und sie werden extrahiert. Das Liniensegment 48, das von der gesamten Zone des Sehfeldes aus gesehen werden kann, hat ein Datenformat wie in Fig. 11 gezeigt. Andererseits hat das Liniensegment 50, von dem ein Teil auf der rechten Seite des Sehfeldes nicht gesehen werden kann, ein Datenformat wie in Fig. 15A und 15B gezeigt.
  • Fig. 15A zeigt den Inhalt eines Datenformats des Liniensegmentes, von dem ein Teil auf der rechten Seite des Sehfeldes nicht gesehen werden kann. Die Liniensegmentnummer, der linke Endpunkt des Liniensegmentes, der rechte Endpunkt des Liniensegmentes, der linke Endpunkt des Sehfeldes und der Endpunkt des Versperrungsliniensegmentes werden in dem Datenformat gespeichert. Im Fall des Liniensegmentes 50 in Fig. 14 werden, wie in Fig. 15B gezeigt, die Liniensegmentnummer #002, der linke Endpunkt P&sub1;&sub2; des Liniensegmentes, der rechte Endpunkt P&sub2; des Liniensegmentes, der linke Endpunkt W&sub1; des Sehfeldes und der Endpunkt P&sub3; des Versper rungsliniensegmentes 46 gespeichert. Das Datenformat in Fig. 15A und 15B unterscheidet sich von dem Datenformat des Liniensegmentes, das in der gesamten Zone des Sehfeldes gesehen werden kann, wie in Fig. 11A und 11B gezeigt, darin, daß der Endpunkt des Versperrungsliniensegmentes anstelle eines der Endpunkte des Sehfeldes gespeichert wird.
  • Fig. 16 zeigt ein Liniensegment, von dem im Gegensatz zu Fig. 14 ein Teil auf der linken Seite des Sehfeldes nicht gesehen werden kann. Ein Teil des Liniensegmentes 44 mit den Endpunkten P&sub1; und P&sub2; kann auf der linken Seite des Sehfeldes 26 durch das Liniensegment 46 mit den Endpunkten P&sub3; und P&sub4;, das vor dem Liniensegment 44 existiert, nicht gesehen werden. Das heißt, wenn das Liniensegment von dem Endpunkt W&sub1; auf der linken Seite des Sehfeldes 26 aus gesehen wird, kann der Abschnitt bis zum Kreuzungspunkt P&sub1;&sub2; mit der Auqensichtlinie, die durch den Endpunkt P&sub4; des anderen Liniensegmentes 46 verläuft, in der gesamten Zone des Sehfeldes 26 gesehen werden. Der Abschnitt auf der linken Seite des Kreuzungspunktes P&sub1;&sub2; kann auf der linken Seite des Sehfeldes 26 jedoch nicht gesehen werden, da er sich der Seite des Endpunktes P&sub1; nähert. Auch in diesem Fall wird deshalb das Liniensegment 44 in das Liniensegment 48 mit den Endpunkten P&sub1;&sub2; und P&sub2; geteilt, das in der gesamten Zone des Sehfeldes 26 gesehen werden kann, und in das Liniensegment 50 mit den Endpunkten P&sub1; und P&sub1;&sub2;, von dem ein Teil auf der linken Seite des Sehfeldes 26 nicht gesehen werden kann. Das Liniensegment 50, von dem ein Teil auf der linken Seite des Sehfeldes 26 nicht gesehen werden kann, hat ein Datenformat, in dem die Liniensegmentnummer #003, der rechte Endpunkt P&sub1; des Liniensegmentes, der linke Endpunkt P&sub1;&sub2; des Liniensegmentes, der Endpunkt P&sub4; des Versperrungsliniensegmentes und der rechte Endpunkt W&sub2; des Sehfeldes gespeichert werden, wie in Fig. 17A und 17B gezeigt.
  • Fig. 18 zeigt einen Teilungsprozeß eines Kreuzungsliniensegmentes. In dem Fall, wenn das Liniensegment 44 mit den Endpunkten P&sub1; und P&sub2; das Liniensegment 46 mit den Endpunkten P&sub3; und P&sub4; an einem Kreuzungspunkt P&sub5; schneidet, wie in dem Diagramm gezeigt, werden die Liniensegmente durch den Kreuzungspunkt P&sub5; in vier Liniensegmente geteilt. Da das abgeteilte Liniensegment mit den Endpunkten P&sub1; und P&sub5; und das abgeteilte Liniensegment mit den Endpunkten P&sub4; und P&sub5; von der gesamten Zone des Sehfeldes 26 aus gesehen werden kann, werden Daten gemäß dem Datenformat von Fig. 11A und 11B erzeugt. Das Liniensegment mit den Endpunkten P&sub5; und P&sub3; und das Liniensegment mit den Endpunkten P&sub5; und P&sub2; werden gelöscht, da sie durch die zwei Liniensegmente auf dieser Seite versperrt sind und von dem Sehfeld 26 aus überhaupt nicht gesehen werden können.
  • Durch die Liniensegmenteinstell- und -extraktionsprozesse wie oben erwähnt werden die folgenden zwei Arten von Liniensegmenten als Ziele der Phasenberechnung erhalten.
  • I. Liniensegment, das von dem Sehfeld aus vollkommen gesehen werden kann.
  • II. Liniensegment, das von dem Sehfeld aus überhaupt nicht gesehen werden kann.
  • Bezüglich der Liniensegmente, die wie oben erwähnt erhalten wurden, werden die Liniensegmentdaten sortiert, um bei jeder Schnittebene gemäß der Reihenfolge der Positionen in der Tiefenrichtung angeordnet zu sein.
  • Nun wird ein Berechnungsprozeß einer 1-dimensionalen Phasenverteilung der Hologrammoberfläche auf der Basis der Liniensegmente beschrieben, die bei jeder Schnittebene erhalten wurden. Zuerst wird das Prinzip eines Hologramms erläutert. Ein Laserstrahl wird in zwei Strahlen geteilt, und einer der Laserstrahlen wird auf ein Objekt einge strahlt, so daß ein Laserstrahl (Objektlicht) durch das Objekt zerstreut wird. Ein Hologramm wird durch eine Interferenz zweier Linienstrahlen der Laserstrahlen (Objektlicht) und eines anderen Laserstrahis (Referenzlicht) erhalten. Wenn eine Wellenfront des Referenzlichtes R exp(jφr) wird und eine Wellenfront des Objektlichtes O exp(jφ)&sub0;) wird, beträgt eine Belichtungsintensität IH des Hologramms
  • IH = R² + O² + 2 R O cos(φo - φr) ... (1)
  • Beim Entwickeln des Hologramms treten Amplituden- und Phasenveränderungen in dem Hologramm auf, die der Belichtungsintensität IH der Gleichung (1) proportional sind. Um ein Hologramm elektrisch zu bilden, reicht es aus, eine Raumlichtmodulationsvorrichtung zu verwenden, wie eine Flüssigkristallvorrichtung oder dergleichen, die die Amplitude oder Phase des Lichtes verändern kann. Durch Einstrahlen derselben Wellenfront wie jener des Referenzuchtes auf das Hologramm, das wie oben erwähnt gebildet ist, kann ein Hologramm rekonstruiert werden. Da nur der dritte Term der rechten Seite in der Gleichung (1) zu der Reproduktion des Objektlichtes bei der Belichtungsintensität IH der Gleichung (1) beiträgt, ist, wenn der dritte Term der rechten Seite betrachtet wird, ein Übertragungslicht T von dem Hologramm
  • Der erste Term der rechten Seite in Gleichung (2) zeigt, daß die Wellenfront von dem Objekt reproduziert wurde. Der zweite Term der rechten Seite bezeichnet eine konjugierte Welle des Objektlichtes. Aus der obigen Beschreibung des Prinzips versteht sich, daß es ausreicht, nur den dritten Term der rechten Seite der Gleichung (1) bei der Berechnung der Phasenverteilung des Hologramms zu berechnen.
  • Fig. 19 zeigt das Prinzip der Berechnung eines Hologramms. In Anbetracht dessen, daß das Referenzucht durch eine Planwelle konstruiert ist, kann nun, da sich eine Intensität der Planwelle nicht in Abhängigkeit von der Position verändert, die Lichtintensität R ignoriert werden, und es ist möglich, so vorzugehen, daß die Phase Φr = 0 ist. Wenn eine Helligkeit (Streuungsgrad) eines gewissen Abtastpunktes 66 mit den Koordinaten (Xi, Yi, Zi) des Objektes 64 Ii wird, beträgt die Belichtungsintensität IH des Pixels 25 auf der Hologrammoberfläche 10
  • wobei k die Anzahl von Wellen des Laserstrahis bezeichnet,
  • Fig. 20 zeigt eine Berechnungszone einer 1-dimensionalen Phasenverteilung bezüglich eines Liniensegmentes, das von der gesamten Zone eines Sehfeldes aus gesehen werden kann. Da das Liniensegment, das in der gesamten Zone des Sehfeldes gesehen werden kann, durch das Datenformat von Fig. 11A und 11B dargestellt wird, können die Endpunkte P&sub1; und P&sub2; des Liniensegmentes und die Endpunkte W&sub1; und W&sub2; des Sehfeldes 26 in dem virtuellen Raum für die Hologrammoberfläche 10 festgelegt werden, wie in dem Diagramm gezeigt. Zuerst werden bei der Erfindung Abtastpunkte SP auf dem Liniensegment angeordnet, das die Endpunkte P&sub1; und P&sub2; hat. Es ist erforderlich, daß eine Teilungslänge des Liniensegmentes, um die Abtastpunkte zu bestimmen, auf einen ausreichend kleinen Wert gesetzt wird, um zu gestatten, daß ein kontinuierlicher Zustand von einer Vielzahl von Liniensegmenten als eine Linie gesehen werden kann. Theoretisch wird eine Teilungslänge des Liniensegmentes, um die Abtastpunkte festzulegen, visuell auf einen Wert von etwa 50 µm gesetzt. Der Einfachheit der Erläuterung halber werden Abtastpunkte SP&sub1;, SP&sub2; -- bei jedem Abstandsintervall Pv unter Verwendung des Abstandsintervalls Pv der Pixels der Hologrammoberfläche 10, die in dem virtuellen Raum vorgesehen ist, angeordnet. Eine Berechnungszone der Phasenverteilung auf der Hologrammoberfläche 10 am Endpunkt P&sub1; wird auf eine Berechnungszone 52-1 gesetzt, die durch das Intervall der Kreuzungspunkte auf der Hologrammoberfläche 10 der Augensichtlinien von den Endpunkten W&sub1; und W&sub2; des Sehfeldes 26 aus gegeben ist. Bezüglich des nächsten Abtastpunktes SP&sub1; wird eine Berechnungszone auch ähnlich auf eine Zone 52-2 zwischen den Kreuzungspunkten gesetzt, bei denen die Augensichtlinien von den Endpunkten W&sub1; und W&sub2; auf beiden Seiten des Sehfeldes 26 aus die Hologrammoberfläche 10 kreuzen. Auf ähnliche Weise wie oben werden Berechnungszonen bezüglich der anderen verbleibenden Abtastpunkte und des Endpunktes P&sub2; auf der rechten Seite erhalten. Eine Berechnungszone 52-6 ist bezüglich des Endpunktes P&sub2; festgelegt.
  • Wenn die Berechnungszonen 52-1 bis 52-6 bezüglich der Abtastpunkte SP zwischen den Endpunkten P&sub1; und P&sub2; wie oben erwähnt bestimmt sind, kann eine Phasenverteilung gemäß den Gleichungen (3) und (4) berechnet werden, indem jedem Punkt eine Helligkeit verliehen wird. Da in diesem Fall die Phasenverteilung bei den Abtastpunkten auf derselben Schnittebene berechnet wird, der Y-Koordinatenwert der Gleichung (4) gleich 0 ist und die 2-dimensionalen Koordinaten unter Verwendung der Koordinatenwerte auf der XZ-Ebene (Schnittebene) benutzt werden, werden die Berechnungen selbst vereinfacht.
  • Da die Phasenverteilung auf der Basis der Helligkeit an jedem Abtastpunkt einschließlich der Endpunkte P&sub1; und P&sub2; berechnet wird, ist es bei der Phasenberechnung an jedem in Fig. 20 gezeigten Abtastpunkt erforderlich, die Helligkeiten vor der Phasenberechnung im voraus zu erhalten. Solch eine Berechnung der Helligkeit am Abtastpunkt kann realisiert werden, indem verschiedene Arten von Schattierungsmodellen der Computergrafik angewendet werden. Bei der Helligkeitsberechnung auf der Basis der Schattierungstechnik der Computergrafik werden zum Beispiel, wie in Fig. 21 gezeigt, geometrische normale Linien der Ebene, um die Endpunkte P&sub1; und P&sub2; des Liniensegmentes anzuzeigen, vorher erhalten, wie durch gestrichelte Linien in Fig. 21 gezeigt. Die normalen Linien werden nun zu Augensichtlinienvektoren V&sub1; und V&sub2;. Hinsichtlich eines willkürlichen Abtastpunktes Spi, der zwischen den Punkten P&sub1; und P&sub2; angeordnet ist, wird ein Augensichtlinienvektor Vi durch lineare Interpolation aus den Augensichtlinienvektoren V&sub1; und V&sub2; an beiden Endpunkten P&sub1; und P&sub2; erhalten. Die normalen Linien der Endpunkte P&sub1; und P&sub2; haben verschiedene Richtungen, da sie durch den Durchschnitt mit den normalen Linien der angrenzenden Ebene erhalten werden. Hinsichtlich der Ebenenelemente des Polygons, in denen das Liniensegment mit den Endpunkten P&sub1; und P&sub2; extrahiert wurde, werden andererseits zum Beispiel ein Diffusionskoeffizient, ein Reflexionskoeffizient, Lichtquelleninformationen und dergleichen als verschiedene Arten von Attributinformationen auf ähnliche Weise wie im Fall der Anzeige in der Computergrafik vorgesehen. Es reicht deshalb aus, die Helligkeit am Abtastpunkt SPi auf der Basis der Attributinformationen und des Augensichtlinienvektors Vi zu berechnen. Die Berechnung der Helligkeit ist nicht auf das glatte Schattierungsmodell der Computergrafik begrenzt, sondern es kann eine geeignete Verarbeitungstechnik für verdeckte Ebenen angewendet werden.
  • Fig. 22 zeigt die Phasenberechnung eines Liniensegmentes, das in einem Teil des Sehfeldes nicht gesehen werden kann. Die Endpunkte P&sub1;&sub2; und P&sub2; des Liniensegmentes, der linke Endpunkt W&sub1; des Sehfeldes und der Endpunkt P&sub3; des Versperrungsliniensegmentes werden auf der Hologrammoberfläche 10 auf der Basis der Liniensegmentdaten in Fig. 15B angeordnet. Obwohl in diesem Fall der rechte Endpunkt W&sub2; des Sehfeldes 26 und die Grenzoberflächen 30 und 32 nicht berücksichtigt zu werden brauchen, sind sie gezeigt, um das Verstehen der Erläuterung zu erleichtern. Das Liniensegment mit den Endpunkten P&sub1;&sub2; und P&sub2; wird zum Beispiel durch eine Teilungslänge des Pixelabstandsintervalls Pv der virtuellen Hologrammoberfläche 10 geteilt, und der Abtastpunkt SP&sub1; wird vorgesehen. Eine Zone der Phasenberechnung auf der Hologrammoberfläche 10 auf der Basis des Lichtes von dem Punkt P&sub1;&sub2; wird auf einer Zone 54-1 zwischen dem linken Endpunkt W&sub1; des Sehfeldes 26 und dem Kreuzungspunkt auf der Hologramm oberfläche 10 der Augensichtlinie angeordnet, die ab dem Endpunkt P&sub3; der Versperrungslinie beginnt und den Punkt P&sub1;&sub2; durchläuft. Hinsichtlich des Abtastpunktes SP&sub1; und auch des Endpunktes P&sub2; werden ähnlich die Berechnungszonen 54-2 und 54-3 erhalten. Wenn die Berechnungszonen 54-1, 54-2 und 54-3 erhalten sind, wird die Helligkeit an den Punkten P&sub1;&sub2;, SP&sub1; und P&sub2; auf ähnliche Weise wie im Fall von Fig. 21 erhalten. Eine Phasenverteilung wird gemäß den Gleichungen (3) und (4) bei jedem Pixel berechnet, das in den Berechnungszonen 54-1 bis 54-3 enthalten ist. Wenn die Phasenberechnungen bezüglich der Abtastpunkte einschließlich der Endpunkte aller Liniensegmente erfolgt sind, die bezüglich einer Schnittebene erhalten wurden, werden die Resultate der Berechnungen in der 1-dimensionalen Zone der Hologrammoberfläche 10 addiert, so daß schließlich die 1-dimensionale Phasenverteilung erhalten werden kann, die einer gewissen Streifenebene entspricht. Die obigen Prozesse werden hinsichtlich der Liniensegmente aller Schnittebenen ausgeführt.
  • Obwohl die in Fig. 20 bis 22 gezeigten Phasenberechnungen hinsichtlich aller virtuellen Räume, die in Fig. 6 bis 7 als Beispiele gezeigt sind, ausgeführt worden sind, wird bei den tatsächlichen Prozessen eine Phasenverteilung in einem realen Raum berechnet, in dem die Anzeige zum tatsächlichen Darstellen der Phasenverteilung auf der Stufe der Phasenberechnung und die Wellenlänge des Reproduktionsuchtes spezifiziert wurden. Wenn nun angenommen wird, daß ein Pixelabstand der Hologrammoberfläche 10 im realen Raum, nämlich eine Flüssigkristallanzeige oder dergleichen, zum tatsächlichen Darstellen der Phasenverteilung auf Pr gesetzt ist und eine Wellenlänge des Reproduktionsuchtes auf λr gesetzt ist, wird eine Wellenlänge λv im virtuellen Raum, die bei der Berechnung der Phasenverteilung in den Gleichungen (3) und (4) verwendet wird, erhalten durch:
  • λv = λr (Pv/Pr) ... (5)
  • λv: Wellenlänge von Licht im virtuellen Raum
  • λr: Wellenlänge von Licht im realen Raum
  • Pv: Abstandsintervall von Pixels im virtuellen Raum
  • Pr: Abstandsintervall von Pixels im realen Raum
  • Die Anzahl von Wellen (kv), die im virtuellen Raum verwendet werden, wird erhalten durch:
  • kv = kr (Pr/Pv) ... (6)
  • kv: Anzahl von Wellen im virtuellen Raum
  • kr: Anzahl von Wellen im realen Raum
  • und wird als 1-dimensionale Phasenverteilung im realen Raum berechnet. Das heißt, die Konvertierung von dem virtuellen Raum in den realen Raum kann realisiert werden, indem die Phasenverteilung unter Verwendung der Wellenlänge und der Anzahl von Wellen gemäß einer Vergrößerungseinstellung berechnet wird, die durch ein Verhältnis des Pixelabstandsintervalls Pr im realen Raum und des Pixelabstandsintervalls Pv im virtuellen Raum bestimmt ist.
  • Durch Ausführen der Prozesse bis zu der Detektion der Liniensegmente im virtuellen Raum können Informationen des Zielobjektes, das in Liniensegmente konvertiert wurde, erhalten werden, ohne durch die Leistung der Flüssigkristallanzeige, die bei der tatsächlichen stereoskopischen Anzeige verwendet wird, oder die Wellenlänge von Referenzlicht begrenzt zu sein. Die Vorrichtung, um die Phasenverteilung tatsächlich darzustellen, und die Wellenlänge von Referenzucht werden anschließend erhalten. Danach wird die Phasenverteilung im realen Raum einfach berechnet.
  • Fig. 23 bis 25 zeigen Flußdiagramme zum Realisieren der Prozesse bei Schritt S3 und anschließende Schritte, die in Fig. 5 gezeigt sind, um Hologramminformationen gemäß der Erfindung durch eine Software zu bilden. In Fig. 23 wird bei Schritt Sl eine Schnittebene initialisiert. Anschließend werden bei Schritt S2 Kreuzungspunkte der festgelegten Schnittebene und des Polygons, das als Zielobjekt darge stellt wird, erhalten und auf zwei Endpunkten des Liniensegmentes angeordnet. Bei Schritt S3 erfolgt eine Prüfung, ob die zwei Endpunkte des Liniensegmentes innerhalb einer Zone liegen oder nicht, in der die stereoskopische Anzeige ausgeführt werden kann. Falls NEIN, erfolgt bei Schritt S4 eine Prüfung, ob einer der zwei Endpunkte außerhalb der stereoskopisch anzeigbaren Zone liegt oder nicht. Wenn die zwei Endpunkte alle beide innerhalb der stereoskopisch anzeigbaren Zone liegen, geht die Verarbeitungsroutine zu Schritt S5 über, und es erfolgt eine Prüfung, um zu sehen, ob die Berechnungen zum Extrahieren der Liniensegmente bezüglich aller Ebenenelemente des Polygons beendet worden sind oder nicht. Wenn die zwei Endpunkte des Liniensegmentes bei Schritt 53 außerhalb der stereoskopisch anzeigbaren Zone liegen, geht die Verarbeitungsroutine zu Schritt 56 über, und es erfolgt eine Prüfung, ob die zwei Endpunkte in derselben Richtung entweder auf der rechten Seite oder der linken Seite existieren oder nicht, wenn sie von dem Sehfeld aus gesehen werden. Wenn die zwei Endpunkte des Liniensegmentes in derselben Richtung existieren, nämlich auf der rechten Seite oder der linken Seite der stereoskopisch anzeigbaren Zone, genauer gesagt, wie im Fall, der durch das Liniensegment 42 in Fig. 10 gezeigt ist, folgt Schritt S7, und die Daten der zwei Endpunkte werden gelöscht. Wenn die zwei Endpunkte des Liniensegmentes bei Schritt S6 in ver schiedenen Richtungen existieren, nämlich wenn sie in den Zuständen der Punkte P&sub1; und P&sub2; in Fig. 13 sind, folgt Schritt S8, und die zwei Endpunkte werden alle beide in die stereoskopisch anzeigbare Zone gedippt. Wenn die Berechnungen hinsichtlich der Liniensegmente bei allen Polygonebenen durch die obigen Prozesse beendet sind, geht die Verarbeitungsroutine zu Schritt S10 in Fig. 24 über, und die Initialisierung zum Extrahieren der Liniensegmente wird ausgeführt.
  • Bei Schritt S11 erfolgt eine Prüfung, ob das Liniensegment zwischen den zwei Endpunkten einen Kreuzungspunkt hat oder nicht. Falls JA, folgt Schritt S13, und das Liniensegment wird am Kreuzungspunkt geteilt, und Liniensegmente werden addiert, wie in Fig. 18 gezeigt. Die obigen Prozesse werden wiederholt, bis die Beurteilung des Kreuzungspunktes bezüglich aller Liniensegmente bei Schritt S12 beendet ist. Die Verarbeitungsroutine geht zu Schritt S14 über, und die Liniensegmente werden nach Vollendung des Kreuzungspunktprozesses neu angeordnet. Bei dieser Neuanordnung werden die Liniensegmente auf derselben Schnittebene gemäß der aufsteigenden Reihenfolge in der Richtung der Z-Achse, nämlich in der Tiefenrichtung (gemäß der Reihenfolge ab der kleinen Distanz in der Tiefenrichtung) sequentiell angeordnet. Einer der zwei Endpunkte, der bezüglich jedes Liniensegmentes dicht am Sehfeld liegt, wird auf einen Startpunkt gesetzt, und der andere Punkt, der von dem Sehfeld entfernt ist, wird auf einen Endpunkt (Abschlußpunkt) gesetzt. Nach Vollendung der Neuanordnung der Liniensegmente wird bei Schritt S15 wieder die Initialisierung der Liniensegmente ausgeführt. Die Liniensegmente werden bei Schritt S16 extrahiert. Beim Extraktionsprozeß der Liniensegmente bei Schritt S16 wird das Liniensegment, das in einem Teil des Sehfeldes versperrt ist, in die folgenden drei Abschnitte geteilt: I) einen Abschnitt, der von dem Sehfeld aus vollkommen gesehen werden kann; II) einen Abschnitt, der in Abhängigkeit von dem Winkel gesehen werden kann; und III) einen Abschnitt, der überhaupt nicht gesehen werden kann. Der Abschnitt, der nicht gesehen werden kann, wird eliminiert. Hinsichtlich des Abschnittes, der vollkommen gesehen werden kann, werden Liniensegmentdaten im Format gemäß Fig. 11 erzeugt. Bezüglich des Abschnittes, der in Abhängigkeit von dem Winkel gesehen werden kann, werden Liniensegmentdaten gemäß dem Datenformat erzeugt, das in Fig. 15 oder 16 gezeigt ist. Der Prozeß bei Schritt S16 wird bis zum Ende der Berechnungen bei allen Liniensegmenten bei Schritt S17 wiederholt.
  • Die Verarbeitungsroutine geht zu Schritt S18 in Fig. 25 über, und die Vergrößerung wird eingestellt, um die Prozesse bisher im virtuellen Raum in die Prozesse im realen Raum zu konvertieren, in dem die Anzeige, um die Phasenverteilung tatsächlich anzuzeigen, und die Wellenlänge von Referenzlicht bestimmt worden sind. Beim Einstellen der Vergrößerung in diesem Fall wird, da das Pixelabstandsintervall Pv der Hologrammoberfläche im virtuellen Raum und das Pixelabstandsintervall Pr im realen Raum vorher bestimmt worden sind, die Vergrößerung (Pr/Pv) eingestellt, wird die Konvertierung der Wellenlänge und der Anzahl von Wellen gemäß den Gleichungen (5) und (6) in den realen Raum ausgeführt und werden die Phasenberechnungen gemäß den Gleichungen (3) und (4) unter Verwendung der Wellenlänge λv und der Anzahl von Wellen (kv) ausgeführt. Nachdem bei Schritt S18 die Vergrößerung eingestellt ist, werden bei jedem Liniensegment Abtastpunkte auf dem Liniensegment mit einer vorbestimmten Teilungslänge angeordnet, zum Beispiel mit dem Pixelabstandsintervall Pv auf der Hologrammoberfläche im virtuellen Raum. Bei Schritt S20 wird die Distanz, nämlich die Berechnungszone, bezüglich der Zone auf der Hologrammoberfläche erhalten, die durch die Abtastpunkte auf dem Liniensegment und den Beobachtungsbereich des Sehfeldes bestimmt ist, ferner wird die Helligkeit am Abtastpunkt erhalten, und schließlich wird eine Phasenverteilung bei jedem Pixel der Berechnungszone berechnet. Bei Schritt S21 werden die berechneten Phasenverteilungen addiert, da sich die Prozesse auf dieselbe Schnittebene beziehen. Die Prozesse bei den Schritten S19 bis S21 werden wiederholt, bis die Berechnungen bezüglich aller Liniensegmente bei Schritt S22 beendet sind. Nach Vollendung der Berechnungen bei allen Liniensegmenten bei Schritt S22 folgt Schritt S23, und es erfolgt eine Prüfung, ob die Berechnungen bei allen Schnittebenen beendet sind oder nicht. Falls NEIN, kehrt die Verarbeitungsroutine zu Schritt S2 in Fig. 23 zurück, und die Prozesse hinsichtlich der nächsten Schnittebene werden ausgeführt. Nach Vollendung der Berechnungen bei allen Schnittebenen bei Schritt S23 in Fig. 25 ist eine Serie von Hologramminformationsbildungsprozessen beendet.
  • Die 1-dimensionale Phasenverteilung von jeder Scheibenoberfläche, die wie zuvor erwähnt berechnet wurde, wird zum Beispiel in einem Speicher der Phasenberechnungsvorrichtung 22, die in Fig. 4 gezeigt ist, gehalten und wird ausgelesen, wenn durch die stereoskopische Anzeigevorrichtung 24 eine stereoskopische Anzeige erfolgt. Die entsprechende Phasenverteilung wird zum Beispiel bei jedem Pixel der Flüssigkristallvorrichtung dargestellt, das Referenzucht wird auf die Phasenverteilung von einer Laserlichtquelle oder dergleichen eingestrahlt, und das Referenzlicht wird auf der Basis der dargestellten Phasenverteilung in die Wellenfront konvertiert, und ein räumliches Bild auf der Basis der gebildeten 1-dimensionalen Phasenverteilung wird angezeigt.
  • Zum Beispiel kann eine Flüssigkristallanzeige unter Verwendung eines nematischen Flüssigkristalls als Vorrichtung verwendet werden, die bei der stereoskopischen Anzeige eingesetzt wird. Jedes Flüssigkristallelement ändert die Phase des Referenzuchtes in einem Bereich von 0 bis 2π durch ein Phasenverteilungssignal und führt die Wellenfrontkqnvertierung aus, um ein räumliches Bild anzuzeigen.
  • Gemäß dem oben beschriebenen Verfahren wird ein Objekt als Anzeigeziel durch ein Polygon dargestellt, das durch einen Satz von Dreiecksebenenelementen konstruiert ist, und das Liniensegment auf Grund des Schneidens der Polygon ebenenelemente wird bei jeder Schnittebene erhalten, die in dem virtuellen Raum zur Phasenberechnung festgelegt ist, um zu der horizontalen Ebene parallel zu sein. Auf Grund dessen kann durch Erhalten der 1-dimensionalen Phasenverteilung, bei der die Abtastpunkte in regelmäßigen Intervallen auf dem Liniensegment angeordnet wurden, eine Menge an Berechnungen der Phasenverteilung des Hologramms, die bislang eine extrem große Menge an Berechnungen erforderte, beträchtlich reduziert werden.
  • Die Liniensegmente, die das Zielobjekt darstellen, werden in dem virtuellen Raum, in dem die Hologrammoberfläche, das Sehfeld und Grenzoberflächen angeordnet wurden, extrahiert. Vor der Phasenberechnung werden die Prozesse von dem virtuellen Raum in den realen Raum konvertiert, in dem die tatsächliche Anzeigevorrichtung oder die Wellenlänge von Referenzucht berücksichtigt wurden, wodurch die 1-dimensionale Phasenverteilung erhalten wird. Die Liniensegmentinformationen des Ziels, die als Basis der Phasenberechnung dienen, können bedingungslos erhalten werden, ohne auf die Vorrichtung zur stereoskopischen Anzeige begrenzt zu sein. Die Phasenberechnung, die an die tatsächliche Vorrichtung angepaßt ist, kann leicht ausgeführt werden. Da ferner die Technik des Prozesses für verdeckte Ebenen in der Computergrafik bei der Helligkeitsberechnung des Liniensegmentes verwendet wird, kann ein räumliches Bild mit einem realen stereoskopischen Gefühl angezeigt werden.
  • Die vorliegende Erfindung ist nicht auf die obigen bevorzugten Ausführungsformen begrenzt, sondern viele Veränderungen und Abwandlungen sind möglich. Die Erfindung ist auch nicht auf die in den Ausführungsformen angegebenen Zahlen werte begrenzt.

Claims (17)

1. Ein Hologramminformationsbildungsverfahren mit:
einem Schritt zum Festlegen eines virtuellen Raumes, der in einem virtuellen Raum das Definieren einer Hologrammoberfläche umfaßt, bei der eine Phasenverteilung zu berechnen ist, eines Sehfeldes, von dem aus das Bild des Objektes sichtbar ist, das durch die Phasenverteilung auf der genannten Hologrammoberfläche zu rekonstruieren ist, und stereoskopischer Anzeigegrenzen;
einem Objektdarstellungsschritt, der das Definieren des Objektes, das in dem genannten virtuellen Raum stereoskopisch anzuzeigen ist, durch einen Satz von Mikropolygonen umfaßt;
einem Schritt zum Festlegen von Schnittebenen, der das Definieren von einer Vielzahl von parallelen Ebenen in dem genannten virtuellen Raum umfaßt, die das genannte Objekt kreuzen;
einem Liniensegmentberechnungsschritt, der das Berechnen der Liniensegmente umfaßt, die aus dem Überschneiden der genannten Polygone mit jeder der genannten Schnittebenen resultieren;
einem Liniensegmenteinstellschritt, der das Abschneiden der Abschnitte der genannten Liniensegmente außerhalb der stereoskopischen Anzeigegrenzen und das Teilen der Schnittliniensegmente an ihren Kreuzungspunkten umfaßt;
einem Liniensegmentextraktionsschritt zum Teilen der verbleibenden Liniensegmente in Abschnitte, die von der gesamten Zone des genannten Sehfeldes aus gesehen werden können, und in Abschnitte, die durch andere Liniensegmente versperrt sind und somit nur von einem Teil des Sehfeldes aus gesehen werden können, wodurch die sichtbaren Liniensegmente extrahiert werden;
einem Abtastschritt zum Festlegen von Abtastpunkten auf den extrahierten sichtbaren Liniensegmenten;
einem Phasenverteilungsberechnungsschritt für jede Schnittebene, zum Berechnen einer eindimensionalen Hologrammphasenverteilung auf der genannten Hologrammoberfläche für jeden der genannten Abtastpunkte in jener Schnittebene; und
einem Phasenverteilungsaddierschritt für jede Schnittebene, zum Addieren der genannten eindimensionalen Hologrammphasenverteilungen, die für alle verschiedenen Abtastpunkte in jener Schnittebene berechnet wurden.
2. Ein Verfahren nach Anspruch 1, wobei bei dem genannten Schritt zum Festlegen des virtuellen Raumes eine diagonale Ebene, die durch Verbinden der gegenüberliegenden Seiten der rechteckigen Hologrammoberfläche und entsprechender gegenüberliegender Seiten des Sehfeldes konstruiert wird, als Grenzoberfläche festgelegt wird, die die genannten stereoskopischen Anzeigegrenzen bezeichnet.
3. Ein Verfahren nach Anspruch 1 oder 2, wobei bei dem genannten Schritt zum Festlegen des virtuellen Raumes ein Ursprung mit 3-dimensionalen Koordinaten an der zentralen Position der Hologrammoberfläche festgelegt wird und Positionskoordinaten im virtuellen Raum unter Verwendung des genannten Ursprungs als Referenz dargestellt werden.
4. Ein Verfahren nach Anspruch 1, 2 oder 3, wobei die genannten Polygone bei dem genannten Objektdarstellungsschritt Dreiecksebenenelemente sind.
5. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, wobei bei dem genannten Schritt zum Festlegen von Schnittebenen eine Vielzahl von Ebenen in regelmäßigen Intervallen festgelegt wird.
6. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, wobei bei dem genannten Liniensegmenteinstellschritt der Abschnitt außerhalb der Grenzoberfläche der genannten stereoskopischen Anzeigegrenzen bezüglich des Liniensegmentes in der Schnittebene abgeschnitten wird, wodurch das Liniensegment auf die Anzeigegrenzen begrenzt wird.
7. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, wobei bei dem genannten Liniensegmenteinstellschritt zwei oder mehr Schnittliniensegmente an ihren Kreuzungspunkten geteilt werden.
8. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, wobei bei dem genannten Liniensegmentextraktionsschritt eine Gruppe von Endpunkten auf beiden Seiten des Liniensegmentes und zwei Punkte, die die Sichtbarkeit des Liniensegmentes begrenzen, Liniensegmentinformationen bilden.
9. Ein Verfahren nach Anspruch 8, wobei bei dem genannten Liniensegmentextraktionsschritt hinsichtlich des Liniensegmentes, das von der gesamten Zone des Sehfeldes aus gesehen werden kann, eine Gruppe von Endpunkten auf beiden Seiten des Liniensegmentes und Endpunkte auf beiden Seiten des Sehfeldes Liniensegmentinformationen bilden.
10. Ein Verfahren nach Anspruch 8, wobei bei dem genannten Liniensegmentextraktionsschritt hinsichtlich des Liniensegmentes, das von einem Teil des Sehfeldes aus gesehen werden kann, Endpunkte eines anderen Liniensegmentes, das die Beobachtung begrenzt, Liniensegmentinformationen bilden.
11. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, wobei bei dem genannten Abtastschritt Abtastpunkte auf den extrahierten Liniensegmenten in regelmäßigen Intervallen festgelegt werden.
12. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, bei dem das Festlegungsintervall der Abtastpunkte auf der Basis einer Auflösung des menschlichen Auges festgelegt wird, bei der ein Array der genannten Abtastpunkte als kontinuierliche Linie gesehen werden kann, wenn es von einer Position aus gesehen wird, die von dem genannten Array der Abtastpunkte durch einen vorbestimmten Abstand entfernt ist.
13. Ein Verfahren nach Anspruch 12, bei dem der Abstand zu dem Sehpunkt, der verwendet wird, um das Intervall der Abtastpunkte zu bestimmen, derselbe wie der Abstand zwischen der Hologrammoberfläche, die in dem virtuellen Raum festgelegt ist, und dem Sehfeld ist.
14. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, wobei bei dem genannten Phasenverteilungsberechnungsschritt eine Vergrößerung für die Informationen der Liniensegmente festgelegt wird, die im virtuellen Raum erhalten wurden, um die Anzeigebedingungen an den realen Raum anzupassen, in dem die Wiedergabe der stereoskopischen Anzeige erfolgt.
15. Ein Verfahren nach Anspruch 14, bei dem die Festlegung der Vergrößerung bei dem Phasenverteilungsberechnungsschritt auf der Basis des Verhältnisses des Pixelabstandsintervalls auf der Hologrammoberfläche, die in dem virtuellen Raum festgelegt ist, und des Pixelabstandsintervalis der Anzeige erfolgt.
16. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, mit:
einem Phasenverteilungsaufzeichnungsschritt zum Aufzeichnen der berechneten eindimensionalen Phasenverteilung in einem Medium; und
einem stereoskopischen Anzeigeschritt zum Einstrahlen von Referenzlicht auf die Phasenverteilung in dem genannten Medium und zum Konvertieren des Referenzlichtes in eine Wellenfront, die das Bild des Objektes rekonstruiert.
17. Ein Verfahren nach irgendeinem der vorhergehenden Ansprüche, bei dem die eindimensionalen Hologrammphasenverteilungen für jede der Schnittebenen berechnet werden und Seite an Seite angeordnet werden, wodurch die Phasenverteilung des gesamten Hologramms gebildet wird.
DE69307088T 1992-10-14 1993-10-14 Verfahren zum Erzeugen von holographischer Information Expired - Lifetime DE69307088T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4275838A JP2999637B2 (ja) 1992-10-14 1992-10-14 ホログラム情報作成方法

Publications (2)

Publication Number Publication Date
DE69307088D1 DE69307088D1 (de) 1997-02-13
DE69307088T2 true DE69307088T2 (de) 1997-04-17

Family

ID=17561139

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69307088T Expired - Lifetime DE69307088T2 (de) 1992-10-14 1993-10-14 Verfahren zum Erzeugen von holographischer Information

Country Status (5)

Country Link
US (1) US5400155A (de)
EP (1) EP0593300B1 (de)
JP (1) JP2999637B2 (de)
CA (1) CA2107945C (de)
DE (1) DE69307088T2 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0635392A (ja) * 1992-07-20 1994-02-10 Fujitsu Ltd 立体表示装置
JP3238755B2 (ja) * 1992-08-21 2001-12-17 富士通株式会社 ホログラムの作成および立体表示方法並びに立体表示装置
JP3338479B2 (ja) * 1992-09-18 2002-10-28 富士通株式会社 ホログラムの作成および立体表示方法並びに立体表示装置
JPH07253749A (ja) * 1994-03-15 1995-10-03 Fujitsu Ltd 立体表示装置
US5910834A (en) * 1996-07-31 1999-06-08 Virtual-Eye.Com, Inc. Color on color visual field testing method and apparatus
US5864384A (en) * 1996-07-31 1999-01-26 Mcclure; Richard J. Visual field testing method and apparatus using virtual reality
US6277037B1 (en) 1997-10-03 2001-08-21 Performance Dynamics Llc Golf ball with water immersion indicator
US6608911B2 (en) * 2000-12-21 2003-08-19 Digimarc Corporation Digitally watermaking holograms for use with smart cards
EP1008919A1 (de) * 1998-12-09 2000-06-14 Communauté Européenne (CE) Computergestütztes Verfahren und Vorrichtung zur Wiedergabe von dreidimensionalen Bildern
US6195184B1 (en) 1999-06-19 2001-02-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration High-resolution large-field-of-view three-dimensional hologram display system and method thereof
CH695282A5 (de) * 1999-10-15 2006-02-28 Franz R Klingenberg Abbildung eines Ausschnittes der Oberflaeche eines Himmelskoerpers, Verfahren zur Herstellung der Abbildung und Verwendung der Abbildung.
JP2005502095A (ja) * 2000-11-07 2005-01-20 ホログラフイツク・イメージング・エル・エル・シー 改良型3次元ディスプレイ
CA2364601A1 (en) * 2001-12-03 2003-06-03 Utar Scientific Inc. Computer-assisted hologram forming method and apparatus
JP3895166B2 (ja) * 2001-12-17 2007-03-22 大日本印刷株式会社 計算機ホログラムの作成方法
JP4412576B2 (ja) * 2002-10-16 2010-02-10 大日本印刷株式会社 立体マイクロパターン表示体
JP4390574B2 (ja) * 2003-03-31 2009-12-24 富士通株式会社 複数のポリゴンから構成される3次元モデルを2次元平面に投影する際の陰線を消去する陰線処理方法
EP1686434A4 (de) * 2003-11-04 2010-11-24 Dainippon Printing Co Ltd Computerhologramm, bei dem dreidimensionales objekt mit visualisierungsquerschnitt aufgezeicnet wird, holographisches stereogrammerzeugungsverfahren und holographisches stereogramm
DE102004063838A1 (de) * 2004-12-23 2006-07-06 Seereal Technologies Gmbh Verfahren und Einrichtung zum Berechnen computer generierter Videohologramme
KR100664872B1 (ko) * 2005-04-11 2007-01-03 김영철 1차원 홀로그램을 이용한 영상 표시장치
DE102007013431B4 (de) * 2007-03-15 2018-07-05 Seereal Technologies S.A. Verfahren und Einrichtung zum Rekonstruieren einer dreidimensionalen Szene mit korrigierter Sichtbarkeit
DE102007023739B4 (de) * 2007-05-16 2018-01-04 Seereal Technologies S.A. Verfahren zum Rendern und Generieren von Farbvideohologrammen in Echtzeit und holographische Wiedergabeeinrichtung
DE102007023785B4 (de) 2007-05-16 2014-06-18 Seereal Technologies S.A. Analytisches Verfahren zu Berechnung von Videohologrammen in Echtzeit und holographische Wiedergabeeinrichtung
US9581965B2 (en) 2007-05-16 2017-02-28 Seereal Technologies S.A. Analytic method for computing video holograms in real time
JP5246864B2 (ja) * 2008-12-11 2013-07-24 独立行政法人情報通信研究機構 ホログラム生成装置、ホログラム生成方法およびホログラム生成プログラム
US20100174510A1 (en) * 2009-01-05 2010-07-08 Greco Franklin L Method and System for Generating and Providing Seating Information for an Assembly Facility with Obstructions
KR102262214B1 (ko) * 2014-09-23 2021-06-08 삼성전자주식회사 홀로그래픽 3차원 영상 표시 장치 및 방법
WO2024004739A1 (ja) * 2022-06-28 2024-01-04 ソニーグループ株式会社 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体
WO2024095753A1 (ja) * 2022-11-02 2024-05-10 ソニーグループ株式会社 表示処理装置、および表示処理方法、並びに記憶媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3816726A (en) * 1972-10-16 1974-06-11 Evans & Sutherland Computer Co Computer graphics clipping system for polygons
US3889107A (en) * 1972-10-16 1975-06-10 Evans & Sutherland Computer Co System of polygon sorting by dissection
US4669812A (en) * 1983-09-12 1987-06-02 Hoebing John L Method and apparatus for 3-D image synthesis
US4778262A (en) * 1986-10-14 1988-10-18 American Bank Note Holographics, Inc. Computer aided holography and holographic computer graphics
US5088054A (en) * 1988-05-09 1992-02-11 Paris Ii Earl A Computer graphics hidden surface removal system
US5138471A (en) * 1990-07-20 1992-08-11 Mcgrew Stephen P Holocomposer
US5237433A (en) * 1992-01-03 1993-08-17 Haines Kenneth A Methods of hologram construction using computer-processed objects

Also Published As

Publication number Publication date
JPH06130881A (ja) 1994-05-13
CA2107945A1 (en) 1994-04-15
EP0593300A1 (de) 1994-04-20
US5400155A (en) 1995-03-21
EP0593300B1 (de) 1997-01-02
CA2107945C (en) 1997-07-01
DE69307088D1 (de) 1997-02-13
JP2999637B2 (ja) 2000-01-17

Similar Documents

Publication Publication Date Title
DE69307088T2 (de) Verfahren zum Erzeugen von holographischer Information
EP2024793B1 (de) Verfahren und einrichtung zum rendern und generieren computer-generierter videohologramme
DE69408473T2 (de) Direktes rendering von texturierten höhenfeldern
EP2005259B1 (de) Verfahren zum rendern und generieren computer-generierter videohologramme in echtzeit
DE69322575T2 (de) Verfahren und Gerät zur Wiedergabe von abgeglichenen NURB Oberflächen
DE68927471T2 (de) Verfahren zur Schattierung eines graphischen Bildes
EP2062100B1 (de) Verfahren und vorrichtung zur kodierung von computergenerierten hologrammen in pixelierten lichtmodulatoren
EP2158522B1 (de) Analytisches verfahren zur berechnung von videohologrammen in echtzeit
DE69328333T2 (de) Holografisches Darstellungsverfahren und -gerät
DE102007013431B4 (de) Verfahren und Einrichtung zum Rekonstruieren einer dreidimensionalen Szene mit korrigierter Sichtbarkeit
DE102008000589B4 (de) Verfahren zur Kodierung von computergenerierten Hologrammen in pixelierten Lichtmodulatoren
DE69916450T2 (de) Verfahren zum suchen von bildern, basierend auf einer invarianten indizierung der bilder
DE102004063838A1 (de) Verfahren und Einrichtung zum Berechnen computer generierter Videohologramme
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE102006003741A1 (de) Verfahren zum Kodieren eines computergenerierten Hologramms
DE102012210521A1 (de) Unbeschnittene Zeit- und Linsen-Begrenzungen für verbesserte Probentest- Effizienz bei Bild-Rendering
WO2008110476A2 (de) Holographisches projektionsdisplay mit korrigierter phasenkodierung
DE69924230T2 (de) Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten
DE102006023633A1 (de) Gleichzeitige Projektion von mehrfach verzweigten Gefäßen und ihrer Umgebung auf einem einzigen Bild
DE102011076878A1 (de) Verfahren und Vorrichtung zur effizienten Editierung eines dreidimensionalen Volumens mittels Ray Casting
DE102009042326A1 (de) Interaktive Veränderung der Darstellung eines mittels Volume Rendering dargestellten Objekts
EP1184812A1 (de) Stufenfreie Darstellung von zwei- oder dreidimensionalen Datensätzen durch krümmungsminimierende Verschiebung von Pixelwerten
DE3419098A1 (de) Bildschirm zur raeumlich-dreidimensionalen darstellung von bildern, graphiken und sonstigen daten
DE3837068B4 (de) Bildverarbeitungsverfahren zur Gewinnung eines Schattenbildes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: SEEGER SEEGER LINDNER PARTNERSCHAFT PATENTANWAELTE