FR2832892A1 - Camera video d'effets speciaux - Google Patents

Camera video d'effets speciaux Download PDF

Info

Publication number
FR2832892A1
FR2832892A1 FR0115408A FR0115408A FR2832892A1 FR 2832892 A1 FR2832892 A1 FR 2832892A1 FR 0115408 A FR0115408 A FR 0115408A FR 0115408 A FR0115408 A FR 0115408A FR 2832892 A1 FR2832892 A1 FR 2832892A1
Authority
FR
France
Prior art keywords
image
camera
infrared
distance
shutter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0115408A
Other languages
English (en)
Other versions
FR2832892B1 (fr
Inventor
Bernard Tichit
Bruno Botte
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to FR0115408A priority Critical patent/FR2832892B1/fr
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to DE60239285T priority patent/DE60239285D1/de
Priority to US10/496,740 priority patent/US7259375B2/en
Priority to EP02781318A priority patent/EP1449358B1/fr
Priority to JP2003548526A priority patent/JP4825401B2/ja
Priority to PCT/EP2002/012853 priority patent/WO2003047241A1/fr
Publication of FR2832892A1 publication Critical patent/FR2832892A1/fr
Application granted granted Critical
Publication of FR2832892B1 publication Critical patent/FR2832892B1/fr
Priority to JP2009079451A priority patent/JP4965597B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

L'invention propose une caméra vidéo munie de moyens de télémétrie (8 à 12) qui fournissent parallèlement à l'image une information relative à la distance de chacun des points filmés d'une image. Une clef de découpe calculée sur l'information relative à la distance peut être calculée de la même manière qu'une clef de chrominance sans utiliser de fond coloré.

Description

<Desc/Clms Page number 1>
Caméra vidéo d'effets spéciaux
L'invention se rapporte à une caméra vidéo d'effets spéciaux, et en particulier à une caméra de télévision permettant de faciliter certains effets spéciaux.
Une caméra vidéo sert à filmer des séquences d'images vidéo.
L'utilisation de la séquence d'image vidéo, notamment lors d'émission de télévision, nécessite différents traitements. Parmi les traitements connus, les effets spéciaux servent à modifier la séquence d'images filmées afin d'ajouter ou de supprimer des détails plus ou moins importants sur les images. Pour faciliter certains traitements et autoriser une utilisation en direct, différents procédés sont connus.
Une technique utilise l'incrustation à l'aide d'une clef de chrominance (connu en anglais sous le nom de chroma-key). Cette technique utilise un fond de scène coloré, par exemple en bleu ou en vert, et la détection de la couleur du fond permet d'isoler un ou plusieurs sujets en temps réel par détection de la chrominance exacte au niveau d'un mélangeur vidéo. Ce procédé est très largement utilisé en télévision et en cinéma pour changer le fond d'évolution des sujets filmés. Il est également connu d'avoir recours à plusieurs couleurs simultanément pour faire de la double incrustation d'image ou repérer les angles de prise de vue afin de récréer virtuellement un décor.
Cette technique est très satisfaisante dans son ensemble bien qu'elle comporte un certain nombre d'inconvénients. Parmi les inconvénients, un premier inconvénient est lié à la couleur du fond qui ne doit pas être utilisée sur les sujets et qui change la couleur de l'éclairage. Un deuxième inconvénient concerne les effets de bord c'est à dire le changement de la couleur au niveau de la transition entre le sujet et le fond.
Un troisième inconvénient concerne le masquage partiel d'un sujet lorsque le fond incrusté le nécessite. Un quatrième inconvénient est tout simplement lié à l'obligation de tourner dans un studio spécifiquement équipé.
Il existe des solutions pour minimiser ou supprimer tous les inconvénients précités. Cependant certaines de ces solutions sont coûteuses et ne sont pas utilisables en direct ou font apparaître des défauts visibles. Le gommage complet du fond d'une scène filmée en extérieur est
<Desc/Clms Page number 2>
une opération longue qui nécessite un traitement image par image et l'appréciation d'un opérateur.
L'invention propose une caméra vidéo qui permet de s'affranchir du fond coloré en permettant une utilisation en direct d'une même qualité. Pour supprimer le fond coloré, la caméra est munie de moyens de télémétrie qui fournissent parallèlement à l'image une information relative à la distance de chacun des points filmés d'une image. Ainsi, un mélangeur vidéo pourra utiliser une clef de découpe calculée sur l'information relative à la distance de la même manière qu'une clef de chrominance sans utiliser de fond coloré.
L'invention est un système de caméra vidéo comprenant des moyens d'acquisition d'image pour fournir un flux d'images vidéo et des moyens de télémétrie pour fournir parallèlement à au moins une image et pour chaque point de la au moins une image une information relative à la distance entre la caméra et le point sujet correspondant au point de l'image.
Préférentiellement, les moyens de télémétrie comprennent : une source intermittente de lumière non visible, un capteur d'image fonctionnant dans la gamme de lumière non visible de la source intermittente, un obturateur placé devant le capteur d'image fonctionnant dans la gamme de lumière non visible, des moyens de synchronisation pour synchroniser l'obturateur et la source intermittente, et des moyens de traitement pour transformer l'information de luminosité en information relative à la distance.
L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : la figure 1 représente une caméra selon l'invention, les figures 2 à 4 illustrent le principe de fonctionnement de l'invention, la figure 5 montre un circuit de calcul de distance selon l'invention, la figure 6 illustre une variante du principe de fonctionnement, la figure 7 illustre un mode d'utilisation utilisant des paramètres de fonctionnement différents, la figure 8 montre une variante de caméra compacte selon l'invention.
<Desc/Clms Page number 3>
La figure 1 représente une caméra vidéo selon l'invention qui comporte un objectif 1, incluant éventuellement un zoom, un premier séparateur optique 2 et un deuxième séparateur optique 3 placé dans un même axe optique 14. Le premier séparateur optique 2 est placé entre l'objectif 1 et le deuxième séparateur optique 3. Le premier séparateur optique 2 comporte une surface dichroïque qui dévie par exemple perpendiculairement à l'axe optique 14 les rayons infrarouges situés en dessous du spectre visible et reste transparent pour le spectre visible. Le deuxième séparateur optique 3 est un séparateur à prisme connu comportant des couches dichroïques afin de séparer la lumière rouge, verte et bleue selon trois directions différentes.'
Trois capteurs d'image 4,5 et 6 de type CCD (de l'anglais Charge Coupled Device) sont placés autour du deuxième séparateur optique 3 selon une technique connue afin de fournir respectivement des images rouges, vertes et bleues à un circuit de traitement d'image 7. Le dispositif de traitement d'image effectue tous les traitements et corrections nécessaire à l'obtention d'une image de qualité professionnelle classique et fournit un flux d'image vidéo. L'ensemble constitué du deuxième séparateur optique 3 des trois CCD 4 à 6 et du circuit de traitement d'image 7 forme des moyens d'acquisition d'image connus qui ne seront pas développés plus en détail.
Un capteur d'image infrarouge 8 est placé à proximité du premier séparateur optique 2 dans l'axe de déviation du séparateur afin de prendre une image infrarouge correspondant à l'image filmée par les moyens d'acquisition d'image 3 à 7. Préférentiellement le capteur d'image infra rouge 8 est un CCD du même type que ceux utilisés pour l'acquisition d'image afin d'avoir une image de même résolution spatiale et afin de travailler avec un rayonnement infrarouge proche du visible qui se comporte comme de la lumière visible à travers l'objectif. Afin de transformer l'image infrarouge en information relative à la distance un obturateur 9 placé entre le premier séparateur optique 2 et le CCD 8 afin d'échantillonner le rayonnement infrarouge vu par le CCD 8. Une source infrarouge 10 éclaire la scène filmée de manière pulsée et un circuit de synchronisation 11 synchronise l'obturateur 9, la source infrarouge 10 et le CCD 8 afin de réaliser une intégration optique de distance directement sur le CCD 8. L'obturateur 9 peut être réalisé soit avec des moyens mécaniques (par exemple un disque piloté par un moteur pas à pas) soit avec une valve optique. La source infrarouge 10 est par exemple constituée d'un panneau de diodes infrarouges qui
<Desc/Clms Page number 4>
émettent de la lumière infrarouge proche de la lumière visible, par exemple sur une longueur d'onde comprise entre 0,7 et 0, 8 pm. Un circuit de calcul de distance 12 transforme les images infrarouges en information de distance en parallèle avec le traitement d'image de sorte que pour chaque point d'une image une information de distance propre à ce point lui soit associée.
La figure 2 explique le principe général du fonctionnement du dispositif de télémétrie utilisé. Pour cette figure, on suppose que la caméra filme un fond uniforme placé à une distance d de la caméra qui renvoie la lumière infrarouge sans atténuation. La figure 2a représente l'éclairement pulsé produit par la source infrarouge 10. La source 10 éclaire pendant la moitié d'une période TIR. La figure 2b représente la lumière infrarouge reçue par l'objectif 1 de la caméra qui correspond à la lumière infrarouge réfléchie par le fond uniforme. La lumière reçue se trouve être une lumière pulsée de même forme que la lumière émise mais déphasée d'un temps égal au temps nécessaire à la lumière pour aller de la source infrarouge 10 au fond uniforme et du fond uniforme jusqu'à l'objectif de la caméra. Si la source 10 et la caméra sont dans un plan parallèle au fond uniforme le retard Rt du train lumineux de la figure 2a par rapport à la figure 2b est égal à 2*d/c où c est la vitesse de la lumière. La figure 2c représente l'ouverture de l'obturateur 9 qui est synchronisée avec la source infrarouge 10. La figure 2d montre la lumière infrarouge reçue par le CCD 8 à travers l'obturateur. Durant le temps de prise d'image, le CCD va intégrer la somme de lumière reçue et fournir une image uniforme (représentative du fond uniforme) dont la luminosité intégrée par le capteur est relative à la distance.
Sur la figure 3, la courbe 20 correspond au niveau de gris d'un point du CCD 8 en fonction de la distance d'un objet filmé ayant une réflectivité idéale au rayonnement infrarouge de la source infrarouge 10. La courbe 21 correspond à l'atténuation de la lumière en fonction de la distance. La courbe 20 correspond au produit d'un signal triangulaire de demi-période D=c. TIR/4 par la courbe 21. L'homme du métier peut voir que l'information de distance n'est pas absolue et dépend elle-même de la distance. Cependant, si l'on fonctionne avec une profondeur de champ égale à D, on s'aperçoit que l'information de distance est quasi linéaire.
Afin d'optimiser l'intégration lumineuse faite au niveau du CCD 8, il est préférable d'avoir un nombre entier de périodes d'éclairement pendant la période d'échantillonnage d'une image du CCD 8. On choisit par exemple une fréquence d'éclairement multiple de la fréquence trame et sous-multiple
<Desc/Clms Page number 5>
de la fréquence pixel. A titre d'exemple on prend par exemple une période TIR égale à la fréquence pixel c'est à dire à 13,5 MHz soit une période TIR = 74 ns. La distance D devient alors égale à environ 5,5 m, ce qui peut convenir dans certain cas.
Cependant lorsque l'on filme une scène réelle, il est rare que tous les objets filmés aient une réflectivité idéale vis à vis d'un rayonnement visible ou invisible. Afin de s'affranchir des problèmes dus à la réflectivité des objets filmés, il convient d'utiliser une image de référence sur laquelle on mesure la luminosité des objets constituant la scène sans se préoccuper de la distance. Une première solution consiste à effectuer la mesure de distance une image sur deux. Cependant, les CCD actuels peuvent être utilisés à des fréquences d'échantillonnage d'image plusieurs fois supérieures aux fréquences images courantes qui sont de 50 ou 60 Hz. Ainsi selon un mode préféré de l'invention, le CCD 8 travaille deux fois plus vite que les CCD 4 à 6 qui servent à l'acquisition de l'image.
La figure 4a représente temporellement l'acquisition des images visibles. Pendant une première période T1, les CCD 4 à 6 réalisent l'intégration d'une trame (ou d'une image si la caméra fonctionne en mode progressif). Pendant une période T2 qui suit la période T1, les CCD 4 à 6 fournissent en sortie la trame reçue pendant la période T1 et réalise l'intégration de la trame suivante.
La figure 4b représente l'ouverture de l'obturateur 9 qui reste ouvert pendant la première moitié de la période T1 et qui réalise un échantillonnage lumineux synchrone avec la source infrarouge 10 pendant la deuxième moitié de la période T1. Il est à noter que pendant la première moitié de la période T1, la source infrarouge 10 peut être allumée soit de manière continue, soit de manière alternée. Il est également possible que, pendant la première moitié de la période T1, la source infrarouge 10 soit allumée en permanence et que l'obturateur 9 s'ouvre et se ferme de manière alternée. Ce qui importe est d'avoir pendant la première moitié de la période T1 une trame infrarouge de référence, c'est à dire indépendante de la modulation lumineuse réalisée simultanément sur l'obturateur 9 et la source infrarouge 10.
La figure 4c montre l'intégration lumineuse réalisée par le CCD 8.
Pendant la première moitié de la période T1, le CCD 8 réalise une intégration dans l'infrarouge de la trame RD1 correspondant à la trame intégrée pendant la période T1. Pendant la deuxième moitié de la période
<Desc/Clms Page number 6>
Figure img00060001

T1, le CCD 8 fournit les points correspondant à la trame RD1 et réalise l'intégration d'une trame 01 incluant l'information de distance grâce à la modulation lumineuse faite dans l'infrarouge, la trame 01 correspondant à la trame intégrée pendant la période T1. Au cours de la première moitié de la période T2, le CCD 8 fournit les points correspondant à la trame D1 et réalise l'intégration d'une trame RD2 dans l'infrarouge, la trame RD2 correspondant à la trame intégrée pendant la période T2. Au cours de la deuxième moitié de la période T2, le CCD 8 fournit les points correspondant à la trame RD2 et réalise l'intégration d'une trame D2 incluant l'information de distance grâce à la modulation lumineuse faite dans l'infrarouge, la trame D2 correspondant à la trame intégrée pendant la période T2.
Figure img00060002
Bien que les trames RD1 et D1 (et les trames RD2 et D2) ne correspondent pas temporellement à la même scène, on considère qu'elles correspondent toutes deux à la trame image intégrée pendant la période T1. L'homme du métier comprendra que l'on peut inverser temporellement l'intégration de ces deux trames.
Pour conserver une trame qui ne comporte que l'information de distance, une technique simple consiste à diviser point par point la trame 01 par la trame RD1. En effet, le niveau de gris des points de la trame RD1 peut s'exprimer ainsi : ng1 = P1*RP1+GS1 où P1 est la puissance lumineuse émise par la source infrarouge 10, où RP1 est un coefficient d'atténuation incluant la réflectivité et l'atténuation liée à la distance entre la source 10 et la point filmé, et où GS1 est la luminance naturelle du point dans le spectre infrarouge considéré. Le niveau de gris d'un point de la trame D1 peut s'exprimer ainsi ng2 = P2*RP2*KM+GS2 où P2 est la puissance lumineuse émise par la source infrarouge 10, où RP2 est un coefficient d'atténuation incluant la réflectivité et l'atténuation liée à la distance entre la source 10 et le point filmé, où KM est le coefficient de distance lié à la modulation lumineuse entre la source 10 et l'obturateur 9, et où GS2 est la luminance naturelle du point dans le spectre infrarouge considéré. Si l'on effectue le rapporte ng2/ng1 on obtient le rapport (P2*RP2*KM+GS2)/ (P1*RP1+GS1).
Si l'on compare une image infrarouge naturelle avec une image infrarouge produite par éclairement infrarouge dans le spectre correspondant à une longueur d'onde comprise entre 0,7 et 0, 8 um, on s'aperçoit que l'image naturelle est très faible et peut être considérée comme négligeable. En négligeant la luminance naturelle, le rapport ng2/ng1 devient P2*RP2*KM/ P1*RP1. Or la puissance lumineuse infra P1 est égale à k*P2 avec k un
<Desc/Clms Page number 7>
coefficient égal à 1 ou 1/2 suivant que l'on module ou pas la source 10 en gardant l'obturateur 9 ouvert. Par ailleurs, les trames RD1 et 01 correspondent spatialement aux mêmes points du CCD 8. Si l'on considère que la scène évolue peu entre les trames RD1 et 01 on a alors RP1 = RP2.
Le rapport ng2/ng1 est donc sensiblement égal à KM/k.
L'homme du métier peut penser que le calcul peut être faux pour des faibles réflectivités d'objet. Or, dans la bande infra-rouge considérée, tous les objets présentent une réflectivité minimale qui est facilement récupérable avec des CCD car les CCD disposent d'une dynamique de 85 dB ce qui permet d'avoir une résolution de 14 bits et donc une précision suffisante pour les faibles niveaux de luminosité.
La figure 5 montre un exemple de réalisation du circuit de calcul de distance 12. L'entrée du circuit de calcul 12 reçoit les données provenant du capteur d'image infrarouge 10 sous forme d'une succession de points constituant l'image précédemment intégrée par le CCD. Une mémoire 30 mémorise les points provenant du CCD lorsqu'il s'agit d'une trame RDi c'est à dire une trame infrarouge de référence et restitue sur une sortie les points de la trame mémorisée lorsque le CCD fournit une trame Di, c'est à dire une trame infrarouge représentative de la distance. Un circuit de division 31 dispose d'une première entrée recevant la succession de points provenant du capteur d'image infrarouge 10 et d'une deuxième entrée connectée à la mémoire 30. Le circuit de division 31 est préférentiellement réalisé à l'aide d'une table de correspondance, plus connue sous le nom de LUT (de l'anglais Look Up Table) qui fournit sur une sortie le résultat k. a/b ou 0 si b est égal à 0, a et b étant les valeurs présentes respectivement sur les première et deuxième entrées. Lorsque le capteur d'image infrarouge 10 fournit la succession de point correspondant à une trame Di, la mémoire 30 fournit de manière synchronisée les points correspondant à la trame RDi de sorte que le circuit de calcul 12 reçoit simultanément sur ses deux entrées deux points situés à une même place de l'image. Ainsi, la sortie du circuit de division 31 fournit pour chaque point de la trame l'information KM = k. ng2/ng1. Un tampon mémoire 32 de type FIFO (de l'anglais First In First Out) est connecté à la sortie du circuit de division afin de synchroniser les données de distance avec les points d'image fournis par le circuit de traitement d'image 7.
La figure 6 présente une amélioration possible du système en jouant sur la synchronisation. Il a été vu précédemment que l'information
<Desc/Clms Page number 8>
relative à la distance correspond à une fonction cyclique de la distance. L'idéal est de travailler sur une zone linéaire ou quasi-linéaire de cette fonction. Or il s'avère que la zone située à proximité de la caméra est généralement libre de tout objet et ne nécessite pas de contrôle de distance.
La figure 6a représente l'éclairement pulsé produit par la source infrarouge 10. La figure 6b représente la lumière infrarouge reçue par l'objectif 1 de la caméra. La figure 6c représente l'ouverture de l'obturateur 9 qui est synchronisée avec la source infrarouge 10. La figure 6d montre la lumière infrarouge reçue par le CCD 8 à travers l'obturateur. La figure 6e montre la courbe représentative du coefficient de distance KM en fonction de la distance d'un objet filmé.
Un déphasage dT est introduit entre la période d'éclairement de la scène et la période d'ouverture/fermeture de l'obturateur 8. Le déphasage dT se soustrait au retard Rt indiqué précédemment. Ainsi on obtient un déphasage de la périodicité du signal KM égal à c. dT. Le déphasage dT est déterminé par la distance minimale Dm d'utilisation de la caméra par la relation Dm = c. dT. Par distance minimale d'utilisation de la caméra, il faut comprendre distance de la caméra où l'on est sûr de n'avoir aucun élément autre qu'un sujet à filmer.
La figure 7 illustre un exemple de fonctionnement utilisant des périodes d'éclairement TIR différentes. La figure 7a représente une prise de vue en extérieure par une caméra 100 réalisée selon l'invention qui filme une scène délimitée par l'ouverture de l'objectif de la caméra représenté par les lignes 101 devant un bâtiment 102 qui limite la profondeur de champ. La prise de vue a pour objet de filmer deux personnages 103 et 104 qui évoluent dans une zone 105 devant le bâtiment 102. Dans cet exemple, une zone 106 placée entre le bâtiment 102 et la zone 105 ne peut être contrôlée et des personnes 107 à 109 peuvent y évoluer pendant la prise de vue.
La figure 7b montre la courbe représentative de l'information de distance KM en utilisant une période d'éclairement infrarouge TIR de 74 ns.
La distance minimum Dm est par exemple fixée à 0,5 m. Une première zone de fonctionnement où l'information KM est considérée proportionnelle à la distance est comprise entre Dm et D, avec D égal à environ 6 m, la périodicité étant d'environ 11 m. Dans l'exemple de prise de vue, on s'aperçoit que la zone 105 se situe aux alentours de 6 m, que la zone 106 se situe aux alentours de 11,5 m et que le bâtiment se situe aux alentours de
17 m. Pour pouvoir supprimer les personnages gênants de la zone 106, une
<Desc/Clms Page number 9>
clef de découpage peut être calculée à partir de l'information de distance par une simple comparaison à un seuil S1. Les parties de l'image qui sont enlevées par la clef de découpe peuvent alors être remplacées à l'aide d'une image de référence prise sans personnage dans la zone 105. L'image de référence peut également être une image reconstituée à partir de quelques images prises juste avant la prise de vue sans les personnages 103 et 104.
Dans le cas où la prise de vue correspond à un reportage en direct pour la télévision, il est possible de supprimer les personnages circulant à l'arrière plan en ayant pris l'image de référence juste avant. Par contre, la suppression totale du bâtiment 102 ne peut pas se faire à l'aide d'une clef de découpe calculée sur l'information de distance car l'information de distance KM est au même niveau pour la zone 105 et le bâtiment 102.
Par contre si l'on choisit une période TIR de par exemple de 222 ns, l'information KM en fonction de la distance correspond à la figure 7c. La première zone de fonctionnement où l'information KM est considérée proportionnelle à la distance est comprise entre Dm et D, avec D égal à environ 17 m. Si l'on désire supprimer uniquement les personnages de la zone 106, on calcul une clef de découpe à l'aide des seuils S2 et S3. Si l'on veut supprimer en plus le bâtiment 102, il suffit de prendre en compte uniquement le seuil S2 pour la clef de découpe.
Préférentiellement, un réglage manuel de la fréquence d'éclairement infrarouge est prévu afin de pouvoir ajuster l'information de distance KM en fonction de la profondeur de champ.
La caméra présentée précédemment utilise une source infrarouge 10 externe. Afin d'avoir une caméra portable équipée selon l'invention, la source infrarouge peut être fixée sur la caméra, par exemple tout autour de l'objectif.
Afin de réduire la puissance d'illumination, il est également possible de n'éclairer que la scène filmée au travers de l'objectif. La figure 8 représente une variante compacte de l'invention dans laquelle une source infrarouge 10b éclaire à travers l'objectif 1 de la caméra. La source 10b est réalisée à l'aide d'un réseau de diodes infrarouges munies de moyens de focalisation afin de fournir un faisceau de lumière infrarouge dirigé sensiblement dans une seule direction. Un séparateur semi-réfléchissant 15 est placé dans l'axe de l'objectif entre l'objectif 1 et le premier séparateur optique 2. Le séparateur semi-réfléchissant 15 comporte une lame qui laisse passer 80% de la lumière et qui en réfléchit 20%. Ainsi, 20% de la lumière
<Desc/Clms Page number 10>
infrarouge de la source 10b est dirigée à travers l'objectif pour illuminer la scène filmée dans le spectre infra-rouge. La lumière reçue par les capteurs d'image se trouve atténuée de 20%.
D'autres variantes de l'invention sont possibles. Selon l'invention, le dispositif d'acquisition d'image est situé dans l'axe optique de l'objectif et le dispositif infrarouge se trouve dans un axe sensiblement perpendiculaire.
Cet exemple de réalisation présente l'avantage d'être relativement compact.
Cependant, il est tout à fait possible de ne pas avoir le dispositif d'acquisition d'image dans l'axe optique, l'important étant d'avoir des chemins optiques pour récupérer d'une part la lumière visible et d'autre part la lumière infrarouge.
Selon les exemples décrits, deux séparateurs sont utilisés pour d'une part séparer la lumière infrarouge et la lumière visible et d'autre part séparer la lumière visible en lumière rouge, verte et bleue. Un seul séparateur pourrait être utilisé et réaliser la séparation des quatre lumières.
Selon les exemples décrits, il est utilisé de la lumière infrarouge.
Ce choix est dicté par la simplicité de réalisation car il est possible d'utiliser un objectif standard. Toutefois, d'autres rayonnements non visibles, par exemple l'ultra violet ou tout autre type de rayonnement, pourraient être utilisés. Cependant, tous les rayonnements ne se comportant pas comme la lumière visible, il faudrait avoir recours à des objectifs plus coûteux permettant d'avoir sensiblement la même focalisation pour le rayonnement visible et non-visible utilisé.
Selon les exemples décrits, deux images infrarouges sont prises pendant que l'on prend une image visible, la première image infrarouge servant de référence à la deuxième image infrarouge pour calculer la distance. Il est tout à fait possible d'inverser ces deux images. Il est également possible d'utiliser un nombre d'images plus important afin de réaliser un calcul plus complexe et plus précis.

Claims (10)

REVENDICATIONS
1. Système de caméra vidéo comprenant des moyens d'acquisition d'image (4 à 7) pour fournir un flux d'images vidéo, caractérisé en ce qu'il comporte des moyens de télémétrie (8 à 12) pour fournir parallèlement à au moins une image et pour chaque point de la au moins une image une information (KM) relative à la distance entre la caméra et le point sujet correspondant au point de l'image.
2. Système selon la revendication 1, caractérisé en ce que les moyens de télémétrie comprennent :' - une source (10) intermittente de lumière non visible, - un capteur d'image (8) fonctionnant dans la gamme de lumière non visible de la source (10) intermittente, - un obturateur (9) placé devant le capteur d'image fonctionnant dans la gamme de lumière non visible, - des moyens de synchronisation (11) pour synchroniser l'obturateur et la source intermittente, et - des moyens de traitement (12) pour transformer l'information de luminosité en information relative à la distance.
3. Système selon la revendication 2, caractérisé en ce que la source (10) intermittente est une source de lumière infrarouge.
4. Système selon l'une des revendications 2 ou 3, caractérisé en ce que la source (10) intermittente est placée à l'intérieur de la caméra.
5. Système selon l'une des revendications 2 à 4, dans lequel les moyens d'acquisition d'image comprennent trois CCD (4 à 6), caractérisé en ce que le capteur d'image (8) fonctionnant dans la gamme de lumière non visible est un CCD du même type que ceux utilisés dans les moyens d'acquisition d'image.
6. Système selon la revendication 5, caractérisé en ce qu'il comporte un séparateur optique (2) entre les moyens d'acquisition d'image
<Desc/Clms Page number 12>
et un objectif (1), ledit séparateur optique séparant la lumière visible et la lumière non visible selon deux directions distinctes.
7. Système selon la revendication 5, caractérisé en ce que le capteur d'image (8) fonctionnant dans la gamme de lumière non visible fonctionne à une fréquence image double de la fréquence image des CCD (4 à 6) appartenant aux moyens d'acquisition d'images.
8. Système selon la revendication 7, caractérisé en ce que le capteur (8) fonctionnant dans la gamme de lumière non visible prend des premières images en ayant l'obturateur ouvert et/ou la source intermittente allumée en continue et des deuxièmes images en ayant la source intermittente et l'obturateur s'ouvrant et se fermant plusieurs fois de manière synchrone de manière synchrone, les première et deuxièmes images étant alternées.
9. Système selon la revendication 8, caractérisé en ce qu'il y a un déphasage entre l'obturation de l'obturateur et la source intermittente lorsqu'ils fonctionnent de manière synchrone.
10. Système selon l'une des revendications 2 à 9, caractérisé en ce que les moyens de synchronisation comportent des moyens de réglage manuel agissant sur la vitesse d'obturation.
FR0115408A 2001-11-27 2001-11-27 Camera video d'effets speciaux Expired - Fee Related FR2832892B1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
FR0115408A FR2832892B1 (fr) 2001-11-27 2001-11-27 Camera video d'effets speciaux
US10/496,740 US7259375B2 (en) 2001-11-27 2002-11-15 Special effects video camera
EP02781318A EP1449358B1 (fr) 2001-11-27 2002-11-15 Camera video a effets speciaux
JP2003548526A JP4825401B2 (ja) 2001-11-27 2002-11-15 特別効果ビデオカメラ
DE60239285T DE60239285D1 (de) 2001-11-27 2002-11-15 Videokamera für trickeffekte
PCT/EP2002/012853 WO2003047241A1 (fr) 2001-11-27 2002-11-15 Camera video a effets speciaux
JP2009079451A JP4965597B2 (ja) 2001-11-27 2009-03-27 特別効果ビデオカメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0115408A FR2832892B1 (fr) 2001-11-27 2001-11-27 Camera video d'effets speciaux

Publications (2)

Publication Number Publication Date
FR2832892A1 true FR2832892A1 (fr) 2003-05-30
FR2832892B1 FR2832892B1 (fr) 2004-04-02

Family

ID=8869897

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0115408A Expired - Fee Related FR2832892B1 (fr) 2001-11-27 2001-11-27 Camera video d'effets speciaux

Country Status (6)

Country Link
US (1) US7259375B2 (fr)
EP (1) EP1449358B1 (fr)
JP (2) JP4825401B2 (fr)
DE (1) DE60239285D1 (fr)
FR (1) FR2832892B1 (fr)
WO (1) WO2003047241A1 (fr)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005074257A1 (fr) * 2004-01-16 2005-08-11 Sony Computer Entertainment Inc. Procede et appareil d'optimisation des parametres d'un dispositif de capture par le biais d'informations de profondeur
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
EP2408193A3 (fr) * 2004-04-16 2014-01-15 James A. Aman Caméra pour lumière visible et non-visible pour imagerie vidéo et suivi d'objets
US9682320B2 (en) 2002-07-22 2017-06-20 Sony Interactive Entertainment Inc. Inertially trackable hand-held controller
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US11010971B2 (en) 2003-05-29 2021-05-18 Sony Interactive Entertainment Inc. User-driven three-dimensional interactive gaming environment

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4931288B2 (ja) * 2001-06-08 2012-05-16 ペンタックスリコーイメージング株式会社 画像検出装置と絞り装置
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7850526B2 (en) 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8233642B2 (en) 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US7918733B2 (en) 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US7803050B2 (en) 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US8160269B2 (en) 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US20070223732A1 (en) * 2003-08-27 2007-09-27 Mao Xiao D Methods and apparatuses for adjusting a visual image based on an audio signal
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8134637B2 (en) * 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
JP2007526453A (ja) * 2004-01-28 2007-09-13 カネスタ インコーポレイテッド 単一チップの赤、緑、青、距離(rgb−z)センサー
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
EP1979706B1 (fr) * 2006-02-02 2009-08-05 Alstom Technology Ltd Dispositif de mesure
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
KR101335346B1 (ko) 2008-02-27 2013-12-05 소니 컴퓨터 엔터테인먼트 유럽 리미티드 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
DK2538369T3 (da) * 2011-06-24 2014-04-28 Tomra Systems Asa Returmaskine og afbildningsfremgangsmåde dertil
IL217361A0 (en) * 2012-01-04 2012-03-29 Rafael Advanced Defense Sys Device & method providing combined video camera and range finder functionality
CN104243840A (zh) * 2014-09-22 2014-12-24 电子科技大学 一种在强光下获取目标图像的方法及装置
EP3214462B1 (fr) 2016-03-04 2021-04-28 ams AG Agencement de capteur optique
US10902626B2 (en) 2018-04-11 2021-01-26 International Business Machines Corporation Preventing intrusion during video recording or streaming
JP6974252B2 (ja) 2018-05-15 2021-12-01 京セラ株式会社 電磁波検出装置および情報取得システム
JP2020016602A (ja) * 2018-07-27 2020-01-30 京セラ株式会社 電磁波検出装置および情報取得システム
JP7257751B2 (ja) * 2018-07-27 2023-04-14 京セラ株式会社 電磁波検出装置
JP2020016622A (ja) * 2018-07-27 2020-01-30 京セラ株式会社 電磁波検出装置および情報取得システム
JP2020073894A (ja) * 2019-12-25 2020-05-14 京セラ株式会社 電磁波検出装置および情報取得システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997001111A2 (fr) * 1995-06-22 1997-01-09 3Dv Systems Ltd. Camera perfectionnee a telemetrie optique
DE19619186C1 (de) * 1996-05-02 1998-01-02 Pco Computer Optics Gmbh Verfahren sowie System zur Erstellung eines Bildes
WO2001018563A1 (fr) * 1999-09-08 2001-03-15 3Dv Systems, Ltd. Systeme d'imagerie 3d

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3404396A1 (de) * 1984-02-08 1985-08-14 Dornier Gmbh, 7990 Friedrichshafen Vorrichtung und verfahren zur aufnahme von entfernungsbildern
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
JP3631325B2 (ja) * 1996-06-19 2005-03-23 オリンパス株式会社 3次元画像入力装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997001111A2 (fr) * 1995-06-22 1997-01-09 3Dv Systems Ltd. Camera perfectionnee a telemetrie optique
DE19619186C1 (de) * 1996-05-02 1998-01-02 Pco Computer Optics Gmbh Verfahren sowie System zur Erstellung eines Bildes
WO2001018563A1 (fr) * 1999-09-08 2001-03-15 3Dv Systems, Ltd. Systeme d'imagerie 3d

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IDDAN G J ET AL: "3D IMAGING IN THE STUDIO (AND ELSEWHERE...)", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, no. 4298, 24 January 2001 (2001-01-24), pages 48 - 55, XP008005351 *
KAWAKITA M ET AL: "AXI-VISION CAMERA: A THREE-DIMENSION CAMERA", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, vol. 3958, 2000, pages 61 - 70, XP000987367 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9682320B2 (en) 2002-07-22 2017-06-20 Sony Interactive Entertainment Inc. Inertially trackable hand-held controller
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US11010971B2 (en) 2003-05-29 2021-05-18 Sony Interactive Entertainment Inc. User-driven three-dimensional interactive gaming environment
WO2005074257A1 (fr) * 2004-01-16 2005-08-11 Sony Computer Entertainment Inc. Procede et appareil d'optimisation des parametres d'un dispositif de capture par le biais d'informations de profondeur
EP2290949A3 (fr) * 2004-01-16 2013-09-25 Sony Computer Entertainment Inc. Procédé et appareil pour optimiser les paramètres de dispositif de capture par des informations de profondeur
EP2408193A3 (fr) * 2004-04-16 2014-01-15 James A. Aman Caméra pour lumière visible et non-visible pour imagerie vidéo et suivi d'objets
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information

Also Published As

Publication number Publication date
US7259375B2 (en) 2007-08-21
DE60239285D1 (de) 2011-04-07
FR2832892B1 (fr) 2004-04-02
JP2005521276A (ja) 2005-07-14
EP1449358A1 (fr) 2004-08-25
US20050077470A1 (en) 2005-04-14
JP4825401B2 (ja) 2011-11-30
WO2003047241A1 (fr) 2003-06-05
JP2009147987A (ja) 2009-07-02
EP1449358B1 (fr) 2011-02-23
JP4965597B2 (ja) 2012-07-04

Similar Documents

Publication Publication Date Title
FR2832892A1 (fr) Camera video d&#39;effets speciaux
EP0567385B1 (fr) Dispositif d&#39;acquisition d&#39;images d&#39;un objet
FR2904435A1 (fr) Sonde endoscopique integrant un objectif ayant un encombrement reduit
FR2519501A1 (fr) Systeme de television stereoscopique
CH644727A5 (fr) Procede et installation de prise de vue et de reproduction stereoscopique de signaux de television.
FR2910770A1 (fr) Dispositif pour permettre une communication par visioconference et procede de communication associe.
CA2387066A1 (fr) Ensemble d&#39;interface entre un utilisateur et un dispositif electronique
EP0123610B1 (fr) Appareil de projection d&#39;images vidéo en couleurs sur un écran de grandes dimensions
FR2556543A1 (fr) Appareil de separation de signal de couleur
EP0114553A1 (fr) Projecteur d&#39;images de télévision en couleurs
WO2007017582A2 (fr) Camera rapide intelligente
FR2749944A1 (fr) Appareil de lecture d&#39;images
EP0809408A1 (fr) Caméra à effets spéciaux
FR2589300A1 (fr) Dispositif permettant de transformer une representation d&#39;une image en couleur en un signal electrique, et inversement
EP1112653B1 (fr) Camera cinevideo
EP3874329B1 (fr) Imageur electronique et procédé associé
EP4208753A1 (fr) Procede d&#39;acquisition d&#39;un portrait photographique d&#39;un individu et installation mettant en oeuvre ce procede
FR2544091A1 (fr) Viseur d&#39;appareil photographique
WO1992001205A1 (fr) Appareil de projection et de prise d&#39;images pour la determination de la forme tridimensionnelle d&#39;un objet
EP0848282B1 (fr) Cabines de reproduction photographique
FR2695217A1 (fr) Appareil d&#39;émission de lumière d&#39;appoint.
BE484631A (fr)
FR2606168A1 (fr) Projecteur de vues stereoscopiques
CH513421A (fr) Procédé de formation d&#39;une image cinématographique
FR2474262A1 (fr) Camera de television du type mono-tube a analyse sequentielle des couleurs

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20110801