ES2688020T3 - Sistemas de enfoque de cámara con etiquetas de ubicación - Google Patents

Sistemas de enfoque de cámara con etiquetas de ubicación Download PDF

Info

Publication number
ES2688020T3
ES2688020T3 ES14862843.1T ES14862843T ES2688020T3 ES 2688020 T3 ES2688020 T3 ES 2688020T3 ES 14862843 T ES14862843 T ES 14862843T ES 2688020 T3 ES2688020 T3 ES 2688020T3
Authority
ES
Spain
Prior art keywords
data
focus
location
structured
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14862843.1T
Other languages
English (en)
Inventor
Douglas R. KENNEDY
Stephen A. KENNEDY
Phillip B. KENNEDY
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Free Focus Systems LLC
Original Assignee
Free Focus Systems LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Free Focus Systems LLC filed Critical Free Focus Systems LLC
Application granted granted Critical
Publication of ES2688020T3 publication Critical patent/ES2688020T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • H04N23/531Constructional details of electronic viewfinders, e.g. rotatable or detachable being rotatable or detachable
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/46Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being of a radio-wave signal type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

Un sistema (100) relacionado con la generación, para al menos un dispositivo de captura de imágenes (103), de datos de ajuste de enfoque asociados con uno o varios sujetos (113) cuyas imágenes se van a capturar, pudiéndose utilizar estos datos de ajuste de enfoque para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes, y este sistema se caracteriza por: a. al menos un generador de datos de la primera ubicación (116) estructurado y configurado para generar datos de la primera ubicación asociados con una ubicación actual de al menos un primer sujeto localizable; b. al menos un generador de datos de la segunda ubicación (120) estructurado y configurado para generar datos de la segunda ubicación asociados con una ubicación actual del dispositivo o los dispositivos de captura de imágenes; y c. al menos un calculador de distancia (112, 161, 180 y 300) estructurado y configurado para calcular una distancia actual entre el primer sujeto localizable y un punto de enfoque del generador de imágenes (122) del dispositivo o los dispositivos de captura de imágenes, en el que el calculador o los calculadores de distancia están configurados para generar la distancia actual usando los datos de la primera ubicación y los datos de la segunda ubicación; d. en el que el generador o los generadores de datos de la primera ubicación comprenden al menos un primer comunicador inalámbrico estructurado y configurado para comunicar de forma inalámbrica los datos de la primera ubicación; e. en el que el calculador o los calculadores de distancia comprenden: i. al menos un segundo comunicador inalámbrico (118) estructurado y configurado para adquirir los datos de la primera ubicación mediante la comunicación inalámbrica con el primer o los primeros comunicadores inalámbricos; ii. al menos un comunicador de datos de distancia (171) estructurado y configurado para comunicar la distancia calculada a al menos un efector de enfoque de imagen (160) que controla el estado de enfoque del dispositivo o los dispositivos de captura de imágenes; iii. una memoria de almacenamiento (127) estructurada y configurada para almacenar una pluralidad de registros de calibración, cada uno de los cuales comprende entradas de datos asociadas con al menos una configuración de hardware del dispositivo o los dispositivos de captura de imágenes; iv. al menos una interfaz de usuario de calibración (124) estructurada y configurada para ayudar a la recuperación por parte del usuario de un registro seleccionado de la pluralidad de registros de calibración guardados; v. en el que cada uno de los registros de calibración contiene al menos una entrada de datos seleccionada de entre: A. un rango de número F de lente; B. un rango de distancia focal de lente; y C. un rango de ajuste de enfoque de lente; y vi. en el que los registros de calibración pueden ser utilizados por el efector o los efectores de enfoque de imagen para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes; f. en el que el generador o los generadores de datos de la primera ubicación (116) comprenden al menos un primer acoplador de movimiento configurado para acoplar físicamente los movimientos del generador o los generadores de datos de la primera ubicación y el primer o los primeros sujetos localizables; y g. en el que el generador o los generadores de datos de la segunda ubicación (120) comprenden al menos un segundo acoplador de movimiento configurado para acoplar físicamente los movimientos del generador o los generadores de datos de la segunda ubicación y el dispositivo o los dispositivos de captura de imágenes.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Sistemas de enfoque de cámara con etiquetas de ubicación ANTECEDENTES
La materia divulgada se refiere al suministro de sistemas relacionados con sistemas de enfoque de cámara mejorados que usan etiquetas de ubicación de sujeto. Más en concreto, la materia divulgada se refiere al suministro de un sistema que comprende accesorios de cámara y tecnologías en las lentes que permiten el enfoque automático y continuo de un sujeto mediante la medición de la distancia entre la cámara y un sujeto que ha sido “etiquetado” con una baliza localizadora.
El enfoque de la imagen es uno de los aspectos más importantes en la producción de películas y vídeos. Un enfoque de imagen incorrecto puede tener un impacto significativo en el tiempo de producción y los costes de producción. Las imágenes capturadas que se arruinan debido a configuraciones de enfoque inadecuadas pueden resultar particularmente perjudiciales durante la producción de películas y vídeos. Con frecuencia se descartan las tomas o escenas desenfocadas, ya que son consideradas inutilizables por parte del equipo de producción. Desgraciadamente, esas imágenes descartadas a menudo tienen contenidos que solo aparecen una vez y que no se pueden volver a filmar o reproducir. Por ejemplo, es imposible volver a filmar eventos deportivos, bodas, etc., después de haber sido celebrados.
Para lograr un enfoque ideal, la distancia de un sujeto desde el punto focal de la cámara debe medirse y ajustarse con precisión a la configuración focal de la lente de la cámara. A menudo, una escena requiere que el enfoque de la cámara cambie entre diferentes sujetos dentro del campo de visión de la cámara. Además, las distancias entre la cámara y los sujetos pueden ser dinámicas, como por ejemplo en las cámaras montadas en una plataforma con ruedas (dolly) o en brazo de grúa, o en escenas donde los sujetos se mueven. Un sistema mejorado para ayudar a mantener un enfoque de cámara apropiado durante todos los aspectos de la captura de imágenes resultaría de gran beneficio para un gran número de profesionales en este campo.
En US2004135905 se divulga un aparato de captación de imágenes que tiene: una unidad de captación de imágenes para captar una imagen de un objeto; una unidad de detección de información para detectar, sin necesidad de contacto, información de objeto relacionada con el objeto almacenada en una etiqueta de identificación sin contacto; una unidad de registro para registrar la información de objeto detectada por la unidad de detección de información en un medio de registro, junto con los datos de imagen del objeto captado por la unidad de captación de imágenes; y una unidad de control para establecer las condiciones de detección en la unidad de detección de información de acuerdo con una condición de captación de imágenes en la unidad de captación de imágenes.
En US2004046938 se divulga un sistema automático de enfoque de lente que incluye una lente de enfoque ajustable con un controlador para enfocar la lente en un sujeto que se fotografía, un dispositivo de detección de posición de lente para detectar una posición de enfoque de la lente, un dispositivo de detección de distancia para detectar la distancia entre el sujeto y la lente y generar una representación de la señal de rango del rango del sujeto que se fotografía, un dispositivo de accionamiento automático sensible a la señal de rango para activar el controlador y ajustar la posición de la lente con el fin de enfocar el sujeto que se fotografía, un dispositivo indicador sensible a la señal de rango para activar un primer indicador indicativo del punto focal del sujeto y que responde a la configuración de la lente para activar un segundo indicador indicativo de la configuración del rango de la lente, un accionador manual sensible a una entrada manual para activar el controlador y enfocar la lente, y un dispositivo de conmutación para cambiar entre el modo automático y el modo manual.
En US2013229528 se divulga un sistema y un método para apuntar un dispositivo, por ejemplo una cámara, a un objetivo remoto en el que el apuntamiento del dispositivo está controlado por una combinación de información de ubicación obtenida por tecnología de posicionamiento global e información de orientación obtenida por detección de la línea de visión en la dirección del dispositivo al objetivo.
En ME102 Project: GPS Tracking Camera Turret (“Proyecto ME102: torreta de cámara de seguimiento GPS” (
https://www.youtube.com/watch?v=h092iEnU6n8) se divulga una cámara montada en un trípode alimentada por dos servomotores para controlar el movimiento vertical y horizontal.
En US2010002084 se divulga un sistema que incluye una cámara y una etiqueta en un objeto, [y] la etiqueta se comunica con la cámara para determinar la posición del objeto. La posición del objeto se usa a continuación para llevar a cabo el enfoque.
OBJETIVOS Y CARACTERÍSTICAS DE LA MATERIA DIVULGADA
Un objetivo y característica primarios de la presente materia divulgada es proporcionar un sistema que supere el problema mencionado anteriormente.
5
10
15
20
25
30
35
40
45
50
55
60
65
Otro objetivo y característica de la presente materia divulgada es proporcionar un sistema mejorado de enfoque de cámara que utilice accesorios de cámara y/o tecnologías en las lentes, y permita la búsqueda continua de rangos de los sujetos mediante la medición de la distancia entre la cámara y un sujeto que ha sido “etiquetado” con una baliza de localización.
Es un objetivo y característica adicionales de la presente materia divulgada proporcionar un sistema mejorado de enfoque de cámara que muestre la distancia calculada entre la cámara y un sujeto que ha sido “etiquetado” con una baliza de localización.
Es un objetivo y característica adicionales de la presente materia divulgada proporcionar un sistema mejorado de enfoque de cámara que permita el enfoque continuo y automático de un sujeto mediante el cálculo de la distancia entre la cámara y un sujeto que ha sido “etiquetado” con un baliza de localización.
Es un objetivo y característica adicionales de la presente materia divulgada proporcionar un sistema mejorado de enfoque de cámara de un tipo que permita la transición controlada de enfoque entre dos o más sujetos.
Es un objetivo y característica adicionales de la presente materia divulgada proporcionar un sistema mejorado de enfoque de cámara que incluya un accesorio de enfoque de seguimiento (follow focus) de operación manual.
Es un objetivo y característica adicionales de la presente materia divulgada proporcionar un sistema mejorado de enfoque de cámara que incluya un accesorio de enfoque de seguimiento accionado por servomotor.
Es un objetivo y característica adicionales de la presente materia divulgada proporcionar un sistema de enfoque de cámara mejorado que permita a un solo operador controlar el estado de enfoque de múltiples cámaras que capturan imágenes de múltiples sujetos.
Otro objetivo y característica primarios de la presente materia divulgada es proporcionar un sistema que sea eficiente, económico y útil. Otros objetivos y características de esta materia divulgada resultarán evidentes cuando se hace referencia a las siguientes descripciones.
CARACTERÍSTICAS DE LA INVENCIÓN
La invención se expone en las reivindicaciones 1 y 12. En un ejemplo, la materia divulgada proporciona un sistema relacionado con la generación, para al menos un dispositivo de captura de imágenes, de datos de ajuste de enfoque asociados con uno o varios sujetos cuyas imágenes se van a capturar; dichos datos de ajuste de enfoque pueden usarse para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes, y dicho sistema comprende: al menos un generador de datos de la primera ubicación estructurado y configurado para generar datos de la primera ubicación asociados con una ubicación actual de al menos un primer sujeto localizable; al menos un generador de datos de la segunda ubicación estructurado y configurado para generar datos de la segunda ubicación asociados con una ubicación actual del dispositivo o los dispositivos de captura de imágenes; y al menos un calculador de distancia estructurado y configurado para calcular una distancia actual entre dicho primer sujeto localizable y un punto de enfoque de generador de imágenes del dispositivo o los dispositivos de captura de imágenes, en el que el calculador o los calculadores de distancia están configurados para generar dicha distancia actual usando los mencionados datos de la primera ubicación y los mencionados datos de la segunda ubicación; en el que el generador o los generadores de datos de la primera ubicación comprenden al menos un primer comunicador inalámbrico estructurado y configurado para comunicar de forma inalámbrica los mencionados datos de la primera ubicación; en el que el calculador o los calculadores de distancia comprenden al menos un segundo comunicador inalámbrico estructurado y configurado para adquirir los datos de la primera ubicación mediante la comunicación inalámbrica con el primer o los primeros comunicadores inalámbricos, y al menos un comunicador de datos de distancia estructurado y configurado para comunicar la distancia calculada a al menos un efector de enfoque de imagen que controla el estado de enfoque del dispositivo o los dispositivos de captura de imágenes; en el que el generador o los generadores de datos de la primera ubicación comprenden al menos un primer acoplador de movimiento configurado para acoplar físicamente los movimientos del generador o los generadores de datos de la primera ubicación y el primer o los primeros sujetos localizables; y en el que el generador o los generadores de datos de la segunda ubicación comprenden al menos un segundo acoplador de movimiento configurado para acoplar físicamente los movimientos del generador o los generadores de datos de la segunda ubicación y el dispositivo o los dispositivos de captura de imágenes.
Por otra parte, proporciona un sistema en el que el comunicador o los comunicadores de datos de distancia comprenden al menos una pantalla de datos de distancia configurada para mostrar la distancia actual calculada. Adicionalmente, proporciona un sistema que comprende además al menos un soporte de pantalla de distancia estructurado y configurado para soportar la pantalla o las pantallas de datos de distancia adyacentes al dispositivo o los dispositivos de captura de imágenes.
Asimismo, proporciona un sistema en el que: el generador o los generadores de datos de la primera ubicación comprenden al menos una etiqueta de identificación por radiofrecuencia (RFID, por sus siglas en inglés, Radio
5
10
15
20
25
30
35
40
45
50
55
60
65
Frequency Identification) estructurada y configurada para transmitir de manera inalámbrica al menos una primera señal de radio de la cual pueden derivarse los datos de la primera ubicación; y el generador o los generadores de datos de la segunda ubicación comprenden al menos un receptor de señales rFiD estructurado y configurado para recibir la primera o las primeras señales de radio. Además, proporciona un sistema en el que: el generador o los generadores de datos de la primera ubicación comprenden al menos un primer receptor de Sistema de Posicionamiento Global (GPS) estructurado y configurado para recibir datos de señales GPS asociados con la ubicación actual del primer o los primeros sujetos localizables, al menos un primer procesador de datos de señales GPS estructurado y configurado para procesar los datos de señales GPS para formar los mencionados datos de la primera ubicación, y al menos un primer transmisor inalámbrico estructurado y configurado para transmitir de manera inalámbrica los datos de la primera ubicación; el generador o los generadores de datos de la segunda ubicación comprenden al menos un segundo receptor GPS estructurado y configurado para recibir datos de señales GPS asociados con la ubicación actual del dispositivo o los dispositivos de captura de imágenes; y el calculador o los calculadores de distancia comprenden al menos un receptor de datos inalámbrico estructurado y configurado para recibir de forma inalámbrica los datos de la primera ubicación.
También proporciona un sistema que comprende además al menos un dispositivo de enfoque de seguimiento estructurado y configurado para manipular al menos un anillo de enfoque del dispositivo o los dispositivos de captura de imágenes para ayudar a establecer, dentro del dispositivo o los dispositivos de captura de imágenes, un estado de enfoque apropiado para la generación de las imágenes que se van a capturar de los sujetos. Además, proporciona un sistema en el que el soporte o los soportes de pantalla de distancia están configurados para soportar la pantalla o las pantallas de datos de distancia desde el dispositivo o los dispositivos de enfoque de seguimiento. Asimismo, proporciona un sistema en el que el calculador o los calculadores de distancia comprenden al menos un componente de adquisición de ajuste de enfoque estructurado y configurado para adquirir al menos una configuración de enfoque de imagen actual del dispositivo o los dispositivos de captura de imágenes.
Por otra parte, proporciona un sistema en el que el calculador o los calculadores de distancia comprenden además al menos una pantalla de ajuste de enfoque estructurada y configurada para mostrar la configuración o configuraciones de enfoque de la imagen actual del dispositivo o los dispositivos de captura de imágenes. Adicionalmente, proporciona un sistema en el que el componente o los componentes de adquisición de ajuste de enfoque están configurados para adquirir al menos una configuración de enfoque de imagen actual seleccionada del grupo que consiste esencialmente en la configuración de número F (F-stop) de la lente actual y la distancia focal de la lente actual. Asimismo, proporciona un sistema en el que el calculador o los calculadores de distancia comprenden además: una memoria de almacenamiento estructurada y configurada para almacenar una pluralidad de registros de calibración, cada uno de los cuales comprende entradas de datos asociadas con al menos una configuración de hardware del dispositivo o los dispositivos de captura de imágenes; y al menos una interfaz de usuario de calibración estructurada y configurada para ayudar a la recuperación por parte del usuario de un registro seleccionado de la pluralidad de registros de calibración guardados; en el que cada uno de los registros de calibración contiene al menos una entrada de datos seleccionada del grupo que consiste esencialmente en el rango de número F de lente, el rango de distancia focal de lente y el rango de ajuste de enfoque de lente; y en el que dichos registros de calibración pueden ser utilizados por el efector o los efectores de enfoque de imagen para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes.
Asimismo, proporciona un sistema en el que: el calculador o los calculadores de distancia comprenden además al menos un generador de perfiles de sujeto estructurado y configurado para generar al menos un primer perfil de ajuste de enfoque para el primer o los primeros sujetos; en el que el generador o los generadores de perfiles de sujetos generan el primer o los primeros perfiles de ajuste de enfoque usando los mencionados datos de la primera ubicación, los mencionados datos de la segunda ubicación y la configuración o configuraciones de enfoque de la imagen actual; y en el que el primer o los primeros perfiles de ajuste de enfoque generados pueden ser utilizados por el efector o los efectores de enfoque de imagen para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes. También proporciona un sistema que además comprende: efectores de enfoque de imagen; en el que el efector o los efectores de enfoque de imagen comprenden al menos un dispositivo de enfoque de seguimiento accionado por servomotor estructurado y configurado para manipular automáticamente un anillo de enfoque del dispositivo o los dispositivos de captura de imágenes; en el que el efector o los efectores de enfoque de imagen están configurados para ayudar a establecer, dentro de los dispositivos de captura de imágenes, un estado de enfoque apropiado para la generación de las imágenes que se van a capturar de los sujetos en respuesta al primer o los primeros perfiles de ajuste de enfoque generados.
Asimismo, proporciona un sistema en el que el dispositivo o los dispositivos de enfoque de seguimiento accionados por un servomotor comprenden además: al menos un control de enfoque de operación manual configurado para permitir ajustes manuales de dicho estado de enfoque; al menos un detector de manipulación manual estructurado y configurado para detectar entradas de ajuste manual; al menos una anulación de servomotor para anular el funcionamiento automático del dispositivo o los dispositivos de enfoque de seguimiento accionados por servomotor cuando se detecta al menos una manipulación manual del control o los controles de enfoque de operación manual.
Asimismo, proporciona un sistema en el que el calculador o los calculadores de distancia comprenden además: al menos un conjunto de datos de múltiples sujetos en el que cada entrada de datos del conjunto o los conjuntos de
5
10
15
20
25
30
35
40
45
50
55
60
65
datos de múltiples sujetos identifica un sujeto localizable de un conjunto que comprende múltiples sujetos localizables; al menos un generador de perfiles de sujeto estructurado y configurado para generar al menos un perfil de ajuste de enfoque para cada entrada de datos del conjunto o los conjuntos de datos de múltiples sujetos; y al menos un selector de sujeto localizable estructurado y configurado para permitir al usuario seleccionar al menos una de dichas entradas de datos del conjunto o los conjuntos de datos de múltiples sujetos; en el que cada uno de los perfiles de ajuste de enfoque seleccionados pueden ser utilizados por el efector o los efectores de enfoque de imagen para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes. Además, proporciona un sistema en el que el calculador o los calculadores de distancia comprenden además: al menos un generador de datos de n-ubicación estructurado y configurado para generar datos de n-ubicación asociados con una ubicación actual de al menos un sujeto n-localizable; al menos un generador de perfiles de n-sujetos estructurado y configurado para generar al menos un perfil de ajuste de n-enfoques para el sujeto o los sujetos n-localizables usando dichos datos de n-ubicación; en el que cada uno de los perfiles de ajuste de enfoque seleccionados pueden ser utilizados por el efector o los efectores de enfoque de imagen para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes.
Adicionalmente, proporciona un sistema en el que el calculador o los calculadores de distancia comprenden además al menos un elemento transicionador de enfoque de sujeto estructurado y configurado para llevar a cabo una transición del estado de enfoque del dispositivo o los dispositivos de captura de imágenes entre el primer o los primeros perfiles de ajuste de enfoque generados para el primer o los primeros sujetos localizables y el perfil o los perfiles de ajuste de n-enfoque generados para el sujeto o los sujetos n-localizables. Además, proporciona un sistema en el que el elemento o los elementos transicionadores de enfoque del sujeto comprenden al menos un control de transición del usuario estructurado y configurado para permitir al usuario controlar una velocidad de cambio de dicha transición del estado de enfoque. Asimismo, proporciona un sistema en el que el calculador o los calculadores de distancia comprenden además: al menos un dispositivo informático, el cual comprende al menos una interfaz de usuario; al menos un procesador; una memoria; y al menos un programa, en el que el programa o los programas están almacenados en dicha memoria y están configurados para ser ejecutados por el procesador o los procesadores, comprendiendo el programa o los programas instrucciones para mostrar al menos un menú en la interfaz o las interfaces de usuario, comprendiendo el menú o los menús al menos un elemento de menú seleccionable por el usuario, y recibiendo al menos una entrada de usuario correspondiente a al menos uno del elemento o los elementos de menú seleccionables por el usuario. También proporciona un sistema en el que el programa o los programas comprenden además instrucciones para que el calculador o los calculadores de distancia busquen automáticamente sujetos localizables. Además, proporciona un sistema en el que la interfaz o las interfaces de usuario comprenden al menos una pantalla táctil.
Por otra parte, proporciona un sistema en el que la interfaz o las interfaces de usuario comprenden al menos una ventana de imagen actual configurada para mostrar al menos una imagen actual capturada por el dispositivo o los dispositivos de captura de imágenes. Asimismo, proporciona un sistema en el que la interfaz o las interfaces de usuario comprenden además: al menos un elemento de menú seleccionable por el usuario que activa la interfaz o las interfaces de usuario de calibración; y en el que el elemento o los elementos de menú seleccionables por el usuario que activan la interfaz o las interfaces de usuario de calibración comprenden al menos un elemento de menú seleccionable por el usuario que permite la entrada manual de al menos una configuración de hardware del dispositivo o los dispositivos de captura de imágenes. Adicionalmente, proporciona un sistema en el que la interfaz o las interfaces de usuario comprenden además al menos un elemento de menú seleccionable por el usuario que permite la adquisición iniciada por el usuario de al menos uno de los datos de la primera ubicación, los datos de la segunda ubicación y los datos de n-ubicación.
Asimismo, proporciona un sistema en el que la interfaz o las interfaces de usuario comprenden además al menos un elemento de menú seleccionable por el usuario que permite la asociación del usuario de los datos de n-ubicación con al menos un nombre seleccionado por el usuario utilizado para identificar al menos uno de los sujetos n-localizables. Además, proporciona un sistema en el que la interfaz o las interfaces de usuario comprenden además al menos un elemento de menú seleccionable por el usuario que permite el funcionamiento del elemento o los elementos transicionadores de enfoque de sujeto. Y proporciona un sistema en el que la interfaz o las interfaces de usuario comprenden además al menos un elemento de menú seleccionable por el usuario que permite la operación del control o los controles de transición de usuario. Además, proporciona un sistema en el que el dispositivo o los dispositivos informáticos comprenden al menos un dispositivo informático portátil.
Asimismo, proporciona un sistema que comprende además al menos un controlador del sistema estructurado y configurado para controlar múltiples dispositivos de captura de imágenes que operan dentro de dicho sistema. Por otra parte, proporciona un sistema en el que la comunicación o las comunicaciones de controlador son inalámbricas. Adicionalmente, proporciona un sistema en el que el dispositivo o los dispositivos de captura de imágenes son cámaras de vídeo.
De conformidad con un ejemplo del presente, la materia divulgada proporciona un sistema relacionado con la generación, para al menos un dispositivo de captura de imágenes, de datos de ajuste de enfoque asociados con uno o varios sujetos cuyas imágenes se van a capturar, y dichos datos de ajuste de enfoque pueden utilizarse para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes, comprendiendo dicho sistema: al menos una etiqueta localizadora estructurada y configurada para generar datos de la primera ubicación asociados
5
10
15
20
25
30
35
40
45
50
55
60
65
con una ubicación actual de un sujeto etiquetado asociado con la etiqueta o las etiquetas localizadoras; al menos un localizador de dispositivo de imágenes estructurado y configurado para generar los datos de la segunda ubicación asociados con una ubicación actual del dispositivo o los dispositivos de captura de imágenes; al menos un dispositivo informático estructurado y configurado para calcular una distancia actual entre dicho sujeto localizable y un punto de enfoque del generador de imágenes del dispositivo o los dispositivos de captura de imágenes, en el que el calculador o los calculadores de distancia están configurados para generar dicha distancia actual utilizando los datos de la primera ubicación y los datos de la segunda ubicación; al menos una pantalla de datos de distancia configurada para mostrar la distancia actual calculada; y al menos un dispositivo de enfoque de seguimiento estructurado y configurado para manipular al menos un anillo de enfoque del dispositivo o los dispositivos de captura de imágenes para ayudar a establecer, dentro del dispositivo o los dispositivos de captura de imágenes, un estado de enfoque apropiado para la generación de las imágenes que se van a capturar de los sujetos; en el que la etiqueta o las etiquetas localizadoras comprenden al menos un primer comunicador inalámbrico estructurado y configurado para comunicar de manera inalámbrica los datos de la primera ubicación; en el que el dispositivo o los dispositivos informáticos comprenden al menos un segundo comunicador inalámbrico estructurado y configurado para adquirir los datos de la primera ubicación mediante la comunicación inalámbrica con el primer o los primeros comunicadores inalámbricos; y en el que la pantalla o las pantallas de datos de distancia comprenden al menos un soporte de pantalla estructurado y configurado para ayudar al montaje de la pantalla o las pantallas de datos de distancia adyacentes al dispositivo o los dispositivos de enfoque de seguimiento.
Asimismo, proporciona un sistema en el que el soporte o los soportes de pantalla comprenden al menos un soporte de dispositivo informático estructurado y configurado para ayudar al montaje del dispositivo o los dispositivos informáticos adyacentes a los dispositivos de enfoque de seguimiento. Asimismo, proporciona un sistema que además comprende: al menos un componente de adquisición de ajuste de enfoque estructurado y configurado para adquirir al menos una configuración de enfoque de imagen actual del dispositivo o los dispositivos de captura de imágenes; y al menos una pantalla de ajuste de enfoque estructurada y configurada para mostrar la configuración o las configuraciones de enfoque de la imagen actual del dispositivo o los dispositivos de captura de imágenes. También proporciona un sistema en el que el dispositivo o los dispositivos informáticos comprenden al menos un generador de perfiles de sujeto estructurado y configurado para generar al menos un perfil de ajuste de enfoque para cada uno de los mencionados sujetos etiquetados; en el que el generador o los generadores de perfiles de sujeto generan el perfil o los perfiles de ajuste de enfoque usando los datos de la primera ubicación, los datos de la segunda ubicación y la configuración o las configuraciones de enfoque de la imagen actual; y en el que cada uno de los perfiles de ajuste de enfoque generados puede utilizarse para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes.
Asimismo, proporciona un sistema que comprende además: al menos un dispositivo de enfoque de seguimiento accionado por servomotor, estructurado y configurado para manipular automáticamente un anillo de enfoque del dispositivo o los dispositivos de captura de imágenes; en el que al menos un dispositivo de enfoque de seguimiento accionado por un servomotor está controlado por el dispositivo o los dispositivos informáticos; y en el que el dispositivo o los dispositivos de enfoque de seguimiento accionados por servomotor están configurados para ayudar a establecer, dentro del dispositivo o los dispositivos de captura de imágenes, un estado de enfoque apropiado para la generación de las imágenes que se van a capturar de los sujetos. Asimismo, proporciona un sistema en el que el dispositivo o los dispositivos informáticos comprenden además: al menos una interfaz de usuario; al menos un procesador; una memoria; y al menos un programa, en el que el programa o los programas están almacenados en dicha memoria y están configurados para ser ejecutados por el procesador o los procesadores; el programa o los programas comprenden instrucciones para mostrar al menos un menú en la interfaz o las interfaces de usuario; el menú o los menús comprenden al menos un elemento de menú seleccionable por el usuario y reciben al menos una entrada de usuario correspondiente a al menos uno de los elementos de menú seleccionables por el usuario.
Asimismo, proporciona un sistema en el que la interfaz o las interfaces de usuario comprenden al menos una pantalla táctil. Además, proporciona un sistema en el que el dispositivo o los dispositivos informáticos se comunican con el dispositivo o los dispositivos de enfoque de seguimiento accionados por servomotor de forma inalámbrica. De conformidad con otra realización del presente, la materia divulgada proporciona un método relacionado con la generación, para al menos un dispositivo de captura de imágenes, de datos de ajuste de enfoque asociados con uno o varios sujetos cuyas imágenes se van a capturar; dichos datos de ajuste de enfoque pueden ser utilizados para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes, comprendiendo dicho método las etapas de: proporcionar al menos una etiqueta localizadora estructurada y configurada para generar los datos de la primera ubicación asociados con una ubicación actual de un sujeto etiquetado asociado con la etiqueta o las etiquetas localizadoras; proporcionar al menos un localizador de dispositivo de imágenes estructurado y configurado para generar los datos de la segunda ubicación asociados con una ubicación actual del dispositivo o los dispositivos de captura de imágenes; proporcionar al menos un dispositivo informático estructurado y configurado para calcular una distancia actual entre el sujeto localizable y un punto de enfoque del generador de imágenes del dispositivo o los dispositivos de captura de imágenes; generar la distancia actual utilizando los datos de la primera ubicación y los datos de la segunda ubicación; proporcionar al menos una pantalla de datos de distancia configurada para mostrar la distancia actual calculada; y proporcionar al menos un dispositivo de enfoque de seguimiento estructurado y configurado para manipular al menos un anillo de enfoque del dispositivo o los dispositivos de captura de imágenes para ayudar a establecer, dentro del dispositivo o los dispositivos de captura de imágenes, un estado de enfoque
5
10
15
20
25
30
35
40
45
50
55
60
apropiado para la generación de las imágenes que se van a capturar de los sujetos; manipular el anillo o los anillos de enfoque de la captura o las capturas de imágenes en respuesta a la distancia actual calculada mostrada; en el que la etiqueta o las etiquetas localizadoras comprenden al menos un primer comunicador inalámbrico estructurado y configurado para comunicar de manera inalámbrica los datos de la primera ubicación; en el que el dispositivo o los dispositivos informáticos comprenden al menos un segundo comunicador inalámbrico estructurado y configurado para adquirir los datos de la primera ubicación mediante la comunicación inalámbrica con el primer o los primeros comunicadores inalámbricos; y en el que la pantalla o las pantallas de datos de distancia comprenden al menos un soporte de pantalla estructurado y configurado para ayudar al montaje de la pantalla o las pantallas de datos de distancia adyacentes al dispositivo o los dispositivos de enfoque de seguimiento.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
En la Figura 1 se muestra una vista en perspectiva que ilustra esquemáticamente una cámara, modificada para comprender un dispositivo de asistencia de enfoque, de conformidad con una realización de la materia divulgada.
En la Figura 2 se muestra una vista en perspectiva que ilustra adicionalmente el dispositivo de asistencia de enfoque de la Figura 1.
En la Figura 3 se muestra un diagrama que ilustra las características del dispositivo de asistencia de enfoque, el uso del dispositivo de captura de imágenes y la interoperación con la cámara de la Figura 1.
En la Figura 4 se muestra un diagrama esquemático que ilustra una realización de la etiqueta localizadora del solicitante.
En la Figura 5 se muestra un diagrama esquemático que ilustra una realización de la etiqueta localizadora del solicitante.
En la Figura 6 se muestra una vista en perspectiva que ilustra esquemáticamente un dispositivo de asistencia de enfoque accionado por servomotor, de acuerdo con una realización de la materia divulgada.
En la Figura 7 se muestra una vista en alzado frontal que ilustra un dispositivo de asistencia de enfoque accionado por servomotor de la Figura 6 montado adyacente a un engranaje de enfoque de seguimiento de un anillo de enfoque de una cámara, de conformidad con una realización de la materia divulgada.
En la Figura 8 se muestra un diagrama de bloques que ilustra elementos funcionales del dispositivo de asistencia de enfoque accionado por servomotor de la Figura 6.
En la Figura 9 se muestra una vista en perspectiva que ilustra esquemáticamente una cámara, modificada para comprender el dispositivo de asistencia de enfoque accionado por servomotor de la Figura 6, el cual es controlado de forma remota mediante una interfaz de usuario portátil, de conformidad con una realización de la materia divulgada.
En la Figura 10 se muestra una vista frontal que ilustra una interfaz de usuario portátil, de conformidad con una realización de la materia divulgada.
En la Figura 11 se muestra una vista frontal que ilustra la interfaz de usuario portátil de la Figura 9, en la que se muestra un menú de visualización de distancia de enfoque, de conformidad con una realización de la materia divulgada.
En la Figura 12 se muestra una vista frontal que ilustra la interfaz de usuario portátil de la Figura 9, en la que se muestra un menú de calibración, de conformidad con una realización de la materia divulgada.
En la Figura 13 se muestra una vista frontal que ilustra la interfaz de usuario portátil de la Figura 9, en la que se muestra un menú de sincronización de etiquetas, de conformidad con una realización de la materia divulgada.
En la Figura 14 se muestra una vista frontal que ilustra la interfaz de usuario portátil de la Figura 9, en la que se muestra un menú de cambio de enfoque de sujeto, de conformidad con una realización de la materia divulgada.
En la Figura 15 se muestra una vista frontal que ilustra la interfaz de usuario portátil de la Figura 9, en la que se muestra un menú de opciones, de conformidad con una realización de la materia divulgada.
En la Figura 16 se muestra un diagrama que ilustra esquemáticamente un controlador principal configurado para controlar una pluralidad de cámaras desde una ubicación central, de conformidad con una realización de la materia divulgada.
5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION DETALLADA
El solicitante ha desarrollado un sistema de enfoque de cámara (100) que incluye accesorios de cámara de búsqueda de rango diseñados para ayudar a establecer el enfoque adecuado de los sujetos objetivo. En general, el sistema divulgado en el presente está configurado para determinar la distancia de enfoque entre un generador de imágenes de cámara y un sujeto cuya imagen va a ser capturada, mediante el establecimiento de las ubicaciones actuales de la cámara y el sujeto objetivo.
Por lo que respecta a los dibujos, en la Figura 1 se muestra una vista en perspectiva que ilustra esquemáticamente la cámara (103) (indicada por la representación de la línea discontinua), que se ha modificado para comprender el dispositivo de asistencia de enfoque (102) del solicitante, de conformidad con una realización de la materia divulgada. En la Figura 2 se muestra una vista en perspectiva que ilustra adicionalmente el dispositivo de asistencia de enfoque (102), de conformidad con la realización de la Figura 1. Una capacidad primaria del dispositivo de asistencia de enfoque (102) es la capacidad del sistema para calcular con precisión las distancias de enfoque a los sujetos objetivo. Para lograr un enfoque perfecto, la distancia de un sujeto desde el punto focal de la cámara (103) debe medirse y coincidir exactamente con el anillo focal de la lente de la cámara (105). El dispositivo de asistencia de enfoque (102) ayuda al operador de la lente de la cámara (105) a ajustar correctamente el estado de enfoque de la cámara (103) al mostrar dichas distancias calculadas en o cerca del anillo focal de la lente de la cámara (105). Esta función de búsqueda de rango permite al operador de la lente enfocar consistentemente a la distancia correcta.
En una realización, el dispositivo de asistencia de enfoque (102) de la cámara está equipado con al menos una unidad de cálculo de distancia (112) que tiene una pantalla de distancia (114), como se muestra. La unidad de cálculo de distancia (112) está configurada para calcular las distancias de enfoque entre la cámara (103) y uno o varios sujetos localizables (113) (véase la Figura 3). La unidad de cálculo de distancia (112) está configurada para recibir y procesar datos de distancia asociados con un sujeto localizable (113). Los resultados de dichos cálculos de distancia aparecen en la pantalla de distancia (114) y pueden ser utilizados por el operador de la lente de la cámara (105) para ajustar adecuadamente el estado de enfoque de la cámara (103) (que al menos incluye al menos un comunicador de datos de distancia estructurado y configurado para comunicar la distancia calculada a al menos un efector de enfoque de imagen que controla el estado de enfoque del dispositivo o los dispositivos de captura de imágenes). Las implementaciones del sistema que soportan las características descritas anteriormente se describen adicionalmente mediante y/o con respecto a la Figura 3.
En una realización, el dispositivo de asistencia de enfoque (102) comprende además al menos una unidad de enfoque de seguimiento (104), como se muestra en las Figuras 1 y 2. La unidad de enfoque de seguimiento (104) está configurada para ayudar al operador de la cámara a ajustar manualmente el anillo focal de la lente de la cámara (105). La unidad de enfoque de seguimiento (104) comprende un conjunto de engranajes que une operativamente la rueda de enfoque exterior (108) y el engranaje de accionamiento interno (109). El engranaje de accionamiento (109) está configurado para acoplarse a un engranaje anular (106), el cual está montado en un anillo de enfoque de la lente de la cámara (105) o forma parte integral del mismo, como se muestra.
La manipulación de la rueda de enfoque (108) tiene como resultado una rotación suave sin vibraciones del engranaje anular (106). Por consiguiente, la unidad de enfoque de seguimiento (104) permite al operador establecer, dentro de la cámara (103), un estado de enfoque apropiado para la generación de imágenes de los sujetos que se van capturar. Las unidades de enfoque de seguimiento comerciales, que tienen componentes adaptables para funcionar como unidad de enfoque de seguimiento (104), incluyen modelos seleccionados de la línea Z-Focus® producida por Zacuto USA Corporation, de Chicago, Illinois, Estados Unidos de América.
El dispositivo de asistencia de enfoque (102) comprende al menos un soporte (110) configurado para montar el dispositivo de asistencia de enfoque (102) en una posición adyacente a la cámara (103), como se muestra.
En una realización, el soporte (110) es un componente integral de la unidad de enfoque de seguimiento (104), como se muestra en las Figuras 1 y 2. El soporte (110) es compatible con al menos uno de los tres sistemas de carril de cámara usados comúnmente (111), por ejemplo las barras de soporte de caja mate de 15 milímetros (mm) indicadas por la representación de línea discontinua de la Figura 1. Al leer esta memoria descriptiva, los expertos en la técnica apreciarán que, en circunstancias apropiadas y teniendo en cuenta cuestiones tales como preferencias de diseño, preferencias de usuario, preferencias de comercialización, costes, requisitos estructurales, materiales disponibles, avances tecnológicos, etc., pueden ser suficientes otras configuraciones de montaje como, por ejemplo, soportes configurados para acoplarse al cuerpo de la cámara, soportes configurados para acoplarse a un trípode, etc.
En la realización de la Figura 1 y la Figura 2, la unidad de cálculo de distancia (112) está contenida dentro de la carcasa (115) y está soportada por la unidad de enfoque de seguimiento (104), como se muestra. La carcasa (115) de la unidad de cálculo de distancia (112) comprende la pantalla de distancia (114), junto con los controles de entrada de usuario (121) y las luces indicadoras que forman la interfaz de usuario. Además, la configuración de la carcasa (115) también incluye provisiones para compartimentos de batería, puertos de datos externos, puertos de alimentación externos, etc.
En la Figura 3 se muestra un diagrama que ilustra una realización de las características y configuraciones del
5
10
15
20
25
30
35
40
45
50
55
60
65
dispositivo de asistencia de enfoque (102), de conformidad con la Figura 1. El sistema de enfoque de la cámara (100) funciona al asociar una etiqueta localizadora (116) con cada sujeto que va a ser capturado por la cámara (103). Las etiquetas localizadoras (116) (también denominadas en el presente “balizas localizadoras” o simplemente “balizas”) están configuradas para transmitir al menos una señal inalámbrica detectable por la unidad de cálculo (112) (al menos como se incorpora en el presente, en el que el generador o los generadores de datos de la primera ubicación comprenden al menos un primer comunicador inalámbrico estructurado y configurado para comunicar de forma inalámbrica los datos de la primera ubicación). La señal inalámbrica contiene datos de ubicación que se pueden utilizar en relación con la unidad de cálculo (112) para determinar la ubicación actual de los sujetos etiquetados. De este modo, cualquier sujeto objetivo puede ser localizado por el sistema si el sujeto posee una etiqueta localizadora (116) y se encuentra dentro del rango de detección relacionado con la unidad de cálculo (112).
Como ejemplo del sistema, dos sujetos localizables (113), identificados en la Figura 3 como sujeto “A” y sujeto “B”, se encuentran dentro del campo de visión (117) de la cámara (103) (que al menos incluye al menos un dispositivo de captura de imágenes). Cada sujeto localizable (113) lleva una etiqueta localizadora (116) capaz de transmitir datos de la ubicación actual del sujeto a un receptor de señales inalámbricas (118) del dispositivo de asistencia de enfoque
(102) (que al menos incluye al menos un segundo comunicador inalámbrico estructurado y configurado para adquirir los datos de la primera ubicación mediante la comunicación inalámbrica con el primer o los primeros comunicadores inalámbricos). Cada etiqueta localizadora (116) (que al menos incluye al menos un generador de datos de la primera ubicación estructurado y configurado para generar datos de la primera ubicación asociados con una ubicación actual de al menos un primer sujeto localizable) comprende un identificador distinto que permite al dispositivo de asistencia de enfoque (102) diferenciar las señales que se originan en las múltiples etiquetas localizadoras (116) y sujetos localizables asociados (113). Las etiquetas localizadoras (116) están diseñadas para moverse con el sujeto localizable (113), por ejemplo, mediante el montaje en la superficie a una persona u objeto, la incorporación a una prenda usada por un actor o la adhesión a una parte de un vehículo (al menos como se incorpora en el presente, en el que el generador o los generadores de datos de la primera ubicación comprenden al menos un primer acoplador de movimiento configurado para acoplar físicamente los movimientos del generador o los generadores de datos de la primera ubicación y el primer o los primeros sujetos localizables). De este modo, la etiqueta localizadora (116) identificada como “Etiqueta A” se mueve con el sujeto “A” y la etiqueta localizadora (116) identificada como “Etiqueta B” se mueve con el sujeto “B”.
En una realización, el sistema de enfoque de cámara (100) incluye al menos dos cámaras (103) y una unidad de cálculo de distancia (112), y al menos una etiqueta localizadora (116) que permite el uso de múltiples cámaras (103) con múltiples etiquetas localizadoras (116), lo que permite que el sistema (100) enfoque automáticamente las cámaras
(103) en los sujetos (113) con las etiquetas (116). En una realización, las etiquetas localizadoras (116) se comunican entre sí y con las cámaras (103) para determinar las distancias en tiempo real. En una realización, el sistema de enfoque de cámara (100) usa uno o varios puntos o anclajes de referencia estacionarios para aumentar la precisión del cálculo de distancia entre los sujetos (113) con etiquetas (116) y la cámara (103). En una realización, los puntos de referencia estacionarios generan una transmisión de radio que se comunica con las etiquetas (116) y la unidad de cálculo de distancia (112) para determinar las distancias entre los elementos en tiempo real. En una realización, las etiquetas localizadoras (116) se comunican entre sí, los puntos de referencia estacionarios y la cámara (103) para determinar las distancias entre los elementos en tiempo real.
La unidad de cálculo de distancia (112) comprende al menos un localizador de cámara (120) diseñado para generar datos de ubicación asociados con una ubicación actual de la cámara (103) (que al menos incluye al menos los datos de la segunda ubicación asociados con una ubicación actual del dispositivo o los dispositivos de captura de imágenes). El método para generar los datos de la segunda ubicación para la cámara (103) depende del método usado para generar los datos de la primera ubicación del sujeto asociados con los sujetos objetivo, y este método se analizará más adelante en una sección posterior de la presente divulgación.
La unidad de cálculo de distancia (112) utiliza los datos de ubicación actual del sujeto recibidos de las etiquetas localizadoras (116) y los datos de ubicación secundaria para la cámara (103) para calcular las distancias entre el punto de enfoque del generador de imágenes (122) y los sujetos objetivo localizados dentro del campo de visión (117) (al menos como se incorpora en el presente, en el que el calculador o los calculadores de distancia están estructurados y configurados para calcular una distancia actual entre dicho primer sujeto localizable y un punto de enfoque del generador de imágenes del dispositivo o los dispositivos de captura de imágenes y en el que el calculador o los calculadores de distancia están configurados para generar dicha distancia actual utilizando dicha los datos de la primera ubicación y datos de la segunda ubicación). Por ejemplo, la unidad de cálculo de distancia (112) utiliza los datos de ubicación actual del sujeto recibidos de la “Etiqueta A” y los datos de la ubicación secundaria del localizador de cámara (120) para calcular la distancia D1 entre el sujeto “A” y el punto de enfoque del generador de imágenes (122) de la cámara (103). Por lo tanto, la unidad de cálculo de distancia (112) genera al menos un perfil de ajuste de enfoque para el sujeto “A” que puede ser utilizado por el operador de la cámara (103) (que al menos incluye al menos un efector de enfoque de imagen) para controlar el estado de enfoque de la cámara (103) (al menos como se incorpora en el presente, en el que el generador o los generadores de perfiles de sujeto generan el primer o los primeros perfiles de ajuste de enfoque usando los datos de la primera ubicación, los datos de la segunda ubicación y la configuración o configuraciones de enfoque de la imagen actual; y en el que el primer o los primeros perfiles de ajuste de enfoque generados pueden ser utilizados por el efector o los efectores de enfoque de imagen para controlar el estado de
5
10
15
20
25
30
35
40
45
50
55
60
65
enfoque del dispositivo o los dispositivos de captura de imágenes). De manera similar, la unidad de cálculo de distancia (112) utiliza los datos de ubicación actual del sujeto recibidos de la “Etiqueta B” y los datos de ubicación secundaria del localizador de cámara (120) para calcular la distancia D2 entre el sujeto “B” y el punto de enfoque del generador de imágenes (122) de la cámara (103). Por consiguiente, la unidad de cálculo de distancia (112) genera al menos un perfil de ajuste de enfoque para el sujeto “B” que puede ser utilizado por el operador de la cámara (103).
Por lo que respecta al diagrama de bloques de la Figura 3, la unidad de cálculo de distancia (112) comprende al menos una interfaz de usuario (124), al menos un procesador (126) y una memoria de sistema (127), como se muestra. Un enlace de datos (140), que comprende un receptor de señales inalámbricas (118), funciona para recibir los datos de la primera ubicación de las etiquetas localizadoras (116) y pasar los datos al procesador (126).
La unidad de cálculo de distancia (112) implementa las funciones de búsqueda de rango descritas anteriormente utilizando tecnologías de comunicación inalámbricas. En una realización, se usa la tecnología de identificación por radiofrecuencia (RFID), como se describe en general con relación a la Figura 4.
En la Figura 4 se muestra un diagrama esquemático que ilustra una etiqueta localizadora habilitada con RFID (116), de conformidad con una realización de la materia divulgada. La unidad (112) de cálculo de distancia habilitada con RFID (112) utiliza un cálculo de la distancia D1 en función del tiempo de vuelo de una señal de radio. Más específicamente, la unidad de cálculo de distancia habilitada con RFID (112) mide el tiempo que una señal de radio (125) tarda en viajar desde la antena transmisora (128) a la antena de la etiqueta (130) y volver a la antena lectora (132). La distancia desde la cámara (103) a la etiqueta se calcula en función de la velocidad de desplazamiento de una onda de radio a la velocidad de la luz. La etiqueta localizadora habilitada con RFID (116) puede comprender un transpondedor activo (o pasivo) (134) para retransmitir la señal. En una realización, la antena transmisora (128) y la antena lectora (132) comprenden una extensión del enlace de datos (140) y, dependiendo de las preferencias de ingeniería, pueden comprender una única antena de envío y recepción (al menos como se incorpora en el presente, en el que el generador o los generadores de datos de la primera ubicación comprenden al menos una etiqueta de RFID estructurada y configurada para transmitir de forma inalámbrica al menos una primera señal de radio de la cual se pueden derivar los datos de la primera ubicación; y el generador o los generadores de datos de la segunda ubicación comprenden al menos un receptor de señales RFID estructurado y configurado para recibir la primera o las primeras señales de radio).
La implementación de un localizador de cámara (120) dentro de la unidad de cálculo de distancia habilitada con RFID
(112) se lleva a cabo a través de una simple asociación física fija de la antena lectora (132) y el punto de enfoque del generador de imágenes (122) (en el que el generador o los generadores de datos de la segunda ubicación comprenden al menos un segundo acoplador de movimiento configurado para acoplar físicamente los movimientos del generador o los generadores de datos de la segunda ubicación y el dispositivo o dispositivos de captura de imágenes). Al leer esta memoria descriptiva, los expertos en la técnica apreciarán que, en circunstancias apropiadas y teniendo en cuenta cuestiones tales como preferencias de diseño, preferencias de usuario, preferencias de comercialización, costes, materiales disponibles, avances tecnológicos, etc., pueden ser suficientes otras tecnologías de RFID como, por ejemplo, la medición de la intensidad de la señal, el ángulo de llegada de la onda de radio desde la etiqueta medida en varias ubicaciones de lector para trazar vectores de localización de regreso hacia la etiqueta, el cálculo de la distancia mediante la triangulación de múltiples balizas, etc. Además, otras tecnologías de comunicación inalámbricas pueden implementarse usando el tiempo de vuelo de una señal de radio, como por ejemplo etiquetas localizadoras habilitadas para Bluetooth® (116), etiquetas localizadoras habilitadas para tecnología de banda ultra ancha (116), etiquetas localizadoras habilitadas para banda ultra ancha (116), como por ejemplo la transmisión de radio por impulsos, la triangulación Wi-Fi o la triangulación celular GSM de etiquetas localizadoras (116) y componentes asociados del sistema (100), y el hardware y software correspondientes a la unidad de cálculo de distancia (112).
En una realización, la unidad de cálculo de distancia (112) implementa las funciones de búsqueda de rango mencionadas anteriormente usando un conjunto de receptores de Sistema de Posicionamiento Global (GPS), como se describe en general en la Figura 5.
En la Figura 5 se muestra un diagrama esquemático en el que se ilustra una etiqueta localizadora habilitada con GPS (116). La etiqueta localizadora habilitada con GPS (116) (“Etiqueta A”) comprende al menos un receptor GPS (136) estructurado y configurado para recibir datos de señales GPS asociados con la ubicación actual del sujeto localizable
(113) (sujeto “A”).
El receptor GPS (136) comprende al menos un primer procesador de datos de señales GPS (138) estructurado y configurado para procesar los datos de señales GPS con el fin de generar datos de ubicación actual para el sujeto localizable (113) (sujeto “A”). La etiqueta localizadora habilitada con GPS (116) contiene un transmisor inalámbrico (142) para transmitir los datos de ubicación del sujeto a un receptor inalámbrico (144) del enlace de datos (140) ubicado dentro de la unidad de cálculo de distancia habilitada con GPS (112), como se muestra (al menos como se incorpora en el presente, en el que el calculador o calculadores de distancia comprenden al menos un receptor de datos inalámbrico estructurado y configurado para recibir de manera inalámbrica los datos de la primera ubicación). Al leer esta memoria descriptiva, los expertos en la técnica apreciarán que, en circunstancias apropiadas y teniendo en cuenta cuestiones tales como preferencias de diseño, preferencias de usuario, preferencias de comercialización, costes,
5
10
15
20
25
30
35
40
45
50
55
60
65
avances tecnológicos, etc., pueden ser suficientes otras tecnologías de etiquetado, como por ejemplo la utilización de un teléfono móvil habilitado con GPS como baliza, la implementación de comunicaciones utilizando señales de datos basadas en infrarrojos (IR), etc.
La implementación del localizador de cámara (120) dentro de la unidad de cálculo de distancia habilitada con GPS (112) se lleva a cabo mediante la integración de un segundo receptor GPS (146) dentro de la unidad de cálculo de distancia habilitada con GPS (112). El segundo receptor GPS (146) recibe datos de señales GPS asociados con la ubicación actual de la cámara (103) y pasa los datos de ubicación al procesador (126) (véase también la Figura 3). La distancia D1 se calcula comparando los datos de ubicación GPS.
Por lo que respecta de nuevo a la Figura 3, una realización del sistema de enfoque de cámara (100) incluye además al menos un componente de adquisición de ajuste de enfoque (150). El componente de adquisición de ajuste de enfoque (150) está configurado para adquirir la configuración de distancia actual del anillo focal de la lente de cámara (105). Los ajustes de enfoque de imagen adquiridos por el componente de adquisición de ajuste de enfoque (150) incluyen la configuración del número F de lente actual y la distancia focal actual de la lente de la cámara (105). La configuración del número F y las distancias focales de la lente se utilizan para calcular la profundidad de campo y el rango focal de la lente de la cámara (105).
Las configuraciones de distancia actual del anillo focal de la lente de la cámara (105) se muestran en la interfaz de usuario (124) (véase la Figura 2), permitiendo así al operador de la cámara (103) confirmar la precisión del enfoque de la imagen. Por lo que respecta de nuevo a la Figura 2, las configuraciones de distancia actual del anillo focal de la lente de la cámara (105) se muestran en la pantalla de distancia (114) del dispositivo de asistencia de enfoque (102) (que al menos incluye al menos una pantalla de ajuste de enfoque estructurada y configurada para mostrar la configuración o las configuraciones de enfoque de la imagen actual del dispositivo o los dispositivos de captura de imágenes).
En una realización, las etiquetas localizadoras (116) incluyen un interruptor de encendido/apagado, una caja para la batería y una entrada de suministro de energía para la recarga. Además, las realizaciones del sistema tienen la capacidad de controlar las opciones de frecuencia de actualización para las etiquetas localizadoras (116).
Por lo que respecta de nuevo a la ilustración de la Figura 2, la interfaz de usuario (124) de la unidad de cálculo de distancia (112) incluye un interruptor de encendido/apagado (151), un botón de sincronización (152), una pantalla de distancia (114) y una luz de confirmación (154), como se muestra. El botón de sincronización (152), cuando está activado, inicia una búsqueda de todas las etiquetas localizadoras (116) dentro del rango de transmisión. Una luz verde de iluminación de confirmación (154) indica que se está realizando un seguimiento de una etiqueta localizadora (116).
La pantalla de distancia (114) muestra la distancia calculada desde la cámara a la etiqueta localizadora (116) y, si está equipada con el componente de adquisición de ajuste de enfoque (150) de la Figura 3, la configuración de distancia actual del anillo focal de la lente de la cámara (105). Se observa que las realizaciones del sistema de enfoque de la cámara (100) están configuradas adicionalmente para registrar el rango de ajuste de enfoque de la lente de la cámara (105). Un ejemplo de la tecnología adaptable que se puede usar como componente de adquisición de ajuste de enfoque (150) es una unidad inteligente de visualización de lente electrónica de cinematografía (Cinematography Electronics /i Lens Display Unit) producida por Cooke Optics Limited, de Thurmaston, Leicester, Reino Unido.
En la Figura 6 se muestra una vista en perspectiva que ilustra esquemáticamente un dispositivo de asistencia de enfoque accionado por servomotor (160), de conformidad con una realización de la presente materia divulgada. El dispositivo de asistencia de enfoque (160) comprende una unidad de cálculo de distancia (161) que interopera con el servomotor accionado eléctricamente (163), como se muestra. En la Figura 7 se muestra una vista en alzado frontal que ilustra el dispositivo de asistencia de enfoque accionado por servomotor (160) montado adyacente al engranaje anular de enfoque de seguimiento (106) de un anillo de enfoque de una cámara (103). En la Figura 8 se muestra un diagrama de bloques en el que se ilustran los elementos funcionales del dispositivo de asistencia de enfoque accionado por servomotor (160) de la Figura 6.
Por lo que respecta a las ilustraciones de la Figura 6 a la Figura 8, el servomotor (163) está configurado para hacer funcionar un accionamiento de engranaje (164), el cual se acopla al engranaje anular (106)/anillo de enfoque de la lente de la cámara (105), como se representa en la Figura 7 (y se ilustra conceptualmente en la Figura 1). El dispositivo de asistencia de enfoque accionado por servomotor (160) (que al menos incluye al menos un efector de enfoque de imagen) está configurado para ajustar automáticamente el estado de enfoque de la cámara (103), según sea apropiado para la generación apropiada de imágenes de sujetos localizables (113). Más específicamente, el dispositivo de asistencia de enfoque accionado por servomotor (160) está configurado para ajustar automáticamente el estado de enfoque de la cámara (103) en respuesta a los perfiles de ubicación del sujeto generados por la unidad de cálculo de distancia (161) que utiliza datos de ubicación recibidos de etiquetas localizadoras (116) (al menos como se incorpora en el presente, en el que el efector o los efectores de enfoque de imagen están configurados para ayudar a establecer, dentro del dispositivo o los dispositivos de captura de imágenes, un estado de enfoque apropiado para la generación de las imágenes que se van a capturar de los sujetos en respuesta al primer o los primeros perfiles de ajuste de
5
10
15
20
25
30
35
40
45
50
55
60
65
enfoque generados).
La unidad de cálculo de distancia (161) incluye las características y funciones descritas anteriormente de la unidad de cálculo de distancia (112) (véase la Figura 3) y los elementos de sensor y control de motor adicionales que se muestran en la Figura 8. El servomotor (163) de la presente realización comprende un motor de velocidad gradual controlado por el procesador (126) que se comunica a través de al menos un controlador de motor digital (166), como se muestra. En la presente descripción, el controlador de motor (166) puede comprender indexadores, controladores, etc., según se requiera para operar el servomotor (163). Los datos de distancia son convertidos por la unidad de cálculo de distancia (161) en señales de control utilizadas para operar el servomotor (163). En una realización del presente sistema, las señales de control del procesador (126) se comunican a través del controlador de motor (166) y se pasan al servomotor (163) a través del enlace de señal (171) (que al menos incluye al menos un comunicador de datos de distancia estructurado y configurado para comunicar la distancia calculada a al menos un efector de enfoque de imagen que controla el estado del dispositivo o los dispositivos de captura de imágenes).
Un detector de enfoque manual (174) funciona de tal manera que el sistema detecta cualquier manipulación manual del anillo de enfoque de la lente o (si está equipado) del engranaje de accionamiento (109) del enfoque de seguimiento, lo que tiene como resultado una terminación temporal de las funciones de enfoque automático del sistema. En una realización, el detector de enfoque manual (174) incluye al menos un sensor de extensímetro. El sensor del extensímetro tiene una señal de salida que es proporcional a la cantidad variable de presión. El dispositivo de asistencia de enfoque accionado por servomotor (160) incluye una lógica de control para anular el funcionamiento del servomotor (163) cuando la señal de salida del sensor de extensímetro excede un nivel preestablecido (que al menos incluye al menos un control de enfoque de operación manual configurado para permitir ajustes manuales de dicho estado de enfoque; al menos un detector de manipulación manual estructurado y configurado para detectar entradas de ajuste manual; y al menos una anulación de servomotor para anular el funcionamiento automático del dispositivo o los dispositivos de enfoque de seguimiento accionados por servomotor cuando se detecta al menos una manipulación manual del control o los controles de enfoque de operación manual).
Tanto la unidad de cálculo de distancia (161) como el servomotor (163) están situados dentro de la carcasa (168). La carcasa (168) comprende al menos un soporte (133) configurado para montar la carcasa (168) en una posición adyacente a la cámara (103), como se muestra en la Fig. 7. En una realización de la Figura 6, el soporte (133) es compatible con al menos uno de los tres sistemas usados habitualmente de carril de cámara (111), como por ejemplo las barras de soporte de caja mate de 15 milímetros (mm) indicadas por la representación de línea discontinua de la Figura 1.
La parte exterior de la carcasa (168) está configurada para soportar la interfaz de usuario (124), como se muestra. La interfaz de usuario (124) del dispositivo de asistencia de enfoque accionado por servomotor (160) comprende un interruptor de encendido/apagado (150), un botón de sincronización (152), una pantalla de distancia (114) y una luz de confirmación de seguimiento (154), como se muestra. El botón de sincronización (152), cuando está activado, inicia una búsqueda de todas las etiquetas localizadoras (116) dentro del rango de transmisión. Una iluminación verde de la luz de confirmación de seguimiento (154) indica que se está realizando un seguimiento de al menos una etiqueta localizadora (116).
Por lo que respecta a la Figura 6, la pantalla de distancia (114) muestra: la distancia calculada desde la cámara hasta la etiqueta localizadora (116); y, si está equipada con el componente de adquisición de ajuste de enfoque (150), la configuración de distancia actual del anillo focal de la lente de la cámara (105). Además, la interfaz de usuario (124) del dispositivo de asistencia de enfoque accionado por servomotor (160) incluye un interruptor de anulación manual (172) para permitir al operador volver al enfoque manual anulando las funciones automáticas del sistema.
Tanto la unidad de cálculo de distancia (161) como el servomotor (163) son alimentados por baterías incorporadas (no mostradas). Además, el dispositivo de asistencia de enfoque (160) accionado por servomotor incluye puertos de entrada de control cableados y de alimentación externa (175), como se muestra.
Alternativamente, el servomotor (163) puede estar incorporado dentro de la lente de la cámara (105) con la unidad de cálculo de distancia (161) ubicada dentro de la lente de la cámara (105), alternativamente dentro del cuerpo de la cámara (103) o alternativamente ubicado en un dispositivo informático portátil, como se describe más adelante en mayor detalle. La realización en la lente está configurada para enfocar la lente mediante la manipulación de la lente de la cámara (105) o la manipulación del anillo de enfoque de la lente de la cámara (105), donde la lente de la cámara (105) o el anillo de enfoque de la lente de la cámara (105) están accionados por el servomotor (163). El servomotor en la lente (163) está configurado para ajustarse selectivamente a la actuación automática o a la operación manual.
El dispositivo de asistencia de enfoque accionado por servomotor (160) permite el enfoque de la cámara (103) por control remoto. Por lo tanto, una ventaja importante de la presente realización es que el operador de la lente de la cámara (105) ya no necesita estar ubicado cerca de la cámara (103) para poder enfocar. Asimismo, varias configuraciones del dispositivo de asistencia de enfoque accionado por servomotor (160) permiten el uso de uno o varios dispositivos de entrada ubicados remotamente. Por ejemplo, una realización del presente sistema incluye disparadores de dedo remotos (176) que están incorporados dentro de asas (178) del sistema de carril de cámara
5
10
15
20
25
30
35
40
45
50
55
60
65
soportado por el hombro (111) ilustrado en la Figura 1. Los disparadores de dedo (176) están acoplados operativamente a la unidad de cálculo de distancia (161) para permitir que un solo operador de la cámara (103) envíe señales remotamente al dispositivo de asistencia de enfoque accionado por servomotor (160) con el fin de cambiar el enfoque entre dos sujetos localizables (113). En esta realización, el operador inicia una transición entre dos perfiles de ajuste de enfoque generados por la unidad de cálculo de distancia (176). La manipulación de disparadores de dedo (176) puede iniciar la transición controlada por el procesador entre un perfil de ajuste de enfoque para el sujeto “A” y un perfil de ajuste de enfoque para el sujeto “B”. De nuevo, se observa que los perfiles de ajuste de enfoque son generados por la unidad de cálculo de distancia (161) para sujetos localizables (113) que usan datos de la ubicación actual del sujeto y datos de la ubicación actual de la cámara. Al leer esta memoria descriptiva, los expertos en la técnica apreciarán que, en circunstancias apropiadas y teniendo en cuenta cuestiones tales como preferencias de diseño, preferencias de usuario, preferencias de comercialización, costes, avances tecnológicos, etc., pueden ser suficientes otras configuraciones de control como, por ejemplo, el seguimiento del sujeto, incluido el control automático de movimiento vertical y horizontal de la cámara, etc.
Una realización del presente sistema implementa al menos un dispositivo de control y monitorización de vídeo remotos, en el que la interfaz de usuario (124) comprende una pantalla táctil ubicada dentro de un dispositivo portátil de mano, como se describe adicionalmente en la Figura 9. Dichos dispositivos portátiles permiten a los miembros del equipo de ayudantes de cámara controlar la lente de la cámara (105) desde una ubicación remota. Esto permite que el foquista se pueda mantener alejado de la cámara (103) si así se requiere.
En la Figura 9 se muestra una vista en perspectiva que ilustra esquemáticamente la cámara (103), modificada para comprender un dispositivo de asistencia de enfoque accionado por servomotor (160) que está controlado de forma remota por la interfaz de usuario portátil (180), de conformidad con una realización de la materia divulgada. La interfaz de usuario portátil (180) comprende un dispositivo de mano que contiene la interfaz de usuario (124), como se muestra. En una realización del presente sistema, la interfaz de usuario (124) comprende una pantalla táctil (188) que el usuario puede controlar a través de gestos simples o multitáctiles. La interfaz de usuario portátil (180) comprende una carcasa exterior duradera (181) que soporta la pantalla táctil (188), como se muestra. Además, la carcasa exterior (181) contiene el puerto de suministro de energía (184), el almacenamiento de batería (no mostrado), las asas de mano periféricas (186) y los puertos de comunicación (190) para permitir conexiones cableadas al dispositivo de asistencia de enfoque accionado por servomotor (160). Una realización de la interfaz de usuario portátil (180) comprende al menos un comunicador inalámbrico (192) configurado para permitir la comunicación inalámbrica entre la interfaz de usuario portátil (180) y el dispositivo de asistencia de enfoque accionado por servomotor (160), como se muestra.
La carcasa exterior (181) comprende al menos un soporte (187) para permitir la unión de la interfaz de usuario portátil (180) a los aparejos tradicionales de las cámaras. Una versión del soporte (187) permite la unión de la interfaz de usuario portátil (180) a los sistemas de carril de cámara (111).
Por lo que respecta de nuevo al diagrama de bloques de la Figura 3, la unidad de cálculo de distancia (161) comprende al menos un programa ejecutable (194), como se muestra. El programa (194) se almacena en la memoria del sistema (127) y está configurado para ser ejecutado por el procesador (126). El programa (194) comprende instrucciones para mostrar una serie de menús (196) en la pantalla táctil (188), como se muestra en la Figura 10.
En la Figura 10 se muestra una vista frontal que ilustra la interfaz de usuario portátil (180), de conformidad con otra realización de la presente materia divulgada. La pantalla táctil (188) se utiliza para generar un conjunto de menús del sistema (196). Cada menú (196) comprende al menos un elemento de menú (198), como se muestra. Los elementos de menú (198) tienen una naturaleza o función informativa y reciben al menos una entrada de usuario correspondiente a una acción que va a ser realizada por el aparato del sistema. Los elementos de menú (198) permiten al usuario introducir o seleccionar información de lentes, personalizar el nombre de los sujetos, cambiar el enfoque de un sujeto a otro, seleccionar la velocidad de enfoque, guardar configuraciones de lente y calibrar automáticamente las lentes, como se describe más adelante.
Al iniciarse la interfaz de usuario portátil (180), el programa (194) está configurado para mostrar el menú principal (196) en la pantalla táctil (188). Un menú principal (196) incluye los siguientes elementos de menú seleccionables (198): el elemento de menú “Distancia” (200), el elemento de menú “Calibración” (202), el elemento de menú “Sincronización” (204), el elemento de menú “Cambio de enfoque de sujeto” (206) y el elemento de menú “Opciones” (208). Cada elemento de menú seleccionable (198) del menú principal (196) proporciona un enlace seleccionable por el usuario a un submenú operado por el programa (194), como se describe en general en las Figuras 11 a [laguna]. Además, el programa (194) muestra un indicador de estado de la batería (210), como se muestra.
La selección del usuario del elemento de menú “Distancia” (200) en el menú principal (196) tiene como resultado la visualización del menú de visualización de distancia de enfoque (212) en la pantalla táctil (188), mostrada en la Figura 11. En la Figura 11 se muestra una vista frontal que ilustra la interfaz de usuario portátil de la Figura 9, en la que se muestra un menú de visualización de distancia de enfoque (212).
El menú de visualización de distancia de enfoque (212) incluye una ventana de vídeo (214) que muestra una señal de vídeo en directo desde la cámara (103) (que al menos incluye al menos una ventana de imagen actual configurada
5
10
15
20
25
30
35
40
45
50
55
60
65
para mostrar al menos una imagen actual capturada por el dispositivo o los dispositivos de captura de imágenes) y una pantalla de distancia (114) que muestra la distancia calculada desde la cámara (103) a la etiqueta localizadora (116). Además, el menú de visualización de distancia de enfoque (212) comprende la pantalla de configuración de lente (216) que muestra la configuración de la distancia actual del anillo focal de la lente de la cámara (105). Se observa que el programa (194) interopera con el componente de adquisición de ajuste de enfoque (150) para generar el contenido de la pantalla de configuración de lente (216).
La selección del usuario del elemento de menú “Calibración” (202) en el menú principal (196) tiene como resultado la visualización del menú de calibración (218) en la pantalla táctil (188) mostrada en la Figura 12. La Figura 12 muestra una vista frontal que ilustra la interfaz de usuario portátil de la Figura 9, en la que se muestra un menú de calibración (218), de conformidad con una realización de la materia divulgada. El menú de calibración (218) incluye el elemento de menú “Calibración automática de lente” (220), el elemento de menú “Longitud de lente” (222), el elemento de menú “Número F” (224), el elemento de menú “Configuración de punto de distancias de anillo de enfoque” (226), el elemento de menú de calibración de “Longitud de lente de zoom” (228) y el elemento de menú “Guardar calibración” (230), como se muestra.
El elemento de menú “Entrada de longitud de lente” (222) se utiliza para calcular la profundidad de campo/rango focal de la lente de la cámara (105). El elemento de menú “Número F” (224) se utiliza para calcular la profundidad de campo/rango focal de la lente de la cámara (105).
Además, el menú de calibración (218) incluye el elemento de menú “Calibraciones guardadas” (232) y los elementos de menú “Lista de calibraciones guardadas” (234) y “Seleccionar calibración” (236).
El elemento de menú “Calibraciones guardadas” (232) se utiliza para configurar los parámetros del número F, el anillo de enfoque y la longitud de lente en la memoria del sistema (127). Esto permite que la configuración de lentes ya calibradas se establezca fácilmente en el futuro, reduciendo así la necesidad de recalibrar cuando se intercambian las lentes de la cámara (105). La lista de calibraciones guardadas (234) muestra una lista de las calibraciones guardadas. Las calibraciones guardadas pueden ser editadas por el usuario (que al menos incluye al menos un elemento de menú seleccionable por el usuario que permite la entrada manual de al menos una configuración de hardware del dispositivo o los dispositivos de captura de imágenes).
El programa (194) comprende además instrucciones para que la unidad de cálculo de distancia (161) busque automáticamente los sujetos localizables (113) (al menos como se incorpora en el presente, en el que el programa o los programas comprenden además instrucciones para que el calculador o los calculadores de distancia busquen automáticamente sujetos localizables). La selección del usuario del elemento de menú “Sincronización” (204) en el menú principal (196) tiene como resultado la visualización del menú de sincronización de etiquetas (240) en la pantalla táctil (188), como se muestra en la Figura 13. En la Figura 13 se muestra una vista frontal que ilustra la interfaz de usuario portátil (180) en la que se muestra el menú de sincronización de etiquetas (240), de conformidad con otra realización de la materia divulgada.
El menú de sincronización de etiquetas (240) permite al usuario iniciar la búsqueda automática de sujetos localizables
(113) dentro del rango de detección del dispositivo. El elemento de menú “Detectar balizas” (242), cuando se selecciona, tiene como resultado que el sistema busque todas las etiquetas localizadoras legibles (116) y enumere todas las etiquetas localizadoras detectadas (116) como “Sujetos”.
El programa (194) está configurado para generar un conjunto de datos de múltiples sujetos (205) en el que cada entrada de datos del conjunto de datos de múltiples sujetos (205) identifica a un solo sujeto localizable (113) de los múltiples sujetos localizables (113) dentro del rango de detección del sistema. Los perfiles de ubicación de sujeto se generan activamente mediante el programa (194) usando datos de ubicación recibidos de las etiquetas localizadoras (116) (que al menos incluye al menos un generador de perfiles de sujeto estructurado y configurado para generar al menos un perfil de ajuste de enfoque para cada entrada de datos del conjunto o los conjuntos de datos de múltiples sujetos). El conjunto de datos de múltiples sujetos (205) y sus perfiles asociados de ubicación de sujetos se almacenan en la memoria del sistema (127).
El menú de sincronización de etiquetas (240) incluye el campo de “Visualización” (244), en el cual se enumeran los sujetos localizables potencialmente “enfocados” (113) (sujetos etiquetados) del conjunto de datos de múltiples sujetos (205). De manera predeterminada, los dos primeros sujetos localizables ubicados (113) se enumeran como “Sujeto_A” y “Sujeto_B”. A cada sujeto ubicado adicional se le asigna la siguiente letra de identificación disponible, como se muestra (al menos como se incorpora en el presente, en el que la interfaz o las interfaces de usuario comprenden además al menos un elemento de menú seleccionable por el usuario que permite la adquisición iniciada por el usuario de al menos uno de los datos de la primera ubicación, los datos de la segunda ubicación y otros datos de ubicación).
El usuario podrá editar los nombres de letras predeterminados asignados a las etiquetas localizadoras (116) mediante la selección de la designación de letras predeterminada de una etiqueta localizadora mostrada (116) y la selección del elemento de menú “Editar nombre de baliza” (246). La etiqueta localizadora seleccionada (116) se resalta con un color, por ejemplo azul, que indica que la entrada está disponible para su edición. A continuación, el usuario puede cambiar
5
10
15
20
25
30
35
40
45
50
55
60
65
el nombre para que en lugar de indicar un sujeto ubicado como “Sujeto_A”, la entrada de la pantalla diga “Actor_Masculino”, “John_Smith”, “Manzana_Roja”, etc. Cuando se selecciona el elemento de menú “Editar nombre de baliza” (246), el programa (194) muestra una interfaz de teclado para facilitar la edición.
El campo de visualización (244) también muestra las distancias entre todas las etiquetas localizadoras (116) y la cámara (103) y la carga de la batería de todas las etiquetas localizadoras (116). Las etiquetas localizadoras (116) sobre las que se detecta que poseen una carga de batería inferior al 25% son resaltadas con un color de alerta, como por ejemplo el rojo.
La selección por parte del usuario del elemento de menú “Cambio de enfoque de sujeto” (206) en el menú principal (196) tiene como resultado la visualización del menú de cambio de enfoque de sujeto (250) en la pantalla táctil (188), como se muestra en la Figura 14. En la Figura 14 se muestra una vista frontal que ilustra la interfaz de usuario portátil de la Figura 9, en la que se muestra el menú de cambio de enfoque de sujeto (250) de conformidad con una realización de la materia divulgada.
El menú de cambio de enfoque de sujeto (250) comprende el elemento de menú de “Cambiar enfoque” (Rack focus) (252), el control deslizante de velocidad de enfoque digital (254), la ventana de vídeo (214), la pantalla de distancia
(114), la pantalla de configuración de lente (216), el elemento de menú de “Configuración de velocidad de cambio de enfoque” (256) y la ventana de lista de sujetos (258), como se muestra.
En la ventana de lista de sujetos (258) se muestra una lista de dos o más posibles “sujetos etiquetados” enfocados del conjunto de datos actual de múltiples sujetos (205). De manera predeterminada, los primeros dos “sujetos etiquetados” ubicados por el sistema aparecen como “Sujeto_A” y “Sujeto_B”. El usuario puede seleccionar el “sujeto etiquetado” que será enfocado mediante la selección en la pantalla táctil de un sujeto enumerado dentro de la ventana de lista de sujetos (258) (que al menos incluye al menos un selector de sujeto localizable estructurado y configurado para permitir al usuario seleccionar al menos una entrada de datos del conjunto o los conjuntos de datos de múltiples sujetos).
De manera predeterminada, la primera baliza que será activada y detectada por el sistema se designará como “Sujeto_A” y estará enfocada. El sujeto “enfocado” se identificará en la pantalla táctil (188) como el sujeto “enfocado” actual mediante una luz de fondo verde.
A continuación, el usuario puede seleccionar el siguiente sujeto que se enfocará, por ejemplo, al tocar el elemento del menú en la ventana de la lista de sujetos (258) asociada con “Sujeto_B”. En una realización del presente sistema, el programa (194) no lleva a cabo una transición inmediata del enfoque al “Sujeto_B” cuando se produce la selección del usuario, sino que el sistema asigna a “Sujeto_B” un estado “en espera” (on deck). Esta designación “en espera” indica que un sujeto está seleccionado y está listo para ser el próximo sujeto que el sistema “enfocará”. Un sujeto “en espera” se identifica con una luz de fondo roja en la ventana de lista de sujetos (258).
Después de que el usuario haya seleccionado un sujeto para que esté “en espera” y la pantalla táctil (188) haya indicado el estado del sujeto “en espera” mediante una luz de fondo roja, el usuario puede activar una transición entre el sujeto “enfocado” actual y el sujeto “en espera” tocando el elemento de menú “Cambiar enfoque” (252). A continuación, el programa (194) envía una señal al sistema para que haga una transición del “Sujeto_A” al “Sujeto_B”, usando el perfil de ubicación de sujeto actual para el “Sujeto_B” (que al menos incluye al menos un elemento transicionador de enfoque de sujeto estructurado y configurado para llevar a cabo una transición del estado de enfoque del dispositivo o los dispositivos de captura de imágenes entre el primer o los primeros perfiles de ajuste de enfoque generados para el primer o los primeros sujetos localizables y el otro o los otros perfiles de ajuste de enfoque generados para el otro o los otros sujetos localizables). La velocidad de transición se controla mediante el elemento de menú “Configuración de velocidad de cambio de enfoque” (256) o el control deslizante de velocidad de enfoque digital (254). Ambos elementos de menú controlan la velocidad a la que el programa cambia entre el enfoque de dos “sujetos etiquetados”. El elemento de menú “Configuración de velocidad de cambio de enfoque” (256) permite las selecciones generalizadas de transiciones “lenta”, “media” y “rápida”. El control deslizante de velocidad de enfoque digital (254) está configurado para permitir el control manual de la velocidad del proceso de cambio de enfoque (al menos como se incorpora en el presente, en el que el elemento o los elementos transicionadores de enfoque de sujeto comprende al menos un control de transición de usuario estructurado y configurado para permitir el control por parte del usuario de la velocidad de cambio de la transición de dicho estado de enfoque).
En una realización del presente sistema, la capacidad de cambiar entre “Sujeto_A” y “Sujeto_B” también está disponible mediante los disparadores de dedo remotos (176) incorporados dentro de las asas (178) (véase la Figura 1).
Asimismo, se proporciona un icono de batería baja en la ventana de lista de sujetos (258) que parpadeará si a una etiqueta localizadora (116) le queda poca carga de batería. Se muestra el “Sujeto_E” con un icono iluminado de batería baja.
La selección del usuario del elemento de menú “Opciones” (208) en el menú principal (196) tiene como resultado la
5
10
15
20
25
30
35
40
45
50
55
60
65
visualización de la pantalla táctil (188) del menú “Opciones” (260), como se muestra en la Figura 15. En la Figura 15 se muestra una vista frontal que ilustra la interfaz de usuario portátil (180) en la que se muestra el menú “Opciones” (260), de conformidad con otra realización de la materia divulgada.
Los elementos de menú en el menú “Opciones” (260) permiten al usuario modificar opciones dentro de los menús. Por ejemplo, las opciones incluyen la selección del idioma mostrado, permitir al usuario configurar el brillo de la pantalla, permitir al usuario elegir una configuración de color para la visualización nocturna, permitir al usuario evitar la edición de los nombres de balizas, etc.
Además, el elemento de menú (262) en el menú “Opciones” (260) permite al usuario eliminar el elemento de menú “Cambiar enfoque” (252) del menú de cambio de enfoque del sujeto (250). Esto tiene como resultado la transición inmediata del enfoque a un nuevo sujeto tan pronto como el sujeto sea seleccionado en la ventana de lista de sujetos (258) (véase también la Figura 14). El elemento de menú (264) en el menú “Opciones” (260) tiene como resultado que el último sujeto que haya sido enfocado se mantenga automáticamente enfocado para quedar automáticamente “en espera”.
Otros elementos de menú en el menú “Opciones” (260) incluyen la capacidad de modificar la organización de la pantalla táctil (188) para los usuarios zurdos, controlar y modificar las opciones de flujo de datos para definir cómo se visualiza la señal de vídeo de la cámara (103) y seleccionar el idioma que se utiliza en la interfaz. Al leer esta memoria descriptiva, los expertos en la técnica apreciarán que, en circunstancias apropiadas y teniendo en cuenta cuestiones tales como preferencias de diseño, preferencias de usuario, preferencias de comercialización, costes, avances tecnológicos, etc., pueden ser suficientes otras opciones como, por ejemplo, el cambio de unidades de medición entre unidades imperiales y métricas, la capacidad de almacenar y recuperar configuraciones para usuarios específicos, etc.
En la Figura 16 se muestra un diagrama en el que se ilustra esquemáticamente el controlador principal (300) configurado para controlar una pluralidad de cámaras (103) desde una ubicación central, de conformidad con una realización de la materia divulgada. El controlador principal (300) está configurado para proporcionar un control inalámbrico de dos o más cámaras (103) equipadas con dispositivos de asistencia de enfoque accionados por servomotor (160). El controlador principal (300) (que al menos incluye al menos un controlador de sistema estructurado y configurado para controlar múltiples dispositivos de captura de imágenes que funcionan dentro de dicho sistema) permite a un solo usuario obtener el control de múltiples cámaras de manera similar a la selección de sujetos en los menús descritos anteriormente (196) de la interfaz de usuario portátil (180). Más específicamente, el controlador principal (300) comprende una pantalla táctil (188) y un menú (302) en el que se enumeran las cámaras seleccionables (103) bajo el control del dispositivo. Una vez seleccionada, una cámara está “en espera” y el nombre de la cámara seleccionada se retroilumina con el color verde. A continuación, el usuario puede cambiar a la cámara seleccionada presionando el elemento de menú “Controlar ahora” (304). Cuando una cámara está bajo el control del usuario, se ilumina con una luz posterior roja. También se pueden controlar múltiples cámaras (103) al mismo tiempo, lo que permite que múltiples cámaras (103) enfoquen todas a la vez al mismo sujeto. Esto permite que un usuario pueda realizar el enfoque para varias cámaras (103). Una vez que se selecciona una cámara, el programa del sistema puede mostrar menús de control similares a los implementados en la interfaz de usuario portátil (180) descrita anteriormente.
Cabe destacar que las realizaciones descritas de la interfaz de usuario portátil (180) y el controlador principal (300) se implementan usando un dispositivo informático portátil como, por ejemplo, una tableta iPad®, fabricada por Apple Corporation de América del Norte. En una realización, el procesador (126), la memoria (127) y la interfaz de usuario (124) son componentes del dispositivo de tableta e interoperan con uno o varios programas de aplicaciones (194) ejecutados dentro del dispositivo de tableta.
Por lo que respecta a la divulgación contenida en el presente, el sistema de enfoque de cámara (100) comprende un método relacionado con la generación, para al menos una cámara (103), de datos de ajuste de enfoque asociados con uno o varios sujetos localizables (113) cuyas imágenes se van a capturar, pudiéndose utilizar estos datos de ajuste de enfoque para controlar el estado de enfoque de la cámara (113). En ese sentido, el método del sistema de enfoque de la cámara (100) incluye las siguientes etapas: proporcionar al menos una etiqueta localizadora (116) estructurada y configurada para generar datos de la primera ubicación asociados con una ubicación actual de un sujeto etiquetado asociado con dicha etiqueta localizadora (116); proporcionar al menos un localizador de cámara (120) estructurado y configurado para generar datos de la segunda ubicación asociados con una ubicación actual de la cámara (103); proporcionar al menos un dispositivo informático (es decir, una unidad de cálculo de distancia (112), una unidad de cálculo de distancia (161), una interfaz de usuario portátil (180) o un controlador principal (300)), estando dicho dispositivo informático estructurado y configurado para calcular una distancia actual entre sujetos localizables (113) y un punto de enfoque del generador de imágenes (122) de la cámara (103); generar dicha distancia actual utilizando los datos de la primera ubicación y los datos de la segunda ubicación; proporcionar al menos una pantalla de distancia (114) configurada para mostrar la distancia actual calculada; y proporcionar al menos un dispositivo de enfoque de seguimiento (es decir, un dispositivo de asistencia de enfoque (102) o dispositivo de asistencia de enfoque accionado por servomotor (160)) estructurado y configurado para manipular al menos un anillo de enfoque de la lente de la cámara (105) con el fin de ayudar a establecer, dentro de la cámara (103), un estado de enfoque apropiado para la generación de las imágenes que se van a capturar de los sujetos. Asimismo, el método anterior comprende además
la manipulación de dicho anillo de enfoque de la lente de la cámara (105) en respuesta a la distancia actual calculada mostrada; en donde dicha etiqueta localizadora comprende al menos un primer comunicador inalámbrico estructurado y configurado para comunicar de manera inalámbrica dichos datos de la primera ubicación.
5 Aunque el solicitante ha descrito las realizaciones del solicitante de la materia divulgada, se entenderá que el ámbito más amplio de esta materia incluye modificaciones entre las que figuran una diversidad de formas, tamaños y materiales.

Claims (14)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    REIVINDICACIONES
    1. Un sistema (100) relacionado con la generación, para al menos un dispositivo de captura de imágenes (103), de datos de ajuste de enfoque asociados con uno o varios sujetos (113) cuyas imágenes se van a capturar, pudiéndose utilizar estos datos de ajuste de enfoque para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes, y este sistema se caracteriza por:
    a. al menos un generador de datos de la primera ubicación (116) estructurado y configurado para generar datos de la primera ubicación asociados con una ubicación actual de al menos un primer sujeto localizable;
    b. al menos un generador de datos de la segunda ubicación (120) estructurado y configurado para generar datos de la segunda ubicación asociados con una ubicación actual del dispositivo o los dispositivos de captura de imágenes; y
    c. al menos un calculador de distancia (112, 161, 180 y 300) estructurado y configurado para calcular una distancia actual entre el primer sujeto localizable y un punto de enfoque del generador de imágenes (122) del dispositivo o los dispositivos de captura de imágenes, en el que el calculador o los calculadores de distancia están configurados para generar la distancia actual usando los datos de la primera ubicación y los datos de la segunda ubicación;
    d. en el que el generador o los generadores de datos de la primera ubicación comprenden al menos un primer comunicador inalámbrico estructurado y configurado para comunicar de forma inalámbrica los datos de la primera ubicación;
    e. en el que el calculador o los calculadores de distancia comprenden:
    i. al menos un segundo comunicador inalámbrico (118) estructurado y configurado para adquirir los datos de la primera ubicación mediante la comunicación inalámbrica con el primer o los primeros comunicadores inalámbricos;
    ii. al menos un comunicador de datos de distancia (171) estructurado y configurado para comunicar la distancia calculada a al menos un efector de enfoque de imagen (160) que controla el estado de enfoque del dispositivo o los dispositivos de captura de imágenes;
    iii. una memoria de almacenamiento (127) estructurada y configurada para almacenar una pluralidad de registros de calibración, cada uno de los cuales comprende entradas de datos asociadas con al menos una configuración de hardware del dispositivo o los dispositivos de captura de imágenes;
    iv. al menos una interfaz de usuario de calibración (124) estructurada y configurada para ayudar a la recuperación por parte del usuario de un registro seleccionado de la pluralidad de registros de calibración guardados;
    v. en el que cada uno de los registros de calibración contiene al menos una entrada de datos seleccionada de entre:
    A. un rango de número F de lente;
    B. un rango de distancia focal de lente; y
    C. un rango de ajuste de enfoque de lente; y
    vi. en el que los registros de calibración pueden ser utilizados por el efector o los efectores de enfoque de imagen para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes;
    f. en el que el generador o los generadores de datos de la primera ubicación (116) comprenden al menos un primer acoplador de movimiento configurado para acoplar físicamente los movimientos del generador o los generadores de datos de la primera ubicación y el primer o los primeros sujetos localizables; y
    g. en el que el generador o los generadores de datos de la segunda ubicación (120) comprenden al menos un segundo acoplador de movimiento configurado para acoplar físicamente los movimientos del generador o los generadores de datos de la segunda ubicación y el dispositivo o los dispositivos de captura de imágenes.
  2. 2. El sistema (100), según la reivindicación 1, en el que el comunicador o los comunicadores de datos de distancia (171) comprenden al menos una pantalla de datos de distancia (114) configurada para mostrar la distancia actual calculada y opcionalmente al menos un soporte de pantalla de distancia estructurado y configurado para soportar la pantalla o las pantallas de datos de distancia adyacentes al dispositivo o los dispositivos de captura de imágenes.
  3. 3. El sistema (100), según la reivindicación 1, en el que:
    a. el generador o los generadores de datos de la primera ubicación (116) comprenden al menos una etiqueta de identificación por radiofrecuencia (RFID) estructurada y configurada para transmitir de manera inalámbrica al menos una primera señal de radio de la cual pueden derivarse los datos de la primera ubicación; y
    b. el generador o los generadores de datos de la segunda ubicación (120) comprenden al menos un receptor de señales RFID estructurado y configurado para recibir la primera o las primeras señales de radio.
  4. 4. El sistema (100), según la reivindicación 1, en el que:
    a. el generador o los generadores de datos de la primera ubicación (116) comprenden:
    i. al menos un primer receptor de Sistema de Posicionamiento Global (GPS) (136) estructurado y configurado para recibir datos de señales GPS asociados con la ubicación actual del primer o los primeros sujetos localizables (113);
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    ii. al menos un primer procesador de datos de señales GPS (138) estructurado y configurado para procesar los datos de señales GPS para formar los datos de la primera ubicación; y
    iii. al menos un primer transmisor inalámbrico (142) estructurado y configurado para transmitir de manera inalámbrica los datos de la primera ubicación;
    b. el generador o los generadores de datos de la segunda ubicación (120) comprenden al menos un segundo receptor GPS (146) estructurado y configurado para recibir datos de señales GPS asociados con la ubicación actual del dispositivo o los dispositivos de captura de imágenes (103); y
    c. el calculador o los calculadores de distancia (112, 161, 180 y 300) comprenden al menos un receptor de datos inalámbrico estructurado y configurado para recibir de forma inalámbrica los datos de la primera ubicación.
  5. 5. El sistema (100), según la reivindicación 2, que además comprende al menos un dispositivo de enfoque de seguimiento (104) estructurado y configurado para manipular al menos un anillo de enfoque del dispositivo o los dispositivos de captura de imágenes (103) para ayudar a establecer, dentro del dispositivo o los dispositivos de captura de imágenes, un estado de enfoque apropiado para la generación de las imágenes que se van a capturar de los sujetos y opcionalmente en el que el soporte o los soportes de pantalla de distancia están configurados para soportar la pantalla o las pantallas de datos de la distancia desde el dispositivo o los dispositivos de enfoque de seguimiento.
  6. 6. El sistema (100), según la reivindicación 1, en el que el calculador o los calculadores de distancia (112, 161, 180 y 300) comprenden al menos un componente de adquisición de ajuste de enfoque (150) estructurado y configurado para adquirir al menos una configuración de enfoque de imagen actual del dispositivo o los dispositivos de captura de imágenes (103) y opcionalmente en el que el calculador o los calculadores de distancia comprenden además al menos una pantalla de ajuste de enfoque estructurada y configurada para mostrar al menos la configuración o las configuraciones de enfoque de la imagen actual del dispositivo o los dispositivos de captura de imágenes o en el que el componente o los componentes de adquisición de ajuste de enfoque están configurados para adquirir al menos una configuración de enfoque de la imagen actual seleccionada de entre: una configuración de número F de la lente actual; y la distancia focal de la lente actual.
  7. 7. El sistema (100), según la reivindicación 1, en el que:
    a. el calculador o los calculadores de distancia (112, 161, 180 y 300) comprenden además al menos un generador de perfiles de sujeto estructurado y configurado para generar al menos un primer perfil de ajuste de enfoque para el primer o los primeros sujetos;
    b. en el que el generador o los generadores de perfiles de sujeto generan el primer o los primeros perfiles de ajuste de enfoque usando los datos de la primera ubicación, los datos de la segunda ubicación y la configuración o las configuraciones de enfoque de la imagen actual; y
    c. en el que el primer o los primeros perfiles de ajuste de enfoque generados pueden ser utilizados por el efector o los efectores de enfoque de imagen para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes;
    opcionalmente en el que:
    a. el efector o los efectores de enfoque de imagen (160) comprenden al menos un dispositivo de enfoque de seguimiento accionado por servomotor estructurado y configurado para manipular automáticamente un anillo de enfoque del dispositivo o los dispositivos de captura de imágenes (103); y
    b. el efector o los efectores de enfoque de imagen están configurados para ayudar a establecer, dentro de los dispositivos de captura de imágenes, un estado de enfoque apropiado para la generación de imágenes de los sujetos que se van a capturar en respuesta al primer o los primeros perfiles de ajuste de enfoque generados; y
    en el que el dispositivo o los dispositivos de enfoque de seguimiento accionados por servomotor pueden
    comprender además:
    a. al menos un control de enfoque de operación manual configurado para permitir ajustes manuales de dicho estado de enfoque;
    b. al menos un detector de manipulación manual estructurado y configurado para detectar entradas de ajuste manual; y
    c. al menos una anulación de servomotor para anular el funcionamiento automático del dispositivo o los dispositivos de enfoque de seguimiento accionados por servomotor cuando se detecta al menos una manipulación manual del control o los controles de enfoque de operación manual.
  8. 8. El sistema (100), según la reivindicación 1, en el que el calculador o los calculadores de distancia (112, 161, 180 y 300) comprenden además:
    a. al menos un conjunto de datos de múltiples sujetos en el que cada entrada de datos del conjunto o los conjuntos de datos de múltiples sujetos identifica un sujeto localizable (113) de un conjunto que comprende múltiples sujetos localizables;
    b. al menos un generador de perfiles de sujeto estructurado y configurado para generar al menos un perfil de ajuste de enfoque para cada entrada de datos del conjunto o los conjuntos de datos de múltiples sujetos;
    c. al menos un selector de sujeto localizable (258) estructurado y configurado para permitir al usuario seleccionar al menos una de las entradas de datos del conjunto o los conjuntos de datos de múltiples
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    sujetos; y
    d. en el que cada uno de los perfiles de ajuste de enfoque seleccionados puede ser utilizado por el efector o los efectores de enfoque de imagen para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes;
    opcionalmente, en el que el calculador o los calculadores de distancia comprenden además al menos un elemento transicionador de enfoque de sujeto estructurado y configurado para llevar a cabo una transición del estado de enfoque del dispositivo o los dispositivos de captura de imágenes entre el primer o los primeros perfiles de ajuste de enfoque generados para el primer o los primeros sujetos localizables y al menos otro perfil de ajuste de enfoque generado para el otro o los otros sujetos localizables,
    en el que el elemento o los elementos transicionadores de enfoque del sujeto pueden comprender al menos un control de transición del usuario (254) estructurado y configurado para permitir al usuario controlar una velocidad de cambio de dicha transición del estado de enfoque y en el que el calculador o los calculadores de distancia pueden comprender además:
    a. al menos un dispositivo informático, el cual comprende:
    i. al menos una interfaz de usuario (188);
    ii. al menos un procesador (126); y
    iii. una memoria (127); y
    b. al menos un programa (194), en el que el programa o los programas están almacenados en la memoria y están configurados para ser ejecutados por el procesador o los procesadores, comprendiendo el programa o los programas instrucciones para:
    i. mostrar al menos un menú (196) en la interfaz o las interfaces de usuario, comprendiendo el menú o los menús al menos un elemento de menú seleccionable por el usuario (198); y
    ii. recibir al menos una entrada de usuario correspondiente a al menos uno de los elementos de menú seleccionables por el usuario,
    el programa o los programas pueden comprender además instrucciones para que el calculador o los calculadores de distancia busquen automáticamente sujetos localizables (113).
  9. 9. El sistema (100), según la reivindicación 8, en el que la interfaz o las interfaces de usuario comprenden además:
    a. al menos un elemento de menú seleccionable por el usuario (202) que activa la interfaz o las interfaces de usuario de calibración; y
    b. en el que el elemento o los elementos de menú seleccionables por el usuario que activan la interfaz o las interfaces de usuario de calibración comprenden al menos un elemento de menú seleccionable por el usuario (232) que permite la entrada manual de al menos una configuración de hardware del dispositivo o los dispositivos de captura de imágenes (103).
  10. 10. El sistema (100), según la reivindicación 1, en el que el dispositivo o los dispositivos de captura de imágenes (103) son cámaras de vídeo.
  11. 11. El sistema (100), según la reivindicación 1, en el que:
    a. el generador o los generadores de datos de la primera ubicación (116) comprenden al menos una etiqueta de banda ultra ancha estructurada y configurada para transmitir de forma inalámbrica al menos una primera señal de radio de la que se puede derivar los datos de la primera ubicación; y el generador o los generadores de datos de la segunda ubicación (120) comprenden al menos un receptor de banda ultra ancha estructurado y configurado para recibir la primera o las primeras señales de radio.
  12. 12. Un método relacionado con la generación, para al menos un dispositivo de captura de imágenes (103), de datos de ajuste de enfoque asociados con uno o varios sujetos (113) cuyas imágenes se van a capturar; dichos datos de ajuste de enfoque pueden ser utilizados para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes, comprendiendo dicho método las etapas de:
    a. proporcionar al menos una etiqueta localizadora (116) estructurada y configurada para generar los datos de la primera ubicación asociados con una ubicación actual de un sujeto etiquetado asociado con la etiqueta o las etiquetas localizadoras;
    b. proporcionar al menos un localizador de dispositivo de imágenes (120) estructurado y configurado para generar los datos de la segunda ubicación asociados con una ubicación actual del dispositivo o los dispositivos de captura de imágenes;
    c. proporcionar al menos un dispositivo informático (112, 161, 180 y 300) estructurado y configurado para calcular la distancia actual entre el sujeto localizable y un punto de enfoque del generador de imágenes del dispositivo o los dispositivos de captura de imágenes;
    d. generar la distancia actual utilizando los datos de la primera ubicación y los datos de la segunda ubicación;
    e. proporcionar al menos una pantalla de datos de distancia (114) configurada para mostrar la distancia
    actual calculada;
    f. proporcionar al menos un dispositivo de enfoque de seguimiento estructurado y configurado para
    manipular al menos un anillo de enfoque del dispositivo o los dispositivos de captura de imágenes para
    ayudar a establecer, dentro del dispositivo o los dispositivos de captura de imágenes, un estado de enfoque apropiado para la generación de las imágenes que se van a capturar de los sujetos;
    g. manipular el anillo o los anillos de enfoque de la captura o las capturas de imagen en respuesta a la
    5
    10
    15
    20
    25
    distancia actual calculada mostrada;
    h. en el que la etiqueta o las etiquetas localizadoras comprenden al menos un primer comunicador inalámbrico estructurado y configurado para comunicar de manera inalámbrica los datos de la primera ubicación;
    i. en el que el dispositivo o los dispositivos informáticos comprenden además:
    A. al menos un segundo comunicador inalámbrico (118) estructurado y configurado para adquirir los datos de la primera ubicación mediante la comunicación inalámbrica con el primer o los primeros comunicadores inalámbricos;
    B. una memoria de almacenamiento (127) estructurada y configurada para almacenar una pluralidad de registros de calibración, cada uno de los cuales comprende entradas de datos asociadas con al menos una configuración de hardware del dispositivo o los dispositivos de captura de imágenes;
    C. al menos una interfaz de usuario de calibración (124) estructurada y configurada para ayudar a la recuperación por parte del usuario de un registro seleccionado de la pluralidad de registros de calibración guardados;
    D. en el que cada uno de los registros de calibración contiene al menos una entrada de datos seleccionada de entre:
    1. un rango de número F de lente;
  13. 2. un rango de distancia focal de lente; y
  14. 3. un rango de ajuste de enfoque de lente; y
    E. en el que los registros de calibración pueden ser utilizados por el dispositivo o los dispositivos de enfoque de seguimiento para controlar el estado de enfoque del dispositivo o los dispositivos de captura de imágenes; y
    j. en el que la pantalla o las pantallas de datos de distancia comprenden al menos un soporte de pantalla estructurado y configurado para ayudar al montaje de la pantalla o las pantallas de datos de distancia adyacentes al dispositivo o los dispositivos de enfoque de seguimiento.
ES14862843.1T 2013-11-15 2014-11-14 Sistemas de enfoque de cámara con etiquetas de ubicación Active ES2688020T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361904968P 2013-11-15 2013-11-15
US201361904968P 2013-11-15
US201361921337P 2013-12-27 2013-12-27
US201361921337P 2013-12-27
PCT/US2014/065827 WO2015073916A2 (en) 2013-11-15 2014-11-14 Location-tag camera focusing systems

Publications (1)

Publication Number Publication Date
ES2688020T3 true ES2688020T3 (es) 2018-10-30

Family

ID=53058276

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14862843.1T Active ES2688020T3 (es) 2013-11-15 2014-11-14 Sistemas de enfoque de cámara con etiquetas de ubicación

Country Status (7)

Country Link
US (2) US9609226B2 (es)
EP (1) EP3069505B1 (es)
JP (1) JP6445581B2 (es)
CN (1) CN105917639B (es)
CA (1) CA2930413C (es)
ES (1) ES2688020T3 (es)
WO (1) WO2015073916A2 (es)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2919170A1 (en) * 2013-08-13 2015-02-19 Navigate Surgical Technologies, Inc. System and method for focusing imaging devices
EP3069505B1 (en) * 2013-11-15 2018-08-01 Free Focus Systems LLC Location-tag camera focusing systems
US9423669B2 (en) * 2014-11-04 2016-08-23 Qualcomm Incorporated Method and apparatus for camera autofocus based on Wi-Fi ranging technique
CN107209922B (zh) * 2015-02-05 2020-11-10 株式会社理光 图像处理设备、图像处理***、和图像处理方法
CN105519093B (zh) * 2015-04-29 2019-10-01 深圳市大疆创新科技有限公司 跟焦器、具有该跟焦器的遥控跟焦***及飞行器
KR102404790B1 (ko) * 2015-06-11 2022-06-02 삼성전자주식회사 카메라의 초점을 변경하는 방법 및 장치
CN204887205U (zh) * 2015-07-28 2015-12-16 惠州市东阳塑胶模型有限公司 跟焦装置
WO2017070884A1 (zh) * 2015-10-29 2017-05-04 深圳市莫孚康技术有限公司 基于无线测距的图像调焦***、方法及拍摄***
US20170230565A1 (en) * 2016-02-08 2017-08-10 Damian Silva Automatic follow focus system
SE541141C2 (en) 2016-04-18 2019-04-16 Moonlightning Ind Ab Focus pulling with a stereo vision camera system
CN106027880B (zh) * 2016-05-05 2019-07-12 广东小天才科技有限公司 一种移动终端及智能穿戴式设备的对焦方法及装置
DE112017007151T5 (de) * 2017-03-31 2019-12-12 Ford Global Technologies, Llc Fahrzeughalterung für mobile vorrichtungen
CN107091800A (zh) * 2017-06-06 2017-08-25 深圳小孚医疗科技有限公司 用于显微成像粒子分析的聚焦***和聚焦方法
US10607143B2 (en) * 2017-08-22 2020-03-31 Internatonal Business Machines Corporation Profile data camera adjustment
WO2019156723A2 (en) * 2018-02-09 2019-08-15 Setos Andrew System to control camera function remotely
EP3581956A1 (en) 2018-06-14 2019-12-18 Swiss Timing Ltd. Method for calculating a position of an athlete on a sports field
WO2020000314A1 (zh) * 2018-06-28 2020-01-02 深圳市大疆创新科技有限公司 跟焦器和具有其的云台
CN114827407A (zh) * 2018-11-15 2022-07-29 深圳市大疆创新科技有限公司 一种相机镜头调节方法、装置及控制设备、控制***
EP3800877B1 (en) * 2019-07-11 2022-08-10 SZ DJI Technology Co., Ltd. Follow focus wheel assembly, handheld apparatus, and image capture system
DE102019134014A1 (de) * 2019-12-11 2021-06-17 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Fernsteuereinheit für eine Bewegtbildkamera
WO2023272485A1 (zh) * 2021-06-29 2023-01-05 深圳市大疆创新科技有限公司 控制方法、拍摄装置和拍摄***

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54130924A (en) * 1978-03-31 1979-10-11 Yashica Co Ltd Focus detachably attached to camera body
US5361115A (en) * 1989-04-21 1994-11-01 Canon Kabushiki Kaisha Camera
JPH0545569A (ja) * 1991-08-14 1993-02-23 Canon Inc レンズ制御装置
US5995763A (en) * 1997-10-10 1999-11-30 Posa; John G. Remote microphone and range-finding configurations
US7101045B2 (en) * 2001-03-23 2006-09-05 Panavision Inc. Automatic pan and tilt compensation system for a camera support structure
US6724429B2 (en) * 2001-04-23 2004-04-20 Panavision, Inc. System for sensing and displaying lens data for high performance film and video cameras and lenses
US20040046938A1 (en) * 2002-09-05 2004-03-11 Gary Gero Automatic and manual lens focusing system with visual matching for motion picture camera
JP2004102000A (ja) * 2002-09-11 2004-04-02 Fuji Photo Optical Co Ltd レンズ制御装置
JP4058352B2 (ja) * 2003-01-07 2008-03-05 キヤノン株式会社 撮像装置及び撮像制御方法
GB2403363A (en) 2003-06-25 2004-12-29 Hewlett Packard Development Co Tags for automated image processing
JP2005266520A (ja) * 2004-03-19 2005-09-29 Olympus Corp 撮像装置および撮像方法
DE102004015947A1 (de) * 2004-03-25 2005-10-13 Arnold & Richter Cine Technik Gmbh & Co Betriebs Kg Verfahren und Vorrichtung zum Einstellen der Bildschärfe am Kameraobjektiv einer Laufbildkamera
US20060050929A1 (en) 2004-09-09 2006-03-09 Rast Rodger H Visual vector display generation of very fast moving elements
JP2006113316A (ja) * 2004-10-15 2006-04-27 Fujitsu Support & Service Kk 撮影装置
US8162486B2 (en) 2005-01-15 2012-04-24 Lenovo (Singapore) Pte Ltd. Remote set-up and calibration of an interactive system
US20060171705A1 (en) * 2005-01-31 2006-08-03 Slupe James P Automatic tracking system
US8031227B2 (en) * 2005-03-07 2011-10-04 The Regents Of The University Of Michigan Position tracking system
US20080002031A1 (en) * 2005-05-06 2008-01-03 John-Paul P. Cana Multi-axis control of a fixed or moving device based on a wireless tracking location of one or many target devices
JP2007058680A (ja) 2005-08-25 2007-03-08 Canon Inc 電子機器
US20070096909A1 (en) 2005-10-28 2007-05-03 Matthew Lally Interactive networking device
US7561786B1 (en) 2005-12-09 2009-07-14 Qurio Holdings, Inc Methods and systems for automatic identification of device accessories, and devices configured to automatically identify attached accessories
US7450835B2 (en) * 2005-12-14 2008-11-11 Lackey Robert C Tripod device for mounting a camera and tracking movable objects
JP4428347B2 (ja) * 2006-02-17 2010-03-10 セイコーエプソン株式会社 画像データの出力画像調整
US20080088703A1 (en) * 2006-10-17 2008-04-17 Keith Dollahite System, method and apparatus for automatically tracking and recording objects
JP2008227877A (ja) * 2007-03-13 2008-09-25 Hitachi Ltd 映像情報処理装置
US7388496B1 (en) 2007-10-12 2008-06-17 International Business Machines Corporation System for archiving scene props
US20090322489A1 (en) 2008-04-14 2009-12-31 Christopher Jones Machine vision rfid exciter triggering system
US8334775B2 (en) 2008-05-23 2012-12-18 Guardian Technologies RFID-based asset security and tracking system, apparatus and method
US20100007738A1 (en) 2008-07-10 2010-01-14 International Business Machines Corporation Method of advanced person or object recognition and detection
DE102008052472A1 (de) * 2008-10-20 2010-04-22 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Verfahren zum Einstellen und zur Anzeige der Einstellung eines Kameraobjektivs
US8816855B2 (en) 2008-10-21 2014-08-26 At&T Intellectual Property I, L.P. Methods, computer program products, and systems for providing automated video tracking via radio frequency identification
JP5178678B2 (ja) * 2009-09-30 2013-04-10 キヤノン株式会社 撮影システム及びレンズ装置
DE202009014504U1 (de) * 2009-10-27 2010-02-04 Longmore, Martin Steuerungsvorrichtung für ein Objektiv einer Kamera
JP5038469B2 (ja) * 2010-01-22 2012-10-03 株式会社日本ビデオシステム ビューファインダー装置、ビューファインダー装置固定用アダプタ
US8587672B2 (en) * 2011-01-31 2013-11-19 Home Box Office, Inc. Real-time visible-talent tracking system
US20120300079A1 (en) 2011-03-09 2012-11-29 Richard Thomas Hale Object-oriented cable camera system
WO2012136068A1 (zh) * 2011-04-02 2012-10-11 Luo Jin 一种光学镜头附加齿环
US20120313759A1 (en) 2011-06-13 2012-12-13 Timekeeping Systems, Inc. Tracking system for persons and/or objects
US8668136B2 (en) * 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
EP2820837A4 (en) * 2012-03-01 2016-03-09 H4 Eng Inc APPARATUS AND METHOD FOR AUTOMATIC VIDEO RECORDING
US9277204B2 (en) * 2013-01-23 2016-03-01 Advanced Scientific Concepts, Inc. Modular LADAR sensor
EP3069505B1 (en) * 2013-11-15 2018-08-01 Free Focus Systems LLC Location-tag camera focusing systems

Also Published As

Publication number Publication date
JP6445581B2 (ja) 2018-12-26
US9094611B2 (en) 2015-07-28
CA2930413C (en) 2021-05-11
WO2015073916A2 (en) 2015-05-21
US20150138384A1 (en) 2015-05-21
CN105917639A (zh) 2016-08-31
US9609226B2 (en) 2017-03-28
WO2015073916A3 (en) 2015-11-05
EP3069505A4 (en) 2017-07-26
CN105917639B (zh) 2019-03-19
JP2017505079A (ja) 2017-02-09
US20150138427A1 (en) 2015-05-21
EP3069505A2 (en) 2016-09-21
EP3069505B1 (en) 2018-08-01
CA2930413A1 (en) 2015-05-21

Similar Documents

Publication Publication Date Title
ES2688020T3 (es) Sistemas de enfoque de cámara con etiquetas de ubicación
JP2017505079A5 (es)
JP5902354B2 (ja) 撮影装置及び3次元計測装置
US9269191B2 (en) Server, client terminal, system and program for presenting landscapes
JP2008227877A (ja) 映像情報処理装置
US8692666B2 (en) Communication system and communication terminal
CN103179354A (zh) 用于红外重摄的热成像相机
CN104571132A (zh) 一种追踪摄影***和追踪摄影方法
JP2015080186A (ja) 自動測位追尾撮影システム及び自動測位追尾撮影方法
JP2014107867A (ja) センサの位置合わせ用携帯端末機
WO2013118460A2 (en) Server, client terminal, system, and program
WO2013161250A1 (ja) ストロボ装置およびそれを備える撮像装置
JP2012019374A (ja) 電子アルバム作成サーバー、情報処理装置、電子アルバム作成システム、及び、電子アルバム作成サーバーの制御方法
JP5543870B2 (ja) カメラ、カメラの制御方法、及びプログラム
KR20150097274A (ko) 자주식 공간이동 카메라를 이용한 피사체 추종 촬영 시스템 및 방법
JP5969847B2 (ja) 撮像装置
JP2012039468A (ja) 撮影装置システムおよび撮影装置
JP2009008842A (ja) 撮影システム、撮影装置、方法およびプログラム
US20170195559A1 (en) Information processing device, imaging device, imaging system, method of controlling information processing device and program
KR20210050486A (ko) 단말 장비
US10218892B2 (en) Information processing device, imaging device, imaging system, and information processing method
JP2011123152A (ja) 望遠鏡及び望遠鏡システム
JP7479829B2 (ja) 制御装置、撮像装置、撮像システム、制御方法、および、プログラム
JP2012227717A (ja) 表示装置、表示プログラムおよび表示方法
JP2009224900A (ja) 撮影装置、撮影方法