ES2869438T3 - Captura de imágenes asistida por rastreador - Google Patents

Captura de imágenes asistida por rastreador Download PDF

Info

Publication number
ES2869438T3
ES2869438T3 ES14736513T ES14736513T ES2869438T3 ES 2869438 T3 ES2869438 T3 ES 2869438T3 ES 14736513 T ES14736513 T ES 14736513T ES 14736513 T ES14736513 T ES 14736513T ES 2869438 T3 ES2869438 T3 ES 2869438T3
Authority
ES
Spain
Prior art keywords
tracking
scan area
detection
frame
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14736513T
Other languages
English (en)
Inventor
Xin Zhong
Dashan Gao
Ning Bi
Steven Douglas Laver
Scott David Beith
Diarmuid Maccormack
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2869438T3 publication Critical patent/ES2869438T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

Un procedimiento (1100) para realizar una operación de procesamiento de imágenes usando múltiples tramas de material de vídeo pregrabado o en directo, la operación de procesamiento de imágenes comprendiendo capturar una fotografía (149) del material de vídeo o realizar una operación de edición de vídeo en una trama del material de vídeo, estando el procedimiento caracterizado por: obtener (1102, 1104) una primera área de rastreo (1233) y una segunda área de rastreo (1235) dentro de una trama; rastrear (1106, 1108) la primera área de rastreo y la segunda área de rastreo a través de múltiples tramas; y realizar (1110) la operación de procesamiento de imágenes una vez que una parte (1243) de la primera área de rastreo que se superpone a la segunda área de rastreo pasa un umbral, donde la operación de procesamiento de imágenes no se realiza hasta que se pasa el umbral.

Description

DESCRIPCIÓN
Captura de imágenes asistida por rastreador
CAMPO TÉCNICO
[0001] La presente divulgación se refiere, en general, a dispositivos electrónicos. Más específicamente, la presente divulgación se refiere a sistemas y procedimientos para la captura de imágenes asistida por rastreador.
ANTECEDENTES
[0002] En las últimas décadas, el uso de dispositivos electrónicos se ha vuelto común. En particular, los avances en la tecnología electrónica han reducido el coste de dispositivos electrónicos que cada vez son más complejos y útiles. La reducción del coste y la demanda de consumo han hecho proliferar el uso de dispositivos electrónicos, de manera que están prácticamente omnipresentes en la sociedad moderna. A medida que se ha ido expandiendo el uso de los dispositivos electrónicos, la demanda de características nuevas y mejoradas de los dispositivos electrónicos ha hecho lo propio. Más concretamente, los dispositivos electrónicos que realizan nuevas funciones y/o que realizan funciones con más rapidez, más eficacia o más calidad son a menudo los más codiciados.
[0003] Algunos dispositivos electrónicos (por ejemplo, cámaras, videocámaras, cámaras digitales, teléfonos celulares, teléfonos inteligentes, ordenadores, televisores, etc.) capturan o utilizan imágenes. Por ejemplo, una cámara digital puede capturar una imagen digital.
[0004] A menudo se buscan características nuevas y/o mejoradas de los dispositivos electrónicos. Como puede observarse a partir de este análisis, los sistemas y procedimientos que añaden características nuevas y/o mejoradas de dispositivos electrónicos pueden ser beneficiosos.
[0005] La solicitud de patente internacional publicada como WO 2012/173466 A1 divulga un procedimiento de recuento de objetos que emplea tasas de oclusión deducidas de manchas de movimiento en la escena y clasificadores optimizados basados en las tasas de oclusión de las manchas de movimiento, y cuenta objetos en las manchas de movimiento rastreadas analizando las manchas de movimiento rastreadas en función de sus tasas de oclusión. El procedimiento comprende inicializar un área de interés, en el que se define un área donde se va a contar el número de objetos que entran/salen de esta área; dividir una escena capturada del área de interés en una cuadrícula de bloques; determinar la información de tamaño promedio de un objeto para cada bloque de la cuadrícula de bloques; deducir las tasas de oclusión de las manchas de movimiento en la escena capturada para que los clasificadores se optimicen en función de las tasas de oclusión de las manchas de movimiento; detectar objetos en manchas en movimiento en la escena capturada; rastrear los objetos detectados en las manchas de movimiento para dar a las manchas en movimiento detectadas una etiqueta coherente a lo largo de la aparición de las manchas en la escena; y contar objetos en las manchas en movimiento rastreadas analizando las manchas en movimiento rastreadas en función de sus tasas de oclusión, donde las tasas de oclusión de las manchas en movimiento rastreadas se determinan con el clasificador optimizado, por lo que al finalizar el recuento, el número de objetos se enviará a un dispositivo de visualización.
[0006] La solicitud de patente internacional publicada como WO 2008/010762 A1 divulga un procedimiento para adquirir al menos dos imágenes digitales por medio de una cámara digital, en el que las imágenes digitales deben unirse para formar una imagen panorámica. El procedimiento comprende capturar una primera imagen digital, donde se forman imágenes de un primer escenario, determinar una relación entre el primer escenario y un segundo escenario que está siendo visto por la cámara digital, mientras se cambia dicho segundo escenario que está siendo visto por la cámara digital, analizar la relación entre el primer escenario y el segundo escenario que está siendo visto por la cámara digital para identificar una vista apropiada para ser capturada por la cámara digital en una segunda imagen digital, e indicar a un usuario que la cámara está dirigida hacia una vista apropiada para capturar una segunda imagen digital, donde dicha indicación comprende emitir una señal táctil para un usuario. Mediante el procedimiento, la cámara digital determina la relación entre la imagen capturada previamente y la imagen a capturar. Por tanto, la propia cámara determina la vista que se va a crear en la imagen que se va a capturar. A continuación, el usuario es guiado mediante una indicación de la cámara digital de que la cámara está correctamente dirigida para capturar una imagen. Por lo tanto, las directrices para ayudar al usuario a adquirir imágenes combinadas pueden lograrse en entornos brillantes e incluso cuando un usuario no puede ver el visor (como cuando se hace un autorretrato). El procedimiento priva al usuario del control de la captura de las imágenes, ya que la cámara determina el segundo escenario del que se formarán imágenes. Sin embargo, esto permite que la cámara guíe al usuario de una manera más eficaz.
[0007] En el documento US 2010/0165153 A1 de Kai et al., se describe un dispositivo de captación de imágenes que realiza fotografías con soportes de composición y que recorta, de una imagen captada, una pluralidad de imágenes fijas que incluye contenido que un usuario desea grabar. El dispositivo de captación de imágenes comprende una sección de captación de imágenes que puede hacerse funcionar para captar un objeto a fin de adquirir una imagen captada; una sección de procesamiento de imágenes que puede hacerse funcionar para procesar la imagen captada adquirida por la sección de captación de imágenes; y una sección de grabación que puede hacerse funcionar para grabar la imagen captada procesada por la sección de procesamiento de imágenes, donde la sección de procesamiento de imágenes incluye: i) medios de designación de imágenes de recorte de objetos para designar una pluralidad de imágenes de recorte de objetos generadas al recortar, respectivamente, una pluralidad de imágenes de objetos incluidas en la imagen captada adquiridas por la sección de captación de imágenes; ii) primeros medios de establecimiento de imágenes de recorte para establecer la pluralidad de imágenes de recorte de objetos como una primera imagen de recorte; iii) segundos medios de establecimiento de imágenes de recorte para establecer una imagen que abarca la pluralidad de imágenes de recorte de objetos como una segunda imagen de recorte; iv) primeros medios de cálculo de tamaño de datos para calcular un tamaño de datos de la primera imagen de recorte; v) segundos medios de cálculo de tamaño de datos para calcular un tamaño de datos de la segunda imagen de recorte; vi) medios de comparación para comparar el tamaño de los datos de la primera imagen de recorte con el tamaño de datos de la segunda imagen de recorte; y vii) medios de selección para seleccionar una de la primera imagen de recorte y la segunda imagen de recorte a grabar en la sección de grabación, donde una de la primera imagen de recorte y la segunda imagen de recorte determinada por la comparación significa que el tamaño de datos de la imagen seleccionada es más pequeño que el de la otra.
BREVE EXPLICACIÓN
[0008] Se describe un procedimiento para capturar una fotografía usando múltiples tramas de un material de vídeo pregrabado o en directo. Una primera y una segunda área de rastreo se obtienen dentro de una trama. El procedimiento incluye rastrear la primera área de rastreo y la segunda área de rastreo en múltiples tramas. La toma de una fotografía se realiza una vez que una parte de la primera área de rastreo superpuesta a la segunda área de rastreo pasa un umbral, donde no se toma una fotografía hasta que se pasa el umbral.
[0009] La toma de la fotografía se puede realizar una vez que la parte de la primera área de rastreo superpuesta a la segunda área de rastreo sea mayor que el umbral.
[0010] La toma de la fotografía también se puede realizar una vez que la parte de la primera área de rastreo superpuesta a la segunda área de rastreo sea menor que el umbral.
[0011] Un usuario puede entrar en la primera área de rastreo y la segunda área de rastreo a través de un anillo de enfoque. Comenzar a rastrear la primera área de rastreo y la segunda área de rastreo puede producirse después de que un usuario haya separado un dedo de una pantalla táctil.
[0012] La segunda área de rastreo puede incluir una línea de acción.
[0013] También se describe un aparato para tomar una fotografía usando múltiples tramas de un material de vídeo pregrabado o en directo. El aparato incluye medios para obtener una primera área de rastreo y una segunda área de rastreo dentro de una trama. El aparato incluye además medios para rastrear la primera área de rastreo y la segunda área de rastreo en múltiples tramas. El aparato también incluye medios para tomar una fotografía una vez que una parte de la primera área de rastreo superpuesta a la segunda área de rastreo pase un umbral, donde no se toma una fotografía hasta que se pase el umbral.
[0014] También se describe un producto de programa informático. El producto de programa informático incluye un medio legible por ordenador no transitorio que tiene instrucciones en el mismo. Las instrucciones incluyen código para hacer que un dispositivo electrónico lleve a cabo cualquiera de los procedimientos descritos anteriormente para tomar una fotografía usando múltiples tramas de un material de vídeo pregrabado o en directo.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0015]
La Figura 1 es un diagrama de bloques que ilustra un dispositivo electrónico para su uso en los presentes sistemas y procedimientos;
la Figura 2A es un diagrama de bloques que ilustra un módulo de rastreo y detección de objetos;
la Figura 2B ilustra algunos componentes dentro del sistema de la Figura 2A implementados por un procesador;
la Figura 3 es un diagrama de flujo que ilustra un procedimiento para realizar un rastreo basado en movimiento y una detección de objetos;
la Figura 4 es un diagrama de flujo que ilustra un procedimiento para realizar un rastreo basado en movimiento;
la Figura 5 es un diagrama de flujo que ilustra un procedimiento para estimar un error de rastreo en un rastreo basado en movimiento basado en error de avance-retroceso;
la Figura 6 es un diagrama de flujo que ilustra un procedimiento para realizar una detección de objetos; la Figura 7 es un diagrama de bloques que ilustra diferentes tamaños de ventana que pueden usarse con los presentes sistemas y procedimientos;
la Figura 8 es un diagrama de bloques que ilustra otra posible configuración de un módulo de rastreo y detección de objetos;
la Figura 9 es un diagrama de bloques que ilustra un módulo de suavizado;
la Figura 10 es un diagrama de flujo que ilustra un procedimiento para suavizar fluctuaciones en resultados de rastreo de movimiento;
la Figura 11 es un diagrama de flujo de un procedimiento para realizar un procesamiento de imágenes usando rastreo de objetos;
la Figura 12A ilustra un ejemplo de procesamiento de imágenes usando rastreo de objetos;
la Figura 12B también ilustra un ejemplo de procesamiento de imágenes usando rastreo de objetos;
la Figura 13 ilustra otro ejemplo de procesamiento de imágenes usando rastreo de objetos;
la Figura 14 es un diagrama de flujo de un procedimiento para realizar un procesamiento de imágenes en una secuencia de vídeo usando rastreo de objetos;
la Figura 15 ilustra múltiples tramas tanto de una secuencia de vídeo sin editar como de una secuencia de vídeo editada mostrada en un dispositivo electrónico; y
la Figura 16 ilustra determinados componentes que se pueden incluir dentro de un dispositivo electrónico. DESCRIPCIÓN DETALLADA
[0016] El rastreo de un objeto dentro de una imagen o una región de interés definida por el usuario dentro de esa imagen usando una cámara desde una plataforma móvil (por ejemplo, tabletas, teléfonos) puede resultar difícil. Es posible que se requiera un rendimiento en tiempo real (30 fotogramas por segundo (fps)). Algunas configuraciones pueden combinar la salida de un rastreador óptico basado en flujo y de un detector de imágenes basado en contenido para obtener un rastreo robusto. Sin embargo, el cálculo de los algoritmos existentes puede resultar prohibitivo para que las plataformas móviles logren un rendimiento en tiempo real.
[0017] Los presentes sistemas y procedimientos pueden implementar las siguientes técnicas para mejorar la velocidad de los algoritmos de rastreo y detección: (1) usar una fracción de posibles ventanas de detección en cada trama (por ejemplo, seleccionar aleatoriamente las posiciones de las ventanas); (2) seleccionar solamente algunas escalas espaciales para la detección de objetos que estén cerca del tamaño objetivo detectado previamente; (3) en base al valor de confianza del rastreo previo, determinar si buscar el objeto en la imagen parcial o completa; (4) ajustar dinámicamente el número de ventanas de detección en base a resultados de rastreo previos; (5) en lugar de ejecutar el rastreador y el detector de objetos en paralelo, aplicar primero el rastreador, ya que es menos costoso computacionalmente; y (6) ejecutar un detector de objetos solo cuando la confianza del rastreador es inferior a un determinado umbral. Una de las ventajas técnicas es reducir los cálculos usados para rastrear y/o detectar un objeto diana.
[0018] Un uso particular de los algoritmos de rastreo y detección es el procesamiento de imágenes. El procesamiento de imágenes puede incluir tomar una fotografía y/o editar vídeo. La implementación del procesamiento de imágenes puede proporcionar aplicaciones de uso real de los algoritmos de rastreo y detección descritos.
[0019] Como se usa en el presente documento, el término "rastreo" y sus variantes se refieren a un proceso que se basa en el movimiento, que no identifica un objeto específico. Por ejemplo, un módulo de rastreo y detección de objetos puede rastrear el movimiento de una trama a otra y determinar la ubicación, el tamaño o la trama del objeto diana en función del movimiento de un dispositivo electrónico (por ejemplo, si la cámara está haciendo una panorámica) o los movimientos de objetos de una trama a otra. El término "detectar" y sus variantes se refieren a un proceso que intenta identificar un objeto diana, por ejemplo, comparando una parte de una trama con una imagen de referencia. Por ejemplo, un módulo de rastreo y detección de objetos puede comparar partes de tramas capturadas con una imagen de referencia (del objeto diana) en un intento de identificar un objeto diana. En un ejemplo, la detección se puede usar cuando un objetivo ya no se puede rastrear (por ejemplo, si un objeto pasa a estar fuera del campo de visión). Los sistemas y procedimientos para realizar un rastreo basado en movimiento y una detección de objetos se explican con mayor detalle a continuación.
[0020] La Figura 1 es un diagrama de bloques que ilustra un dispositivo electrónico 102 para su uso en los presentes sistemas y procedimientos. El dispositivo electrónico 102 también puede denominarse dispositivo de comunicación inalámbrica, dispositivo móvil, estación móvil, estación de abonado, cliente, estación cliente, equipo de usuario (UE), estación remota, terminal de acceso, terminal móvil, terminal, terminal de usuario, unidad de abonado, etc. Ejemplos de dispositivos electrónicos incluyen ordenadores portátiles o de sobremesa, teléfonos celulares, teléfonos inteligentes, módems inalámbricos, lectores de libros electrónicos, dispositivos de tableta, sistemas de juegos, etc. Algunos de estos dispositivos pueden funcionar de acuerdo con una o más normas industriales.
[0021] Un dispositivo electrónico 102, tal como un teléfono inteligente o una tableta electrónica, puede incluir una cámara. La cámara puede incluir un sensor de imágenes 114 y un sistema óptico 118 (por ejemplo, lentes) que enfoca las imágenes de los objetos que se encuentran dentro del campo de visión del sistema óptico 118 en el sensor de imágenes 114. Un dispositivo electrónico 102 también puede incluir una aplicación de software de cámara y una pantalla de visualización. Cuando se ejecuta la aplicación de cámara, el sensor de imágenes 114 puede grabar imágenes de objetos que se encuentran dentro del campo de visión del sistema óptico 118. Las imágenes que están siendo grabadas por el sensor de imágenes 114 pueden mostrarse en la pantalla de visualización. Estas imágenes pueden mostrarse en rápida sucesión a una velocidad de trama relativamente alta, de modo que, en cualquier momento dado, los objetos que se encuentran dentro del campo de visión del sistema óptico 118 se muestran en la pantalla de visualización. Aunque los presentes sistemas y procedimientos se describen en términos de tramas de vídeo capturadas, las técnicas analizadas en el presente documento pueden usarse en cualquier imagen digital. Por tanto, los términos "trama de vídeo" e "imagen digital" se pueden usar indistintamente en el presente documento.
[0022] Una interfaz de usuario 120 de la aplicación de cámara puede permitir el rastreo de uno o más objetos que se muestran en la pantalla de visualización. Al usuario del dispositivo electrónico 102 se le puede permitir seleccionar el/los objeto(s) que se va(n) a rastrear. Además, el/los objeto(s) seleccionado(s) se puede(n) utilizar como referencia para detectar posteriormente el objeto.
[0023] En una configuración, el dispositivo de visualización es una pantalla táctil 116 que recibe información de un toque físico, por ejemplo, mediante un dedo, un lápiz óptico u otra herramienta. La pantalla táctil 116 puede recibir información táctil que define un objeto diana a rastrear. Por ejemplo, si el dispositivo electrónico 102 está capturando una escena en la naturaleza que incluye un animal de interés, un usuario puede dibujar un recuadro delimitador alrededor del animal, que indica el deseo de que el animal sea rastreado, o detectado, si fuera necesario. Los objetos diana pueden seleccionarse de cualquier forma adecuada. Por ejemplo, el reconocimiento facial, el reconocimiento de peatones, etc., pueden usarse para seleccionar un objeto diana que se va a rastrear, detectar o ambas cosas. En una configuración, se pueden rastrear múltiples objetos. Una interfaz de usuario 120 puede permitir que un usuario interactúe con un módulo de rastreo y detección de objetos 104, por ejemplo, para seleccionar (es decir, definir) uno o más objetos diana. La pantalla táctil 116 puede incluir un visor 131. El visor 131 puede hacer referencia a la parte de la pantalla táctil 116 que muestra un flujo de vídeo o una transmisión en directo. Por ejemplo, el visor 131 puede mostrar la vista obtenida por una cámara en el dispositivo electrónico 102.
[0024] El dispositivo electrónico 102 puede incluir un módulo de rastreo y detección de objetos 104 para rastrear un objeto seleccionado y/o detectar el objeto en una trama de vídeo. El módulo de rastreo y detección de objetos 104 puede incluir un rastreador de movimiento 106 para rastrear uno o más objetos. El rastreador de movimiento 106 puede estar basado en movimiento para rastrear el movimiento de puntos en una imagen (por ejemplo, una trama de vídeo) de trama a trama para estimar la ubicación y/o cambio de ubicación de un objeto diana entre una trama de vídeo previa y una trama de vídeo actual.
[0025] El módulo de rastreo y detección de objetos 104 también puede incluir un detector de objetos 108 para detectar un objeto en una trama de vídeo. El detector de objetos 108 puede usar un modelo de objeto, en lugar de un modelo basado en movimiento, para detectar un objeto comparando todo o una parte de una trama de vídeo actual con un objeto seleccionado o parte de una trama de vídeo previa capturada 112 (por ejemplo, en una secuencia de tramas de vídeo). El detector de objetos 108 puede usarse para detectar múltiples objetos dentro de una trama de vídeo.
[0026] El módulo de rastreo y detección de objetos 104 también puede incluir un búfer de memoria 110. El búfer de memoria 110 puede almacenar una o más tramas capturadas y datos asociados a las tramas de vídeo capturadas. En un ejemplo, el búfer de memoria 110 puede almacenar una trama de vídeo previa capturada 112. El módulo de rastreo y detección de objetos 104 puede usar datos proporcionados desde el búfer de memoria 110 acerca de una trama de vídeo previa capturada 112 para realizar el rastreo basado en movimiento y/o la detección de objetos. Los datos se pueden proporcionar al rastreador de movimiento 106 o al detector de objetos 108 por medio de retroalimentación del búfer de memoria 110 para adaptar el rastreo basado en movimiento y la detección de objetos para rastrear y/o detectar con mayor precisión un objeto diana. Por ejemplo, el búfer de memoria 110 puede proporcionar datos de ubicación y de tamaño de ventana al rastreador de movimiento 106 y al detector de objetos 108 para proporcionar al rastreador de movimiento 106 y al detector de objetos 108 uno o más parámetros que pueden usarse para identificar con mayor precisión la ubicación y tamaño de un objeto al rastrear o detectar el objeto.
[0027] Como se indicó anteriormente, el dispositivo electrónico 102 puede realizar un rastreo basado en movimiento. El rastreo basado en movimiento se puede realizar usando diversos procedimientos. En un ejemplo, el rastreo se realiza mediante un procedimiento de flujo de mediana en el que el rastreador de movimiento 106 acepta un par de imágenes It, It+1 (por ejemplo, tramas de vídeo) y un recuadro delimitador pt y proporciona un recuadro delimitador pt+1. Se puede inicializar un conjunto de puntos en una cuadrícula rectangular dentro del recuadro delimitador pt y rastrear los puntos para generar un flujo de movimiento disperso entre It e It+1. Se puede estimar la calidad de la predicción de puntos y asignar un error a cada punto. Una parte (por ejemplo, el 50 %) de las peores predicciones se puede filtrar, mientras que las predicciones restantes se usan para estimar el desplazamiento de todo el recuadro delimitador. El rastreador de movimiento 106 puede realizar un rastreo basado en movimiento en cada trama de vídeo capturada por un dispositivo electrónico 102. En un procedimiento similar, el rastreo basado en movimiento se puede realizar calculando uno o más gradientes (por ejemplo, gradientes x e y) y usando la diferencia entre un par de tramas para calcular un gradiente de tiempo y usando los múltiples valores de gradiente para rastrear con precisión un objeto diana dentro de una trama de vídeo actual. A continuación se proporcionan más detalles acerca del rastreo basado en movimiento.
[0028] Cuando se realiza un rastreo basado en movimiento, el rastreador de movimiento 106 puede determinar un valor de confianza de rastreo basado en una precisión calculada o estimada del procedimiento de rastreo de movimiento. En algunas configuraciones, el valor de confianza de rastreo puede ser un número real entre 0 y 1 correspondiente a la posibilidad o probabilidad de que un objeto diana se encuentre dentro de una trama de vídeo actual o una ventana definida de la trama de vídeo. El valor de confianza de rastreo se puede comparar con un umbral de rastreo. Si el valor de la confianza de rastreo es mayor que el umbral de rastreo, la probabilidad de que el objeto diana se encuentre dentro de la trama de vídeo actual puede ser alta. De forma alternativa, si el valor de confianza de rastreo es menor que o igual a un umbral de rastreo, la probabilidad puede ser baja o incierta si el objeto diana se encuentra dentro de la trama de vídeo actual. Pueden usarse varios procedimientos para determinar un valor de confianza de rastreo. En una configuración, el valor de confianza de rastreo se determina calculando una correlación cruzada normalizada (NCC) entre una ventana rastreada (por ejemplo, una ventana de corrección de rastreo) en una trama de vídeo actual y correcciones de imágenes almacenadas previamente de tramas de vídeo capturadas previamente. A continuación, se proporcionan más detalles sobre la determinación de un valor de confianza de rastreo.
[0029] El dispositivo electrónico 102 también puede realizar la detección de objetos. La detección de objetos se puede realizar usando diversos procedimientos. En una configuración, la detección de objetos se realiza mediante un procedimiento de ventana deslizante en el que se visualiza el contenido de múltiples subconjuntos de ventanas dentro de una trama de vídeo para determinar si un objeto diana se encuentra en una trama de vídeo actual o dentro de una ventana particular o subconjunto de ventanas de la trama de vídeo actual. Se pueden buscar todas o un subconjunto de todas las ubicaciones y tamaños de ventana posibles en una trama de vídeo. Por ejemplo, cada ventana puede corresponder a píxeles de datos y el detector de objetos 108 puede realizar uno o más cálculos usando los píxeles de datos para determinar un nivel de confianza (por ejemplo, un indicador binario) de que el objeto diana está dentro de una ventana o subventana particular. En base al nivel de confianza asociado a una o más ventanas, se puede obtener un valor de confianza de detector para una trama de vídeo actual. Además, se pueden utilizar técnicas adicionales para aumentar la precisión o la eficacia de la detección de objetos. Algunas de estas técnicas se explican a continuación.
[0030] En algunas configuraciones, el rastreador de movimiento 106 y el detector de objetos 108 pueden funcionar secuencialmente en lugar de en paralelo. Por ejemplo, el dispositivo electrónico 102 puede realizar un rastreo basado en movimiento de un objeto seleccionado (por ejemplo, un objeto diana) y realizar secuencialmente la detección de objeto del objeto seleccionado basándose en un parámetro de rastreo. En una configuración, el dispositivo electrónico 102 puede realizar un rastreo basado en movimiento en una trama de vídeo actual. El dispositivo electrónico 102 puede realizar entonces la detección de objetos en la trama actual basándose en un parámetro de rastreo. En una configuración, el parámetro de rastreo puede basarse en una comparación entre un valor de confianza y un umbral. Por ejemplo, si un valor de confianza de rastreo está por debajo de un umbral de rastreo, el dispositivo electrónico 102 puede realizar la detección de objetos. De forma alternativa, si un valor de confianza de rastreo está por encima de un umbral de rastreo, el dispositivo electrónico 102 puede omitir la detección de objetos para una trama de vídeo actual y seguir realizando un rastreo basado en movimiento en un siguiente trama de vídeo basándose en los resultados de rastreo de movimiento de la trama de vídeo actual. En otras palabras, la detección de objetos puede realizarse sólo cuando el rastreo basado en movimiento no es muy bueno, por ejemplo, el valor de confianza de rastreo está por debajo de un umbral de rastreo. Se pueden usar otros parámetros de rastreo al considerar si se realiza la detección de objetos y/o cómo. Ejemplos de parámetros de rastreo pueden incluir una región de un objeto diana, una ubicación de ventana, un tamaño de ventana, un nivel de escala, un tamaño diana, un valor de confianza de rastreo y/o detección u otro parámetro que pueda usarse para facilitar un rastreo y/o detección eficientes de un objeto diana.
[0031] Realizar secuencialmente el rastreo basado en movimiento y la detección de objetos en base a un parámetro de rastreo puede permitir que el dispositivo electrónico 102 rastree y/o detecte un objeto diana dentro de una trama de vídeo sin realizar cálculos extensos. Específicamente, debido a que el rastreo basado en movimiento puede ser menos intensivo desde el punto de vista computacional que la detección de objetos, un dispositivo electrónico 102 puede omitir la realización de la detección de objetos cuando el rastreo basado en movimiento puede usarse para rastrear con precisión un objeto diana dentro de una trama de vídeo actual. Por ejemplo, si un dispositivo electrónico 102 determina que un valor de confianza de rastreo excede un umbral objetivo específico, el dispositivo electrónico 102 puede determinar que la detección de objetos no es necesaria en una trama de vídeo actual para determinar con precisión la ubicación o presencia de un objeto diana dentro de la trama de vídeo actual. Además, debido a que la detección de objetos puede ser beneficiosa en muchos casos, el dispositivo electrónico 102 puede determinar casos en los que la detección de objetos se puede usar para detectar con mayor precisión un objeto diana o para realizar la detección de objetos en casos en los que el rastreo basado en movimiento es inadecuado en base a una comparación con un valor de umbral de rastreo.
[0032] En algunas configuraciones, en lugar de omitir la detección de objetos en una trama de vídeo actual, los resultados del rastreo basado en movimiento y/o la información adicional proporcionada por el búfer de memoria 110 pueden usarse para reducir o adaptar el proceso de realizar la detección de objetos. Por ejemplo, cuando un objeto diana no se puede rastrear con precisión usando un procedimiento de rastreo basado en movimiento, el dispositivo electrónico 102 aún puede estimar u obtener información acerca de la ubicación, escala de ventana u otro parámetro de rastreo asociado a un objeto diana que puede usarse durante la detección de objetos para detectar con mayor precisión un objeto usando menos potencia computacional que sin los parámetros proporcionados por medio del rastreo basado en movimiento. Por lo tanto, incluso en casos en los que el rastreo basado en movimiento no proporciona un valor de confianza de rastreo que exceda un umbral de rastreo, los resultados del rastreo basado en movimiento se pueden usar cuando se realiza posteriormente la detección de objetos.
[0033] El visor 131 del dispositivo electrónico 102 puede incluir una primera área de rastreo 133 y una segunda área de rastreo 135. Tanto la primera área de rastreo 133 como la segunda área de rastreo 135 pueden ser especificadas por un usuario usando la pantalla táctil 116. Por ejemplo, un usuario puede arrastrar un anillo de enfoque en la pantalla táctil 116 hacia las ubicaciones deseadas de la primera área de rastreo 133 y la segunda área de rastreo 135. Aunque no es necesario, una de las áreas de rastreo puede ser estacionaria. Por ejemplo, la primera área de rastreo 133 puede seguir a una persona que camina y la segunda área de rastreo 135 puede cubrir un árbol estacionario. En una configuración, la segunda área de rastreo 135 puede cubrir toda la pantalla táctil 116 en el dispositivo electrónico 102.
[0034] El dispositivo electrónico 102 puede incluir un módulo de procesamiento de imágenes 137. El módulo de procesamiento de imágenes 137 puede proporcionar diferentes tipos de procesamiento de imágenes, tal como tomar una fotografía o editar un vídeo pregrabado. El módulo de procesamiento de imágenes 137 puede incluir una superposición 143. La superposición 143 puede reflejar la cantidad de superposición entre la primera área de rastreo 133 y la segunda área de rastreo 135. Por ejemplo, la superposición 143 puede ser del 0 % si la primera área de rastreo 133 y la segunda área de rastreo 135 no se superponen entre sí en absoluto. Asimismo, la superposición 143 puede ser del 100 % si la primera área de rastreo 133 se superpone completamente a la segunda área de rastreo 135 (o si la segunda área de rastreo 135 se superpone completamente a la primera área de rastreo 133, dependiendo de qué área de rastreo sea más grande).
[0035] El módulo de procesamiento de imágenes 137 puede incluir un umbral 145. La superposición 143 puede compararse con el umbral 145 para determinar si se debe realizar el procesamiento de imágenes. Por ejemplo, se puede tomar una fotografía 149 cuando la superposición 143 se vuelve mayor que el umbral 145. Como otro ejemplo, se puede tomar una fotografía 149 cuando la superposición 143 sea menor que el umbral 145. En otro ejemplo más, la edición de vídeo se puede realizar cuando la superposición 143 se vuelve mayor o menor que el umbral 145. En un ejemplo de edición de vídeo, las tramas de una secuencia de vídeo sin editar 147 pueden editarse para obtener una secuencia de vídeo editada 151.
[0036] La Figura 2A es un diagrama de bloques que ilustra un módulo de rastreo y detección de objetos 204. El módulo de rastreo y detección de objetos 204 puede implementarse dentro de un dispositivo electrónico o inalámbrico. El módulo de rastreo y detección de objetos 204 puede incluir un rastreador de movimiento 206 que tiene un módulo de flujo óptico 226 y un valor de confianza de rastreo 228. El módulo de rastreo y detección de objetos 204 también puede incluir un detector de objetos 208 que tenga un localizador de escáner 230, un escalador de escáner 236, un clasificador 238 y un valor de confianza de detección 240. El búfer de memoria 210 puede almacenar datos asociados a una trama de vídeo previa capturada 212 que puede proporcionarse al rastreador de movimiento 206 y al detector de objetos 208. El módulo de rastreo y detección de objetos 204, el rastreador de movimiento 206, el detector de objetos 208 y el búfer de memoria 210 pueden ser configuraciones del módulo de rastreo y detección de objetos 104, del rastreador de movimiento 106, del detector de objetos 108 y del búfer de memoria 110 descritos anteriormente en relación con la Figura 1.
[0037] El rastreador de movimiento 206 se puede utilizar para realizar un rastreo basado en movimiento en una trama de vídeo actual (N) 224. Por ejemplo, una trama de vídeo previa (N-1) 222 y una trama de vídeo actual (N) 224 pueden recibirse (por ejemplo, mediante el dispositivo electrónico 102). La trama de vídeo previa (N-1) 222 puede preceder inmediatamente a una trama de vídeo actual (N) 224 en una secuencia de tramas de vídeo. El módulo de rastreo y detección de objetos 204 puede obtener y procesar tramas de vídeo adicionales. La trama de vídeo previa (N-1) 222 puede proporcionarse a un rastreador de movimiento 206. Además, el búfer de memoria 210 puede almacenar datos asociados a la trama de vídeo previa (N-1) 222, denominada en el presente documento trama de vídeo previa capturada 212. En algunas configuraciones, el búfer de memoria 210 puede obtener información acerca de la trama de vídeo previa (N-1) 222 directamente del dispositivo electrónico 102 (por ejemplo, de la cámara). El búfer de memoria 210 también puede obtener resultados de rastreo acerca de la trama de vídeo previa (N-1) 222 a partir del módulo de fusión 260, que puede especificar dónde se rastreó y/o detectó un objeto en la trama de vídeo previa (N-1) 222. Esta información acerca de la trama de vídeo previa (N-1) 222 u otros tramas de vídeo capturadas previamente puede almacenarse en el búfer de memoria 210.
[0038] El rastreador de movimiento 206 puede recibir posteriormente una trama de vídeo actual (N) 224 en una secuencia de tramas de vídeo. El rastreador de movimiento 206 puede comparar la trama de vídeo actual (N) 224 con la trama de vídeo previa (N-1) 222 (por ejemplo, usando información proporcionada desde el búfer de memoria 210). El rastreador de movimiento 206 puede rastrear el movimiento de un objeto en la trama de vídeo actual (N) 224 usando un módulo de flujo óptico 226. El módulo de flujo óptico 226 puede incluir hardware y/o software para realizar el rastreo basado en movimiento de un objeto en una trama de vídeo actual (N) 224. Comparando la trama de vídeo previa (N-1) 222 y la trama de vídeo actual (N) 224, el rastreador de movimiento 206 puede determinar un valor de confianza de rastreo 228 asociado a la probabilidad de que un objeto diana esté en la trama de vídeo actual (N) 224. En un ejemplo, el valor de confianza de rastreo 228 es un número real (por ejemplo, entre 0 y 1) basado en un porcentaje de certeza de que el objeto diana está dentro de la trama de vídeo actual (N) 224 o en una ventana dentro de la trama de vídeo actual (N) 224.
[0039] El detector de objetos 208 puede usarse para detectar un objeto en una trama de vídeo actual (N) 224. Por ejemplo, el detector de objetos 208 puede recibir una trama de vídeo actual (N) 224 en una secuencia de tramas de vídeo. El detector de objetos 208 puede realizar la detección de objetos en la trama de vídeo actual (N) 224 basándose en un parámetro de rastreo. El parámetro de rastreo puede incluir un valor de confianza de rastreo 228 correspondiente a la probabilidad de que un objeto diana esté siendo rastreado de forma precisa. Más específicamente, un parámetro de rastreo puede incluir una comparación del valor de confianza de rastreo 228 con un umbral de rastreo 250. El parámetro de rastreo también puede incluir información proporcionada desde el búfer de memoria 210. Algunos ejemplos de parámetros de rastreo que pueden usarse al detectar un objeto incluyen una región, una ubicación de ventana, un tamaño de ventana u otra información que pueda ser usada por el detector de objetos 208 como parámetro al realizar la detección de objetos.
[0040] El detector de objetos 208 puede incluir un localizador de escáner 230. El localizador de escáner 230 puede incluir un selector de ubicación de ventana 232 y un aleatorizador 234. El selector de ubicación de ventana 232 puede seleccionar múltiples ventanas dentro de una trama de vídeo. Por ejemplo, una trama de vídeo puede incluir múltiples ventanas, cada una con una ubicación y un tamaño asociados. En una configuración, cada trama de vídeo se divide en múltiples (por ejemplo, aproximadamente 10.000) ventanas superpuestas, cada una de las cuales incluye una fracción del total de píxeles en la trama de vídeo. De forma alternativa, puede haber cualquier número adecuado de ventanas y es posible que no se superpongan. El selector de ubicación de ventana 232 dentro del localizador de escáner 230 puede seleccionar la ubicación de una ventana en la que intentar identificar un objeto diana. El aleatorizador 234 puede seleccionar aleatoriamente ventanas de diferentes tamaños y ubicaciones para detectar un objeto. En algunas configuraciones, el aleatorizador 234 selecciona aleatoriamente ventanas dentro de una trama de vídeo. De forma alternativa, el aleatorizador 234 puede seleccionar ventanas con mayor precisión basándose en uno o más factores. Por ejemplo, el aleatorizador 234 puede limitar la selección de ventanas basándose en una región, tamaño o ubicación general de donde es más probable que se encuentre un objeto. Esta información puede obtenerse por medio del búfer de memoria 210 o puede obtenerse por medio del rastreo basado en movimiento que, aunque no es lo suficientemente preciso como para confiar en él por completo, puede proporcionar información que es útil al realizar la detección de objetos. Por lo tanto, mientras que el aleatorizador 234 puede seleccionar aleatoriamente múltiples ventanas para la búsqueda, la selección de ventanas puede ser reducida y, por lo tanto, no completamente aleatoria, en base a la información proporcionada al detector de objetos 208.
[0041] El detector de objetos 208 también puede incluir un escalador de escáner 236, que puede usarse para trazar o seleccionar una ventana de determinado tamaño. El localizador de escáner 230 puede utilizar el tamaño de ventana para reducir los tamaños de ventana cuando se detecta un objeto o se compara una selección de ventanas con una imagen original para detectar si una imagen está dentro de una ventana específica. El escalador de escáner 236 puede seleccionar inicialmente una o más ventanas de determinados tamaños o niveles de escala al definir un objeto o, de forma alternativa, trazar una o más ventanas de determinados tamaños o niveles de escala basándose en la información proporcionada por el búfer de memoria 210.
[0042] El clasificador 238 puede usarse para determinar si una parte o la totalidad de un objeto diana se encuentra en una ventana específica. En algunas configuraciones, el clasificador 238 puede producir un valor binario para cada ventana para indicar si se detecta un objeto diana dentro de una ventana o subventana específica. Esta clasificación (por ejemplo, clasificación binaria) puede realizarse para cada ventana buscada por el detector de objetos 208. Específicamente, el clasificador 238 puede generar un 1 binario para cada ventana en la que se detecta el objeto y un 0 binario para cada ventana en la que no se detecta el objeto. Basándose en el número o una combinación de unos y ceros, el detector de objetos 208 puede determinar un valor de confianza de detección 240 que indica la probabilidad de que el objeto diana esté presente dentro de una trama de vídeo actual (N) 224. En algunas configuraciones, el valor de confianza de detección 240 es un número real entre 0 y 1 que indica un porcentaje o probabilidad de que un objeto haya sido detectado con precisión.
[0043] El detector de objetos 208 puede realizar la detección de objetos de acuerdo con una variedad de parámetros de rastreo, que incluyen una región, tamaño diana, tamaño de ventana, nivel de escala, ubicación de ventana y uno o más valores de confianza. Una vez que se buscan las ventanas de una trama de vídeo o un subconjunto de ventanas y el detector de objetos 208 obtiene un valor binario para cada ventana buscada, el detector de objetos 208 puede determinar el tamaño de ventana así como una ubicación o región en la trama de vídeo actual que tiene la mayor confianza. Esta ubicación y tamaño de ventana se pueden usar en el rastreo y la detección posteriores para rastrear y/o detectar un objeto diana con mayor precisión.
[0044] Como se ha indicado anteriormente, el detector de objetos 208 puede utilizar varios procedimientos para detectar un objeto diana. En una configuración, la detección de un objeto diana puede incluir realizar una clasificación binaria para las ventanas en cada ubicación de ventana posible y en cada tamaño de ventana posible. Sin embargo, buscar todas las ventanas posibles requiere muchos recursos. Por tanto, en otra configuración, el detector de objetos puede buscar un subconjunto de ubicaciones y tamaños de ventana, en lugar de todas las ventanas posibles en una trama de vídeo. Por ejemplo, el detector de objetos 208 puede buscar el 1 % de todas las ventanas posibles. Entonces, si la detección no tiene éxito (por ejemplo, el valor de confianza de detección 240 es menor que un umbral de detección 252), se puede buscar un porcentaje mayor de ubicaciones de ventana en una trama capturada subsiguiente, por ejemplo, 2 %. El incremento en el porcentaje de ubicaciones de ventana buscadas puede ser uniforme, no uniforme, lento o rápido, es decir, tramas consecutivas pueden tener 1 %, 2 %, 3 %, 4 % o 1 %, 2 %, 4 %, 8 %. En una configuración, el porcentaje de tramas buscadas puede establecerse muy alto (por ejemplo, 80 %, 90 %, 100 %) en respuesta a un valor de confianza de detección alto, es decir, para garantizar que el objeto diana sea una trama de vídeo subsiguiente. Por ejemplo, el porcentaje de tramas buscadas puede saltar al menos al 80 % en respuesta a un valor de confianza de rastreo y detección que excede un valor de umbral de detección y rastreo 256. De forma alternativa, el porcentaje puede saltar al 60 %, 70 %, 90 %, etc. Además, se puede usar cualquier valor adecuado para el valor umbral de detección y rastreo, por ejemplo, 0,6, 0,65, 0,7, 0,75, 0,8, 0,85, etc. Además, el porcentaje de ventanas buscadas puede determinarse aleatoriamente, en base a un aleatorizador 234 (generador de números aleatorios); por ejemplo, puede buscarse un porcentaje aleatorio de ventanas entre el 1 % y el 15 % en una trama capturada. Al buscar un subconjunto de todas las ubicaciones de ventana, la detección de objetos puede usar menos recursos en el dispositivo electrónico 102.
[0045] Además, los presentes sistemas y procedimientos pueden buscar un subconjunto de tamaños de ventana para cada ubicación. Cada tamaño de ventana se puede denominar en el presente documento nivel de escala, correspondiendo cada nivel de escala a un tamaño de ventana específico. Por ejemplo, puede haber 20 niveles de escala posibles. En lugar de buscar los 20 niveles de escala, se puede buscar un subconjunto de niveles de escala o de tamaños de ventana en cada ubicación de ventana.
[0046] Los presentes sistemas y procedimientos también pueden usar retroalimentación del búfer de memoria 210 para adaptar las ubicaciones de ventana y los tamaños buscados. En otras palabras, la ubicación y el tamaño de la última trama de vídeo capturada en la que se detectó y/o rastreó con éxito el objeto diana puede usarse como punto de partida para buscar una trama de vídeo actual (N) 224. Por ejemplo, si el objeto diana se detectó y rastreó en una trama de vídeo reciente (es decir, el valor de confianza de detección y rastreo 256 para una trama de vídeo capturada reciente está por encima de un umbral de rastreo y detección), el localizador de escáner puede comenzar a buscar una trama capturada actual en la ubicación y el tamaño asociados a la trama reciente. Por ejemplo, cuando un objeto diana sale del campo de visión de un sistema óptico o desaparece en la distancia, es más probable que el objeto diana reaparezca con el mismo tamaño que cuando el objeto diana abandonó el campo de visión del sistema óptico o desapareció en la distancia. Por lo tanto, se puede predecir un tamaño o intervalo de tamaños para detectar el objeto diana en tramas de vídeo posteriores cuando se realiza la detección de objetos.
[0047] Además, el intervalo de búsqueda de ubicaciones de ventana y de tamaños de ventana buscados en la trama de vídeo capturada (N) 224 puede limitarse a aquellos similares a la ubicación de ventana y al tamaño de ventana asociados al objeto diana en una trama de vídeo reciente (por ejemplo, la trama de vídeo previa (N-1) 222). Como se usa en el presente documento, el término "intervalo de búsqueda" se refiere al conjunto de ubicaciones de ventana candidatas o tamaños de ventana candidatos (o ambos) que se pueden utilizar al detectar y/o rastrear un objeto diana en una trama de vídeo. Por ejemplo, el subconjunto de las ubicaciones de ventana buscadas puede seleccionarse dentro de una parte de la trama de vídeo actual (N) 224 en función de dónde se encontró el objeto diana en una trama de vídeo reciente, por ejemplo, uno de los cuadrantes o mitades de la trama de vídeo actual (N) 224. En otras palabras, el espacio de búsqueda puede limitarse a las inmediaciones donde se rastreó o detectó el objeto diana por última vez. De forma similar, los tamaños de las tramas buscadas para cada ubicación de ventana pueden estar limitados en base al tamaño de la ventana en la que se encontró el objeto diana en una trama de vídeo reciente. Por ejemplo, si el objeto se detectó en una trama reciente usando una ventana con un nivel de escala de 8, el escalador de escáner 236 solo puede seleccionar niveles de escala de ventana para la trama de vídeo actual (N) 224 de 8, más o menos 3, es decir, niveles de escala 5-11. Esto puede eliminar además la búsqueda de baja probabilidad y aumentar la eficacia de la detección de objetos. De forma alternativa, si una trama de vídeo reciente (no actual) no detectó el objeto diana (es decir, el valor de confianza de detección y rastreo 256 para la trama de vídeo reciente está por debajo de un umbral de rastreo y detección), el detector de objetos 208 puede expandir el espacio de búsqueda (ubicaciones de ventana) en el que se busca; por ejemplo, un intervalo más amplio de una imagen o la imagen completa pueden estar sujetos a una búsqueda.
[0048] El módulo de rastreo y detección de objetos 204 puede incluir un módulo de fusión 260 para fusionar múltiples ventanas para formar una única ventana. Hay inicialmente dos valores de confianza: un valor de confianza de detección 240 del detector de objetos 208 y un valor de confianza de rastreo 225 del rastreador de movimiento 206. El módulo de fusión 260 puede combinar los dos valores de confianza (por ejemplo, elegir el que sea mayor) en un valor de confianza de detección y rastreo 256. El valor de confianza de detección y rastreo 256 puede indicar si el objeto diana fue identificado en una trama de vídeo. En una configuración, el valor de confianza de detección y rastreo 256 puede ser un número real entre 0 y 1, donde 0 indica la confianza más baja posible de que el objeto diana se identificó en una trama de vídeo particular y 1 indica la confianza más alta posible de que el objeto diana se identificó en una trama de vídeo particular. En otras palabras, el valor de confianza de detección y rastreo 256 puede servir como una indicación general de la probabilidad de que se haya encontrado un objeto diana. Además, el valor de confianza de detección y rastreo 256 puede ser un parámetro utilizado para determinar una ubicación de ventana, un tamaño de ventana o porcentaje de ventanas a buscar en una trama de vídeo subsiguiente. El módulo de fusión 260 se puede utilizar para proporcionar información acerca de una trama de vídeo actual (N) 224 al búfer de memoria 210. En un ejemplo, el módulo de fusión 260 puede proporcionar información acerca de la ventana rastreada 242 (por ejemplo, ubicación de ventana 244, tamaño de ventana 246, etc.) y un valor de confianza de detección y rastreo 256 al búfer de memoria 210. El módulo de fusión 260 puede usar los resultados de rastreo (por ejemplo, recuadros delimitadores) del rastreador de movimiento 206 y del detector de objetos 208 para formar un resultado de rastreo combinado (por ejemplo, recuadro delimitador) y calcular el valor de confianza de detección y rastreo 256.
[0049] El búfer de memoria 210 puede almacenar uno o más valores asociados a la trama de vídeo previa (N-1) 222, a la trama de vídeo actual (N) 224 u otras tramas de vídeo capturadas. En una configuración, el búfer de memoria 210 almacena una trama de vídeo previa capturada 212, que puede incluir información correspondiente a la trama de vídeo previa (N-1) 222. La trama de vídeo previa capturada 212 puede incluir información acerca de una o más ventanas 242, incluida la ubicación 244, el tamaño de ventana 246 y una decisión binaria 248 (por ejemplo, del clasificador 238) para cada ventana 242. La trama de vídeo previa capturada 212 también puede incluir un umbral de rastreo 250, un umbral de detección 252 y un umbral de detección y rastreo 254. El umbral de rastreo 250 se puede proporcionar al rastreador de movimiento 206 o al circuito del módulo de rastreo y detección de objetos 204 (por ejemplo, comparador de niveles de confianza) para determinar 258 si el nivel de confianza de rastreo es mayor que el umbral de rastreo 250. El umbral de detección 252 se puede proporcionar al detector de objetos 208 u otros circuitos del módulo de rastreo y detección de objetos 204 para determinar si el valor de confianza de detección 240 es mayor que el umbral de detección 252. El umbral de detección y rastreo 254 puede ser un valor combinado basado en el umbral de rastreo 250 y el umbral de detección 252. El umbral de detección y rastreo 254 puede compararse con un valor de confianza de rastreo y detección 256 para determinar un valor de confianza combinado para el rastreo basado en movimiento y la detección de objetos. Cada uno de los umbrales puede basarse en la probabilidad de que un objeto diana esté ubicado dentro de una trama de vídeo. El módulo de rastreo y detección de objetos 204 puede realizar un rastreo y/o detección basados en movimiento en una trama de vídeo actual (N) 224 hasta que se obtenga un valor de confianza de detección y rastreo 256 específico. Además, el rastreo basado en movimiento y la detección de objetos se pueden realizar en cada trama de vídeo en una secuencia de múltiples tramas de vídeo.
[0050] La realización del rastreo basado en movimiento y la detección de objetos puede incluir realizar de forma secuencial un rastreo basado en movimiento seguido de la detección de objetos en base a un parámetro de rastreo. En particular, los sistemas y procedimientos presentes pueden implementar un enfoque de rastreo y detección de dos etapas. Dado que el rastreo basado en movimiento se basa en el movimiento relativo de una escena, en lugar de la identificación de un objeto concreto como detección de objetos usada, el rastreo basado en movimiento puede consumir menos recursos en un dispositivo electrónico que realizar la detección de objetos. Por consiguiente, puede ser más eficaz utilizar el rastreador de movimiento 206 en lugar del detector de objetos 208, donde un objeto diana también puede ser rastreado con precisión sin realizar la detección de objetos.
[0051] Por lo tanto, en lugar de usar el rastreador de movimiento 206 en paralelo con el detector de objetos 208, el módulo de rastreo y detección de objetos 204 solo usa el detector de objetos 208 cuando el rastreador de movimiento 206 es insuficiente, es decir, el rastreo de movimiento y la detección de objetos (si se realizan) se realizan secuencialmente en lugar de en paralelo. Para cada trama de vídeo en la que se realiza el rastreo, el rastreador de movimiento 206 puede producir un valor de confianza de rastreo 228, que puede ser un número real entre 0 y 1 que indica la probabilidad de que el objeto diana esté en una trama de vídeo actual (N) 224.
[0052] En una configuración del enfoque de rastreo y detección de dos etapas, el rastreador de movimiento 206 puede realizar primero un rastreo basado en movimiento en una trama de vídeo actual (N) 224. El rastreador de movimiento 206 puede determinar un valor de confianza de rastreo 228 en base al proceso de rastreo basado en movimiento. Usando el valor de confianza de rastreo 228 y un umbral de rastreo 250 proporcionado por el búfer de memoria 210, los circuitos del módulo de rastreo y detección de objetos 204 (por ejemplo, un comparador de niveles de confianza) pueden determinar 258 si el valor de confianza de rastreo 228 excede un umbral de rastreo 250. Si el valor de confianza de rastreo 228 es mayor que el umbral de rastreo 250, el módulo de rastreo y detección de objetos 204 puede omitir la realización de la detección de objetos y proporcionar el resultado de rastreo a un módulo de fusión 260 para producir una salida 262. La salida 262 puede incluir una indicación de que un objeto diana está dentro de una trama de vídeo actual (N) 224. Además, la salida 262 puede incluir información adicional acerca del objeto diana.
[0053] Si el valor de confianza de rastreo 228 no excede el umbral de rastreo 250, el detector de objetos 208 puede realizar posteriormente la detección de objetos en la trama de vídeo actual (N) 224. La detección de objetos se puede realizar en todas o en un subconjunto de ventanas dentro de la trama de vídeo actual (N) 224. El detector de objetos 208 también puede seleccionar un subconjunto de ventanas, tamaños de ventana u otros criterios de detección en base a los resultados del rastreo basado en movimiento y/o información proporcionada por el búfer de memoria 210. La detección de objetos se puede realizar usando un proceso más o menos robusto basado en uno o más parámetros de rastreo proporcionados al detector de objetos 208. El detector de objetos 208 puede determinar un valor de confianza de detección 240 y comparar el valor de confianza de detección 240 con un umbral de detección 252. Si el valor de confianza de detección 240 está por encima de un umbral de detección 252, el detector de objetos 208 puede proporcionar el resultado de detección al módulo de fusión 260 para producir una salida 262. La salida 262 puede incluir una indicación de que un objeto diana está dentro de una trama de vídeo actual (N) 224 y/o incluir información adicional acerca del objeto detectado.
[0054] De forma alternativa, si el valor de confianza de detección 240 es menor que o igual a un umbral de detección 252, el detector de objetos 208 puede realizar la detección de objetos nuevamente usando un procedimiento más robusto, tal como buscar un mayor número de ventanas dentro de la trama de vídeo actual (N) 224. El detector de objetos 208 puede repetir el proceso de detección de objetos hasta que se obtenga un valor de confianza de detección satisfactorio 240. Una vez que se obtiene un valor de confianza de detección satisfactorio 240 de manera que se identifica un objeto diana dentro de la trama de vídeo actual, el módulo de rastreo y detección de objetos 204 puede utilizarse para realizar el rastreo y la detección en una trama de vídeo subsiguiente.
[0055] La Figura 2B ilustra algunos componentes dentro del sistema de la Figura 2A implementados por un procesador 264. Como se muestra en la Figura 2A, el módulo de rastreo y detección de objetos 204 puede ser implementado por un procesador 264. Pueden usarse diferentes procesadores para implementar diferentes componentes (por ejemplo, un procesador puede implementar el rastreador de movimiento 206, otro procesador puede usarse para implementar el detector de objetos 208 y aún otro procesador puede usarse para implementar el búfer de memoria 210).
[0056] La Figura 3 es un diagrama de flujo que ilustra un procedimiento 300 para realizar el rastreo basado en movimiento y la detección de objetos. El procedimiento 300 puede implementarse mediante un dispositivo electrónico 102, por ejemplo, un módulo de rastreo y detección de objetos 104. El dispositivo electrónico 102 puede realizar, 302, un rastreo basado en movimiento para una trama de vídeo actual (N) 224 comparando una trama de vídeo previa (N-1) 222 y la trama de vídeo actual (N) 224. El rastreo de un objeto se puede realizar usando un procedimiento de flujo de mediana mediante el rastreo de puntos entre pares de imágenes. También se pueden usar otros procedimientos de rastreo basado en movimiento. Además, el rastreo basado en movimiento se puede realizar para una trama de vídeo actual (N) 224 usando información acerca de una trama de vídeo previa capturada 112 proporcionado a través de un búfer de memoria 110.
[0057] El dispositivo electrónico 102 puede determinar, 304, un valor de confianza de rastreo 228. El valor de confianza de rastreo 228 puede indicar una probabilidad o certeza de que un objeto diana ha sido rastreado con precisión. El dispositivo electrónico 102 puede determinar 306 si el valor de confianza de rastreo 228 es mayor que un umbral de rastreo 250. Si el valor de confianza de rastreo 228 es mayor que el umbral de rastreo 250, el dispositivo electrónico 102 puede realizar 308 un rastreo basado en movimiento para una trama de vídeo subsiguiente. Además, el dispositivo electrónico 102 puede omitir la realización de la detección de objetos en la trama de vídeo actual (N) 224 basándose en el resultado del rastreo basado en movimiento. En otras palabras, la detección de objetos puede realizarse para la trama de vídeo actual (N) 224 solo cuando el rastreo de movimiento no es muy bueno, es decir, si el valor de confianza de rastreo 228 no es mayor que un umbral de rastreo 250. Sin embargo, si el valor de confianza de rastreo 228 no es mayor que el umbral de rastreo 250, el dispositivo electrónico 102 puede realizar 310 una detección de objetos para la trama de vídeo actual (N) 224. El dispositivo electrónico 102 puede realizar la detección de objetos en secuencia con respecto al rastreo basado en movimiento. En algunas configuraciones, la detección de objetos puede realizarse varias veces con una robustez variable para obtener un mayor valor de confianza de detección 240.
[0058] La Figura 4 es un diagrama de flujo que ilustra un procedimiento 400 para realizar un rastreo basado en movimiento. El procedimiento 400 puede implementarse mediante un dispositivo electrónico 102, por ejemplo, un módulo de rastreo y detección de objetos 104. El dispositivo electrónico 102 puede identificar, 402, un objeto diana usando un recuadro delimitador. La identificación 402 de un objeto se puede realizar manualmente usando una pantalla táctil 116 u otro procedimiento de entrada en el que se selecciona un objeto de interés. Se pueden identificar varios objetos de forma similar. Además, se pueden usar otros procedimientos de entrada para identificar un objeto a rastrear. En un ejemplo, un objeto se identifica dibujando manualmente un recuadro delimitador alrededor del objeto diana.
[0059] El dispositivo electrónico 102 puede inicializar, 404, puntos en una cuadrícula dentro del recuadro delimitador. Los puntos de la cuadrícula pueden estar espaciados uniformemente por todo el recuadro delimitador. Además, los puntos pueden rastrearse 406 en la cuadrícula entre dos imágenes (por ejemplo, la trama de vídeo previa (N-1) 222 y la trama de vídeo actual (N) 224). En un ejemplo, los puntos son rastreados por un rastreador Lucas-Kanade que genera un flujo de movimiento escaso entre imágenes. El dispositivo electrónico 102 puede estimar 408 un error de rastreo entre las dos imágenes (por ejemplo, una trama de vídeo previa (N-1) 222 y una trama de vídeo actual (N) 224). La estimación 408 de un error de rastreo puede incluir asignar a cada punto de los puntos de rastreo un valor de error. Además, la estimación 408 de un error de rastreo se puede realizar usando una variedad de procedimientos, que incluyen el error de avance-retroceso, la correlación cruzada normalizada (NCC) y las diferencias de suma de cuadrados, por ejemplo. El error de rastreo estimado se puede usar para obtener un valor de confianza de rastreo 228 y, en última instancia, determinar la probabilidad de que un objeto diana esté en una trama de vídeo actual (N) 224. En una configuración, el valor de confianza de rastreo 228 puede obtenerse calculando una correlación cruzada normalizada (NCC) entre una ventana de rastreo en una trama de vídeo actual (N) 224 y una trama de vídeo previa (N-1) 222. El error de rastreo también se puede estimar usando técnicas adicionales, incluida una estimación de error de avance-retroceso y hacia atrás que se describe posteriormente con más detalle en relación con la Figura 5. Además, el dispositivo electrónico 102 puede filtrar, 410, predicciones de puntos periféricos. Por ejemplo, el dispositivo electrónico puede filtrar el 50 % de las peores predicciones. Las predicciones restantes pueden usarse para estimar el desplazamiento del recuadro delimitador.
[0060] El dispositivo electrónico 102 puede actualizar, 412, el recuadro delimitador. La actualización 412 del recuadro delimitador puede realizarse de modo que el recuadro delimitador actualizado pase a ser el nuevo recuadro delimitador para el siguiente trama de vídeo. El proceso de rastreo basado en movimiento puede repetirse entonces para una trama de vídeo subsiguiente o, si un valor de confianza de rastreo 228 es menor que o igual a un umbral de rastreo 250, el proceso de rastreo basado en movimiento puede interrumpirse para una trama de vídeo subsiguiente hasta que un objeto diana pueda ser rastreado con precisión. En algunas configuraciones en las que el rastreo basado en movimiento para una trama de vídeo actual (N) 224 no proporciona un resultado satisfactorio, el dispositivo electrónico 102 puede realizar la detección de objetos en la trama de vídeo actual (N) 224 para obtener un mayor nivel de confianza en la localización de un objeto diana. En algunas configuraciones en las que el rastreo basado en movimiento no puede producir resultados satisfactorios (por ejemplo, cuando un objeto diana sale del alcance de una trama de vídeo), la detección de objetos puede realizarse en cualquier trama de vídeo subsiguiente hasta que se detecte un objeto diana.
[0061] La Figura 5 es un diagrama de flujo que ilustra un procedimiento 500 para estimar un error de rastreo en un rastreo basado en movimiento basado en error de avance-retroceso. El procedimiento 500 puede implementarse mediante un dispositivo electrónico 102 (por ejemplo, un módulo de rastreo y detección de objetos 104). En algunas configuraciones, el dispositivo electrónico 102 puede calcular una correlación cruzada normalizada (NCC) entre ventanas rastreadas. La correlación cruzada normalizada (NCC) puede usarse para determinar un valor de confianza de rastreo 228. El dispositivo electrónico 102 también puede usar varias técnicas de estimación de errores de rastreo complementarias a la correlación cruzada normalizada (NCC) (por ejemplo, error de avance-retroceso, diferencia de suma de cuadrados). En un ejemplo que usa estimación de errores de avance-retroceso, un dispositivo electrónico 102 puede realizar, 502, un rastreo hacia adelante entre una trama de vídeo previa (N-1) 222 y una trama de vídeo actual (N) 224 para determinar una trayectoria de avance. El rastreo hacia adelante puede incluir el rastreo de una imagen hacia adelante durante k etapas. La trayectoria de avance resultante puede ser igual a (xt,xt+1,...,xt+k), donde xt es una ubicación puntual en el tiempo y k indica la longitud de una secuencia de imágenes. El dispositivo electrónico 102 puede realizar, 504, un rastreo hacia atrás entre una trama de vídeo actual (N) 224 y una trama de vídeo previa (N-1) 222 para determinar una trayectoria de retroceso. La trayectoria de retroceso resultante puede ser igual a (Xt, xt+1,...,Xí+K), donde Xt+k = xt+k.
[0062] El dispositivo electrónico 102 puede determinar, 506, un error de avance-retroceso entre la trayectoria de avance y la trayectoria de retroceso. El error de avance-retroceso puede definirse como la distancia entre la trayectoria de avance y la trayectoria de retroceso. Además, se pueden definir varias distancias para la comparación de trayectorias. En una configuración, la distancia euclidiana entre el punto inicial y el punto final de la trayectoria de validación puede usarse al determinar el error de avance-retroceso. En una configuración, el error de avance-retroceso puede usarse como error de rastreo, que puede usarse para determinar un valor de confianza de rastreo 228.
[0063] La Figura 6 es un diagrama de flujo que ilustra un procedimiento 600 para realizar una detección de objetos. El procedimiento 600 puede implementarse mediante un dispositivo electrónico 102 (por ejemplo, un módulo de rastreo y detección de objetos 104). El dispositivo electrónico 102 puede realizar, 602, una detección de objetos y un rastreo basado en movimiento en una trama de vídeo actual (N) 224 buscando un subconjunto de ubicaciones y tamaños de ventana en la trama de vídeo actual (N) 224.
[0064] El dispositivo electrónico 102 puede determinar, 604, un valor de confianza de detección y rastreo 256. El valor de confianza de detección y rastreo 256 puede proporcionar un nivel de confianza de si el objeto diana se encuentra en una trama de vídeo actual (N) 224 o dentro de una ventana particular. El dispositivo electrónico 102 también puede determinar 606 si el valor de detección y confianza 256 es mayor que un umbral de detección y rastreo 254. Si el valor de detección y confianza 256 es mayor que un umbral de detección y rastreo 254, el dispositivo electrónico 102 puede realizar, 608, una detección de objetos en una trama de vídeo subsiguiente usando el subconjunto (por ejemplo, el mismo subconjunto) de ventanas y tamaños en el siguiente trama de vídeo. De forma alternativa, si el valor de detección y confianza 256 es menor que un umbral de detección y rastreo 254, el dispositivo electrónico 102 puede realizar, 610, una detección de objetos en una trama de vídeo subsiguiente usando un subconjunto más grande de ubicaciones y tamaños de ventana en el siguiente trama de vídeo. En algunas configuraciones, donde el valor de confianza 256 es menor que un umbral de detección y rastreo 254, el dispositivo electrónico 102 puede realizar, 610, una detección de objetos en una trama de vídeo subsiguiente usando todo el espacio de búsqueda y/o todas las ventanas de la trama de vídeo subsiguiente.
[0065] La Figura 7 es un diagrama de bloques que ilustra una ventana de imagen 700 que tiene diferentes tamaños de ventana 766 que pueden usarse con los presentes sistemas y procedimientos. Específicamente, la Figura 7 ilustra un conjunto de diez tamaños de ventana 766a-j posibles. Cada tamaño de ventana 766 puede corresponder a un nivel de escala (por ejemplo, 1-10). Aunque se muestran aquí como rectangulares, las ventanas que se buscan pueden tener cualquier forma, por ejemplo, cuadrada, rectangular, circular, elíptica, definida por el usuario, etc. Además, cualquier número de tamaños de ventana 766 o de niveles de escala pueden estar disponibles, por ejemplo, 5, 15, 20, 30, etc.
[0066] Como se describió anteriormente, el intervalo de búsqueda puede denotarse mediante un subconjunto de tamaños de ventana usados para una ubicación particular; por ejemplo, los tamaños de ventana que se buscan en la trama de vídeo actual (N) 224 pueden estar limitados a aquellos similares a la ubicación de ventana y tamaño de ventana asociado al objeto diana en la trama reciente. Por ejemplo, sin retroalimentación, el detector de objetos 208 puede buscar los diez tamaños de ventana 766a-j para cada ubicación de ventana seleccionada. Sin embargo, si el objeto se detectó en una trama de vídeo reciente (no actual) usando una ventana con el quinto tamaño de ventana 766e, el escalador de escáner 236 solo puede seleccionar tamaños de ventana para la trama capturada actual de 5, más o menos 3, es decir, tamaños de ventana de 2-8. En otras palabras, las ventanas con el primer tamaño de ventana 766a, el noveno tamaño de ventana 766i y el décimo tamaño de ventana 766j pueden no buscarse en base a la retroalimentación de una trama de vídeo reciente o previa (N-1) 222. Esto puede eliminar además la búsqueda de baja probabilidad y aumentar la eficacia de la detección de objetos. En otras palabras, el uso de retroalimentación de una trama de vídeo reciente puede ayudar a reducir los cálculos realizados. De forma alternativa, si una trama de vídeo reciente no detectó el objeto diana (es decir, el valor de confianza de detección y rastreo 256 para la trama capturada reciente es menor que un umbral detección y rastreo 254), el detector de objetos 208 puede no limitar el intervalo de búsqueda usando un subconjunto de niveles de tamaño.
[0067] La Figura 8 es un diagrama de bloques que ilustra otra posible configuración de un módulo de rastreo y detección de objetos 804. El módulo de rastreo y detección de objetos 804 ilustrado en la Figura 8 puede incluir módulos similares y realizar una funcionalidad similar al módulo de rastreo y detección de objetos 204 ilustrado en la Figura 2. Específicamente, el detector de objetos 808, el rastreador de movimiento 806, el localizador de escáner 830, el selector de ubicación de ventana 832, el aleatorizador 834, el escalador de escáner 836, el clasificador 838, el módulo de fusión 860, el búfer de memoria 810, la trama de vídeo previa capturada 812, la ventana 842, la ubicación 844, el tamaño 846, la decisión binaria 848, el umbral de rastreo 850, el umbral de detección 852, el umbral de detección y rastreo 854, el valor de confianza de detección 840, el valor de confianza de rastreo 828 y el valor de confianza de detección y rastreo 856 ilustrados en la Figura 8 pueden corresponder y tener una funcionalidad similar al detector de objetos 208, al rastreador de movimiento 206, al localizador de escáner 230, al selector de ubicación de ventana 232, al aleatorizador 234, al escalador de escáner 236, al clasificador 238, al módulo de fusión 260, al búfer de memoria 210, a la trama de vídeo previa capturada 212, a la ventana 242, a la ubicación 244, al tamaño 246, a la decisión binaria 248, al umbral de rastreo 250, al umbral de detección 252, al umbral de detección y rastreo 254, al valor de confianza de detección 240, al valor de confianza de rastreo 228 y al valor de confianza de detección y rastreo 256 ilustrado en la Figura 2.
[0068] Además, el módulo de rastreo y detección de objetos 804 puede incluir un módulo de suavizado 861 que se utiliza para reducir el efecto de fluctuación debido al movimiento del objeto diana y al error de rastreo. En otras palabras, el módulo de suavizado 861 suaviza los resultados de rastreo, provocando que una ventana de búsqueda tenga una trayectoria más suave tanto en la ubicación (x, y) 844 como en el tamaño (ancho, alto) 846. El módulo de suavizado 861 puede ser filtros de promedio móvil (MA) simples o filtros de regresión automática (AR). El grado de suavizado para la ubicación 844 y el tamaño 846 puede ser diferente. Los filtros predictivos, tales como un filtro de Kalman, también pueden ser adecuados para el suavizado de ubicación 844. Por lo tanto, el módulo de suavizado 861 puede recibir una ubicación no suavizada 863 y un tamaño no suavizado 865 como entrada y proporcionar una ubicación suavizada 867 y un tamaño suavizado 869.
[0069] la Figura 9 es un diagrama de bloques que ilustra un módulo de suavizado 961. El módulo de suavizado 961 puede usarse para reducir el efecto de fluctuación debido al movimiento del objeto diana y al error de rastreo, es decir, para que los resultados de rastreo (recuadro delimitador) tengan una trayectoria más suave tanto en la ubicación (x, y) como en el tamaño (ancho, alto). En una configuración, el filtro de suavizado de ubicación 971 y el filtro de suavizado de tamaño 973 se implementan usando un modelo de regresión automática (AR) para recibir una ubicación no suavizada 963 y un tamaño no suavizado 965 como entrada y proporcionar una ubicación suavizada 967 y un tamaño suavizado 969.
[0070] En un modelo de regresión automática (AR), supóngase que X es la variable que se suavizará, ya sea la ubicación o el tamaño. Además, sea X' la salida de X del rastreador de objetos. En esta configuración, el filtrado suavizado de X en el tiempo t, Xt, se puede describir de acuerdo con la Ecuación (1):
Xt = W*X’t (l-W)*Xt_i (!)
donde X't es la salida de rastreador de X en el tiempo t, Xt-1 es el resultado suavizado de X en el tiempo t-1 y W (0 <= W <= 1) es un peso de suavizado que controla el efecto de suavizado. Por ejemplo, X't puede ser una ubicación de ventana o un tamaño de ventana seleccionado para una trama de vídeo actual (N) 224 y Xt-1 puede ser una ubicación de ventana o un tamaño de ventana usado para una trama de vídeo previa (N-1) 222.
[0071] Se puede usar un peso de suavizado diferente, W, para el filtro de suavizado de ubicación 971 y el filtro de suavizado de tamaño 973. Por ejemplo, en una implementación, Wubicación = 0,8 y Wtamaño = 0,4 de modo que hay un menor efecto de suavizado en la ubicación de ventana pero un mayor efecto de suavizado en el tamaño de ventana. Esta selección de pesos de suavizado producirá menos retardo de rastreo y menos fluctuación.
[0072] Además, la selección del peso de suavizado también puede reducirse cuando el valor de confianza de detección y rastreo 856 cae por debajo de un determinado umbral (por ejemplo, el umbral de detección y rastreo 854). Esto puede causar un filtrado más fuerte cuando los posibles errores de rastreo o detección son altos. Por ejemplo, en respuesta a una baja confianza de rastreo (por ejemplo, el valor de confianza de detección y rastreo 856 está por debajo del umbral de detección y rastreo 854), los pesos de suavizado para la ubicación y el tamaño pueden establecerse en Wubicación = 0,65 y Wtamaño = 0,2, respectivamente. En otras palabras, uno o ambos pesos pueden reducirse, lo que puede hacer que la ubicación de ventana y la selección de tamaño se basen más en las ubicaciones de ventana y los tamaños de tramas de vídeo previas que los de una trama de vídeo actual.
[0073] Además, la ponderación puede basarse en un valor de confianza de rastreo 828 o un valor de confianza de detección 840 en lugar de un valor de confianza de detección y rastreo 856. Por ejemplo, los pesos de suavizado, Wubicación W y Wtamaño, pueden reducirse en respuesta a un valor de confianza de rastreo 828 que cae por debajo de un umbral de rastreo 850, es decir, se puede usar un filtrado más intenso en respuesta a un rastreo de movimiento deficiente. De forma alternativa, los pesos de suavizado se pueden reducir en respuesta a un valor de confianza de detección 840 que cae por debajo de un umbral de detección 852, es decir, se puede usar un filtrado más intenso en respuesta a una detección de objetos deficiente.
[0074] En otra configuración, el filtrado de Kalman se puede utilizar para suavizar la ubicación de ventana. En una configuración de este tipo, el filtrado se puede definir de acuerdo con las ecuaciones (2)-(7):
xk = Fkxk-1 w k {2)
zk = Hxk_i vk (3)
donde xk-1 es el estado previo en el tiempo k-1, xk es el estado actual definido por xk = [x, y, x , y], donde (x, y) representan la ubicación central del recuadro delimitador y (x, y) representan la velocidad en cada dirección. Además, el modelo de transición de estados, Fk, y el modelo de observación, H, pueden definirse mediante las ecuaciones (4)-(5), respectivamente:
Figure imgf000014_0001
Figure imgf000015_0001
donde At es un parámetro ajustable. Además, wk es el ruido de proceso que se supone que se extrae de una distribución normal multivariante de promedio cero con covarianza Q (es decir, wk ~ N(0,Q)) de acuerdo con la Ecuación (6):
Figure imgf000015_0002
donde 01 es un parámetro ajustable. De forma similar, wk es el ruido de observación que se supone que es ruido blanco gaussiano de promedio cero con covarianza R (es decir, vk ~ N(0,R)) de acuerdo con la Ecuación (7):
Figure imgf000015_0003
donde 02 es un parámetro ajustable.
[0075] La Figura 10 es un diagrama de flujo que ilustra un procedimiento 1000 para suavizar fluctuaciones en resultados de rastreo de movimiento. El procedimiento 1000 puede ser realizado por un dispositivo electrónico 102, por ejemplo, un módulo de rastreo y detección de objetos 804 en un dispositivo electrónico 102. El dispositivo electrónico 102 puede determinar 1002 una o más ubicaciones de ventana y uno o más tamaños de ventana asociados a una trama de vídeo actual 224, por ejemplo, una ubicación no suavizada 863 y un tamaño no suavizado 865. El dispositivo electrónico 102 también puede filtrar 1004 la una o más ubicaciones de ventana y el uno o más tamaños de ventana para producir una o más ubicaciones de ventana suavizadas 867 y uno o más tamaños de ventana suavizados 869. Por ejemplo, esto puede incluir el uso de un filtro de promedio móvil, un filtro de regresión automática o un filtro de Kalman. En una configuración, en respuesta a una baja confianza de rastreo (por ejemplo, el valor de confianza de detección y rastreo 856 está por debajo del umbral de detección y rastreo 854), los pesos de suavizado para la ubicación y el tamaño pueden reducirse. De forma alternativa, los pesos de suavizado pueden reducirse en base al valor de confianza de detección 840 o el valor de confianza de rastreo 828. El dispositivo electrónico también puede detectar 1006 un objeto diana dentro de la trama de vídeo actual 224 usando una o más ventanas definidas por la una o más ubicaciones de ventana suavizadas 867 y el uno o más tamaños suavizados 869.
[0076] La Figura 11 es un diagrama de flujo de un procedimiento 1100 para realizar un procesamiento de imágenes usando rastreo de objetos. El procedimiento 1100 puede realizarse mediante un dispositivo electrónico 102. El dispositivo electrónico 102 puede obtener 1102 una primera área de rastreo 133. El dispositivo electrónico 102 también puede obtener 1104 una segunda área de rastreo 135. En una configuración, el dispositivo electrónico 102 puede obtener cada una de las áreas de rastreo usando una pantalla táctil 116 o un visor 131. Como ejemplo, la segunda área de rastreo 135 puede cubrir todo el visor 131.
[0077] El usuario puede definir un área dentro de la pantalla táctil 116 (típicamente un cuadrado o un círculo, aunque también se pueden usar otras formas). Esta área puede denominarse área de rastreo o anillo de enfoque. El anillo de enfoque puede ser un elemento de interfaz de usuario (UI) que permite al usuario del dispositivo electrónico 102 seleccionar rápidamente un objeto o área que rastrear. Como ejemplo, el usuario puede colocar el anillo de enfoque sobre un área u objeto, vinculando así el anillo de enfoque al objeto. Una vez que el dedo del usuario se retira de la pantalla táctil, el anillo de enfoque puede comenzar a rastrear el objeto.
[0078] El anillo de enfoque puede cambiar de apariencia dependiendo del estado del rastreo de objeto (por ejemplo, un objeto que se está rastreando, un objeto que no se está rastreando, rastreo pero el objeto se ha perdido). El anillo de enfoque se puede cambiar de tamaño o de forma (por ejemplo, de un círculo a una elipse o un cuadrado) para permitir el rastreo de objetos con una conformación arbitraria. En una configuración, tocar el anillo de enfoque en un objeto rastreado puede hacer que el dispositivo electrónico 102 deje de rastrear ese objeto. El anillo de enfoque puede seguir el objeto alrededor de la pantalla táctil 116 o del visor 131.
[0079] El dispositivo electrónico 102 puede comenzar a rastrear 1106 la primera área de rastreo 133. El dispositivo electrónico 102 también puede comenzar a rastrear 1108 la segunda área de rastreo 135. El dispositivo electrónico 102 puede realizar el procesamiento de imágenes 1110 una vez que una superposición 143 de la primera área de rastreo 133 y la segunda área de rastreo 135 pasa un umbral 145. Dependiendo de la configuración, el procesamiento de imágenes puede producirse cuando la superposición 143 pasa por encima del umbral 145 o cuando la superposición 143 cae por debajo del umbral 145. El procesamiento de imágenes puede incluir tomar una fotografía y/o realizar una edición de vídeo (por ejemplo, eliminar un objeto de una trama de vídeo).
[0080] La Figura 12A ilustra un ejemplo de procesamiento de imágenes usando rastreo de objetos. Se ilustran múltiples tramas 1253a-b. Las tramas 1253 pueden ser parte de una secuencia de vídeo pregrabada 147 o tramas en directo vistas a través de un visor 131. En la trama m 1253a se ilustra una primera área de rastreo 1233a alrededor de una persona que camina y una segunda área de rastreo 1235a se ilustra alrededor de un árbol estacionario. Un usuario puede desear tomar una fotografía 149 una vez que la persona que camina está frente al árbol estacionario. En la trama m 1253a, la primera área de rastreo 1233a no se superpone a la segunda área de rastreo 1235a (es decir, la superposición 143 es del 0 %). El dispositivo electrónico 102 puede configurarse para realizar el procesamiento de imágenes una vez que la superposición 143 alcanza el 50 %. En esta configuración, el dispositivo electrónico 102 puede configurarse para tomar una fotografía 149 una vez que la superposición 143 alcanza el 50 %.
[0081] En la trama n 1253b, ha transcurrido tiempo desde la trama m 1253a. La primera área de rastreo 1233b ha permanecido en la persona que camina y la segunda área de rastreo 1235b ha permanecido en el árbol estacionario. Debido a que la persona que camina se ha movido, la primera área de rastreo 1233b se superpone ahora 1243a a la segunda área de rastreo 1235b en más del 50 %. Así, una vez que el solapamiento 1243a alcanza el 50 %, el dispositivo electrónico 102 está configurado para tomar una fotografía 149 (en este caso, una fotografía 149 de la persona que camina frente al árbol estacionario).
[0082] La Figura 12B también ilustra un ejemplo de procesamiento de imágenes usando rastreo de objetos. Se ilustran múltiples tramas 1253c-d. Las tramas 1253 pueden ser parte de una secuencia de vídeo pregrabada 147 o tramas en directo vistas a través de un visor 131. En la trama m 1253c, se ilustra una primera área de rastreo 1233c alrededor de una persona que camina y se ilustra una línea de acción 1287 cerca de un árbol estacionario. La línea de acción 1287 puede ser una línea vertical, una línea horizontal u otro tipo de línea (tal como una línea curva). Tanto el primer área de rastreo 1233c como la línea de acción 1287 pueden ser configuradas por un usuario. El usuario puede desear tomar una fotografía (o una ráfaga de fotografías) o realizar otro procesamiento de vídeo una vez que la persona que camina ha cruzado la línea de acción 1287 (es decir, cuando se produce una superposición 1243b).
[0083] En la trama n 1253d ha transcurrido tiempo desde la trama m 1253c. La primera área de rastreo 1233d ha permanecido en la persona que camina y la línea de acción 1287 ha permanecido cerca del árbol estacionario. Debido a que la persona que camina se ha movido, la primera área de rastreo 1233d ahora se superpone 1243b a la línea de acción 1287. Una vez que la primera área de rastreo 1233d cruza la línea de acción 1287, el dispositivo electrónico 102 puede configurarse para tomar una fotografía 149 o realizar otro procesamiento de imágenes.
[0084] La Figura 13 ilustra otro ejemplo de procesamiento de imágenes usando rastreo de objetos. Se ilustran múltiples tramas 1253a-b. Las tramas 1253 pueden ser parte de una secuencia de vídeo pregrabada 147 o tramas en directo vistas a través de un visor 131. En la trama n 1353a se ilustra una primera área de rastreo 1333a alrededor de una persona que camina y una segunda área de rastreo 1335a se ilustra alrededor de un árbol estacionario y el área alrededor del árbol. Un usuario puede desear tomar una fotografía 149 una vez que la persona que camina ya no esté a la vista (por ejemplo, una toma de la naturaleza). En la trama m 1353a, la segunda área de rastreo 1335a se superpone completamente a la primera área de rastreo 1333a (es decir, la superposición 1343 es del 100 %). El dispositivo electrónico 102 puede configurarse para realizar el procesamiento de imágenes una vez que la superposición 1343 alcanza el 0 %. En esta configuración, el dispositivo electrónico 102 puede configurarse para tomar una fotografía 149 una vez que la superposición 1343 alcanza el 0 %.
[0085] En la trama n 1353b, ha transcurrido tiempo desde la trama m 1353a. La primera área de rastreo 1333b ha permanecido en la persona que camina y la segunda área de rastreo 1335b ha permanecido en el árbol estacionario. Debido a que la persona que camina se ha movido, la primera área de rastreo 1333a ya no se superpone a la segunda área de rastreo 1335b. Así, una vez que el solapamiento 1343 alcanza el 0 %, el dispositivo electrónico 102 está configurado para tomar una fotografía 149 (en este caso, una fotografía 149 del árbol estacionario sin la persona que camina).
[0086] La Figura 14 es un diagrama de flujo de un procedimiento 1400 para realizar un procesamiento de imágenes en una secuencia de vídeo 147 usando rastreo de objetos. El procedimiento 1400 puede realizarse mediante un dispositivo electrónico 102. Un usuario puede seleccionar múltiples áreas de rastreo en el dispositivo electrónico 102 para el procesamiento de imágenes. El dispositivo electrónico 102 puede determinar 1402 que una primera área de rastreo 133 se superpone 143 a una segunda área de rastreo 135 en más de un umbral 145 en una primera trama de secuencia de vídeo 147. El dispositivo electrónico 102 puede seleccionar 1404 una segunda trama de la secuencia de vídeo 147. La segunda trama puede seleccionarse de modo que la primera área de rastreo 133 de la segunda trama no se superponga a un área de reemplazo de la segunda trama, que corresponde a la primera área de rastreo 133 de la primera trama. El área de reemplazo de la segunda trama puede reflejar la posición de la primera área de rastreo 133 en la primera trama. Por tanto, el área de reemplazo puede mostrar el fondo detrás de la primera área de rastreo 133. La segunda trama puede ser una trama que se produce antes o después de la primera trama.
[0087] El dispositivo electrónico 102 puede reemplazar 1406 la primera área de rastreo 133 de la primera trama por el área de reemplazo correspondiente de la segunda trama. El dispositivo electrónico 102 puede almacenar 1408 la primera trama editado como parte de una secuencia de vídeo editada 151.
[0088] La Figura 15 ilustra múltiples tramas 1553a-d tanto de una secuencia de vídeo sin editar 1547 como de una secuencia de vídeo editada 1551 mostradas en un dispositivo electrónico 102. El procesamiento de imágenes usando el rastreo de objetos se puede realizar en la secuencia de vídeo sin editar 1547 para obtener la secuencia de vídeo editada 1551. Se ilustra la trama m 1553a, la trama n 1553b y la trama o 1553c de la secuencia de vídeo sin editar 1547. Aunque las tramas 1553a-c son secuenciales (la trama n 1553b se produce después de la trama m 1553a), pueden producirse tramas adicionales (no mostradas) entre las tramas 1553a-c (por ejemplo, la trama n 1553b puede no ser la trama inmediata siguiente a la trama m 1553a).
[0089] La trama m 1553a incluye una persona que camina y un árbol estacionario. Un usuario puede seleccionar una primera área de rastreo 1533a que incluye a la persona que camina y una segunda área de rastreo 1535a que incluye el árbol estacionario y la persona que camina usando el dispositivo electrónico 102. En una configuración, la segunda área de rastreo 1535a puede configurarse como estacionaria. El usuario también puede configurar el dispositivo electrónico 102 para eliminar a la persona que camina de la secuencia de vídeo sin editar 1547.
[0090] El procesamiento de imágenes puede configurarse para reemplazar la primera área de rastreo 1533a de la trama m 1553a por un área de reemplazo 1555 de otra trama 1553 una vez que la primera área de rastreo 1533 no se superpone a la segunda área de rastreo 1535. En otras palabras, la persona que camina en la trama m 1553a puede ser reemplazada por el fondo detrás de la persona que camina una vez que la persona que camina se haya movido lo suficiente para exponer el fondo. En esta configuración, el procesamiento de imágenes se puede realizar una vez que la superposición 143 alcanza el 0 %.
[0091] La trama n 1553b incluye a la persona que camina (rodeada por la primera área de rastreo en movimiento 1533b) y el árbol estacionario (rodeado por la segunda área de rastreo estacionaria 1535b). Debido a que la primera área de rastreo 1533b de la trama n 1553b se superpone a la segunda área de rastreo 1535b de la trama n 1553b, la trama n 1553b puede no seleccionarse como trama adecuada para el reemplazo en la trama m 1553a.
[0092] La trama o 1553c incluye a la persona que camina (rodeada por la primera área de rastreo en movimiento 1533c) y el árbol estacionario (rodeado por la segunda área de rastreo estacionaria 1535c). Debido a que la primera área de rastreo 1533c de la trama o 1553c no se superpone a la segunda área de rastreo 1535c de la trama o 1553c, la trama o 1553c puede seleccionarse para su reemplazo en la trama m 1553a. La trama o 1553c incluye un área de reemplazo 1555. El área de reemplazo 1555 puede corresponder a la primera área de rastreo 1533a de la trama m 1553a. Por tanto, el área de reemplazo 1555 puede incluir el fondo detrás de la persona que camina que está oculto en la trama m 1553a. El procesamiento de imágenes puede reemplazar la primera área de rastreo 1533a de la trama m 1553a por el área de reemplazo 1555 de la trama o 1553c. Por tanto, en la secuencia de vídeo editada 1551, la trama m 1553d se ilustra sin la persona que camina.
[0093] La Figura 16 ilustra determinados componentes que se pueden incluir dentro de un dispositivo electrónico 1602. El dispositivo electrónico 1602 puede ser una estación móvil, un equipo de usuario (UE), un punto de acceso, etc., tal como el dispositivo electrónico 102 ilustrado en la Figura 1. El dispositivo electrónico 1602 incluye un procesador 1603. El procesador 1603 puede ser un microprocesador de propósito general con un único o múltiples chips (por ejemplo, un ARM), un microprocesador de propósito especial (por ejemplo, un procesador de señales digitales (DSP)), un microcontrolador, una matriz de puertas programables, etc. El procesador 1603 se puede denominar unidad de procesamiento central (CPU). Aunque solo se muestra un único procesador 1603 en el dispositivo electrónico 1602, en una configuración alternativa se podría usar una combinación de procesadores 1603 (por ejemplo, un ARM y un DSP).
[0094] El dispositivo electrónico 1602 incluye también una memoria 1605. La memoria 1605 puede ser cualquier componente electrónico que pueda almacenar información electrónica. La memoria 1605 se puede incorporar como una memoria de acceso aleatorio (RAM), una memoria de solo lectura (ROM), unos medios de almacenamiento en disco magnético, unos medios de almacenamiento ópticos, unos dispositivos de memoria flash en RAM, una memoria incorporada incluida con el procesador, una memoria EPROM, una memoria EEPROM, unos registros, etc., incluyendo las combinaciones de los mismos.
[0095] En la memoria 1605 se pueden almacenar datos 1607a e instrucciones 1609a. Las instrucciones 1609a pueden ser ejecutables por el procesador 1603 para implementar los procedimientos divulgados en el presente documento. La ejecución de las instrucciones 1609a puede implicar el uso de los datos 1607a que están almacenados en la memoria 1605. Cuando el procesador 1603 ejecuta las instrucciones 1609a, pueden cargarse diversas partes de las instrucciones 1609b en el procesador 1603, y pueden cargarse diversos datos 1607a en el procesador 1603.
[0096] El dispositivo electrónico 1602 también puede incluir un transmisor 1611 y un receptor 1613 para permitir la transmisión y recepción de señales hacia y desde el dispositivo electrónico 1602. El transmisor 1611 y el receptor 1613 se pueden denominar conjuntamente transceptor 1615. Una antena 1617 se puede acoplar eléctricamente al transceptor 1615. El dispositivo electrónico también puede incluir (no se muestran) múltiples transmisores, múltiples receptores, múltiples transceptores y/o antenas adicionales.
[0097] El dispositivo electrónico 1602 puede incluir un procesador de señales digitales (DSP) 1621. El dispositivo electrónico 1602 también puede incluir una interfaz de comunicaciones 1623. La interfaz de comunicaciones 1623 puede permitir que un usuario interactúe con el dispositivo electrónico 1602.
[0098] Los diversos componentes del dispositivo electrónico 1602 se pueden acoplar entre sí mediante uno o más buses, que pueden incluir un bus de alimentación, un bus de señales de control, un bus de señales de estado, un bus de datos, etc. En aras de la claridad, los diversos buses se ilustran en la Figura 16 como un sistema de buses 1619.
[0099] Las técnicas descritas en el presente documento pueden usarse para diversos sistemas de comunicación, incluidos sistemas de comunicación que están basados en un esquema de multiplexación ortogonal. Ejemplos de dichos sistemas de comunicación incluyen sistemas de acceso múltiple por división ortogonal de frecuencia (OFDMA), sistemas de acceso múltiple por división de frecuencia de portadora única (SC-FDMA), etc. Un sistema OFDMA utiliza multiplexación por división ortogonal de frecuencia (OFDM), que es una técnica de modulación que divide el ancho de banda del sistema global en múltiples subportadoras ortogonales. Estas subportadoras también se pueden denominar tonos, bins, etc. Con OFDM, cada subportadora se puede modular de forma independiente con datos. Un sistema SC-FDMA puede utilizar FDMA intercalado (IFDMA) para transmitir en subportadoras que están distribuidas a través del ancho de banda de sistema, FDMA localizado (LFDMA) para transmitir en un bloque de subportadoras contiguas o FDMA mejorado (EFDMA) para transmitir en múltiples bloques de subportadoras contiguas. En general, los símbolos de modulación se envían en el dominio de frecuencia con OFDM y en el dominio de tiempo con SC-FDMA.
[0100] De acuerdo con la presente divulgación, un circuito, en un dispositivo electrónico, puede adaptarse para realizar un rastreo basado en movimiento para una trama de vídeo actual comparando una trama de vídeo previa y la trama de vídeo actual. El mismo circuito, un circuito diferente o una segunda sección del mismo circuito o de un circuito diferente pueden adaptarse para realizar la detección de objetos en la trama de vídeo actual basándose en un parámetro de rastreo. La segunda sección puede estar acoplada de forma ventajosa a la primera sección, o puede estar incorporada en el mismo circuito que la primera sección. Además, el mismo circuito, un circuito diferente o una tercera sección del mismo o diferente circuito se puede adaptar para controlar la configuración de los circuitos o secciones de circuitos que brindan la funcionalidad descrita anteriormente.
[0101] El término "determinar" engloba una amplia variedad de acciones y, por lo tanto, "determinar" puede incluir calcular, computar, procesar, obtener, investigar, consultar (por ejemplo, consultar una tabla, una base de datos u otra estructura de datos), verificar y similares. Además, "determinar" puede incluir recibir (por ejemplo, recibir información), acceder, (por ejemplo, acceder a datos en una memoria) y similares. Además, "determinar" puede incluir resolver, seleccionar, elegir, establecer y similares.
[0102] La expresión "en base a" no significa "en base solo a", a menos que se especifique expresamente lo contrario. En otras palabras, la frase "en base a" describe tanto "en base solo a" como "en base al menos a".
[0103] El término “procesador” se debería interpretar en un sentido amplio para englobar un procesador de propósito general, una unidad de procesamiento central (CPU), un microprocesador, un procesador de señales digitales (DSP), un controlador, un microcontrolador, una máquina de estados, etc. En algunas circunstancias, un "procesador" se puede referir a un circuito integrado específico de la aplicación (ASIC), un dispositivo lógico programable (PLD), una matriz de puertas programables in situ (FPGA), etc. El término "procesador" se puede referir a una combinación de dispositivos de procesamiento, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores junto con un núcleo DSP o cualquier otra configuración de este tipo.
[0104] El término "memoria" se debería interpretar en un sentido amplio para englobar cualquier componente electrónico capaz de almacenar información electrónica. El término memoria se puede referir a diversos tipos de medios legibles por procesador tales como memoria de acceso aleatorio (RAM), memoria de solo lectura (ROM), memoria de acceso aleatorio no volátil (NVRAM), memoria de solo lectura programable (PROM), memoria de solo lectura programable borrable (EPROM), PROM borrable eléctricamente (EEPROM), memoria flash, almacenamiento de datos magnéticos u ópticos, registros, etc. Se dice que la memoria está en comunicación electrónica con un procesador si el procesador puede leer información de y/o escribir información en la memoria. La memoria, que es una parte integrante de un procesador, está en comunicación electrónica con el procesador.
[0105] Los términos "instrucciones" y "código" se deberían interpretar en un sentido amplio para incluir cualquier tipo de sentencia(s) legible(s) por ordenador. Por ejemplo, los términos "instrucciones" y "código" se pueden referir a uno o más programas, rutinas, subrutinas, funciones, procedimientos, etc. "Instrucciones" y "código" pueden comprender una única sentencia legible por ordenador o muchas sentencias legibles por ordenador.
[0106] Las funciones descritas en el presente documento se pueden implementar en software o firmware que se ejecuta mediante hardware. Las funciones se pueden almacenar como una o más instrucciones en un medio legible por ordenador. Los términos "medio legible por ordenador" o "producto de programa informático" se refieren a cualquier medio de almacenamiento tangible al que se pueda acceder por un ordenador o un procesador. A modo de ejemplo, y no de limitación, un medio legible por ordenador puede comprender RAM, ROM, EEPROM, CD-ROM u otro dispositivo de almacenamiento en disco óptico, de almacenamiento en disco magnético u otros dispositivos de almacenamiento magnético o cualquier otro medio que se pueda usar para transportar o almacenar código de programa deseado en forma de instrucciones o estructuras de datos y al que se pueda acceder mediante un ordenador. Los discos, como se usan en el presente documento, incluyen el disco compacto (CD), el disco láser, el disco óptico, el disco versátil digital (DVD), el disco flexible y el disco Blu-ray®, donde algunos discos reproducen normalmente datos magnéticamente, mientras que otros discos reproducen datos ópticamente con láseres. Cabe destacar que un medio legible por ordenador puede ser tangible y no transitorio. El término "producto de programa informático" se refiere a un dispositivo o procesador informático en combinación con código o instrucciones (por ejemplo, un "programa") que se pueden ejecutar, procesar o computar mediante el dispositivo o procesador informático. Como se usa en el presente documento, el término "código" se puede referir a software, instrucciones, código o datos que son ejecutables por un dispositivo o procesador informático.
[0107] El software o las instrucciones también se pueden transmitir a través de un medio de transmisión. Por ejemplo, si el software se transmite desde un sitio web, un servidor u otra fuente remota usando un cable coaxial, un cable de fibra óptica, un par trenzado, una línea de abonado digital (DSL) o tecnologías inalámbricas tales como infrarrojos, radio y microondas, entonces el cable coaxial, el cable de fibra óptica, el par trenzado, la DSL o las tecnologías inalámbricas tales como infrarrojos, radio y microondas se incluyen en la definición de medio de transmisión.
[0108] Los procedimientos divulgados en el presente documento comprenden una o más etapas o acciones para lograr el procedimiento descrito. Las etapas y/o acciones de procedimiento se pueden intercambiar entre sí sin apartarse del alcance de las reivindicaciones. En otras palabras, a menos que se requiera un orden específico de etapas o acciones para un funcionamiento apropiado del procedimiento que se describe, el orden y/o el uso de etapas y/o acciones específicas se puede modificar sin apartarse del alcance de las reivindicaciones.
[0109] Además, debe tenerse en cuenta que un dispositivo puede descargar y/u obtener de otra manera los módulos y/u otros medios adecuados para realizar los procedimientos y las técnicas descritos en el presente documento, tales como los ilustrados en las Figuras 2A, 2B, 3-6, 10, 11 y 14. Por ejemplo, un dispositivo se puede acoplar a un servidor para facilitar la transferencia de medios para realizar los procedimientos descritos en el presente documento. De forma alternativa, diversos procedimientos descritos en el presente documento se pueden proporcionar a través de medios de almacenamiento (por ejemplo, memoria de acceso aleatorio (RAM), memoria de solo lectura (ROM), un medio de almacenamiento físico tal como un disco compacto (CD) o un disco flexible, etc.), de modo que un dispositivo puede obtener los diversos procedimientos tras acoplarse o proporcionar los medios de almacenamiento al dispositivo.

Claims (15)

  1. REIVINDICACIONES
    i. Un procedimiento (1100) para realizar una operación de procesamiento de imágenes usando múltiples tramas de material de vídeo pregrabado o en directo, la operación de procesamiento de imágenes comprendiendo capturar una fotografía (149) del material de vídeo o realizar una operación de edición de vídeo en una trama del material de vídeo, estando el procedimiento caracterizado por:
    obtener (1102, 1104) una primera área de rastreo (1233) y una segunda área de rastreo (1235) dentro de una trama;
    rastrear (1106, 1108) la primera área de rastreo y la segunda área de rastreo a través de múltiples tramas; y
    realizar (1110) la operación de procesamiento de imágenes una vez que una parte (1243) de la primera área de rastreo que se superpone a la segunda área de rastreo pasa un umbral, donde la operación de procesamiento de imágenes no se realiza hasta que se pasa el umbral.
  2. 2. El procedimiento de la reivindicación 1, en el que la operación de procesamiento de imágenes se realiza una vez que la parte (1243) de la primera área de rastreo (1233) que se superpone a la segunda área de rastreo (1235) pasa a ser mayor que el umbral.
  3. 3. El procedimiento de la reivindicación 1, en el que la operación de procesamiento de imágenes se realiza una vez que la parte (1243) de la primera área de rastreo (1233) que se superpone a la segunda área de rastreo (1235) pasa a ser menor que el umbral.
  4. 4. El procedimiento de la reivindicación 1, en el que la operación de procesamiento de imágenes se realiza usando material de vídeo pregrabado.
  5. 5. El procedimiento de la reivindicación 1, en el que la operación de procesamiento de imágenes se realiza usando material de vídeo en directo.
  6. 6. El procedimiento de la reivindicación 1, en el que la primera área de rastreo (1233) y la segunda área de rastreo (1235) son introducidas por un usuario a través de un anillo de enfoque.
  7. 7. El procedimiento de la reivindicación 1,
    en el que el rastreo de la primera área de rastreo (1233) y la segunda área de rastreo (1235) se produce después de que un usuario haya soltado un dedo de una pantalla táctil, o
    en el que la segunda área de rastreo (1235) comprende una línea de acción.
  8. 8. Un aparato (102) para realizar una operación de procesamiento de imágenes usando múltiples tramas de material de vídeo pregrabado o en directo, la operación de procesamiento de imágenes comprendiendo capturar una fotografía (149) del material de vídeo o realizar una operación de edición de vídeo en una trama del material de vídeo, estando el aparato caracterizado por:
    medios para obtener (1102, 1104) una primera área de rastreo (1233) y una segunda área de rastreo (1235) dentro de una trama;
    medios para rastrear (1106, 1108) la primera área de rastreo y la segunda área de rastreo a través de múltiples tramas; y
    medios para realizar (1110) la operación de procesamiento de imágenes una vez que una parte (1243) de la primera área de rastreo que se superpone a la segunda área de rastreo pasa un umbral, donde la operación de procesamiento de imágenes no se realiza hasta que se pasa el umbral.
  9. 9. El aparato de la reivindicación 8, en el que la operación de procesamiento de imágenes se realiza una vez que la parte de la primera área de rastreo que se superpone a la segunda área de rastreo pasa a ser mayor que el umbral.
  10. 10. El aparato de la reivindicación 8, en el que la operación de procesamiento de imágenes se realiza una vez que la parte de la primera área de rastreo que se superpone a la segunda área de rastreo pasa a ser menor que el umbral.
  11. 11. El aparato de la reivindicación 8, en el que la primera área de rastreo y la segunda área de rastreo son introducidas por un usuario a través de un anillo de enfoque.
  12. 12. El aparato de la reivindicación 8, en el que el rastreo de la primera área de rastreo y de la segunda área de rastreo se produce después de que un usuario haya soltado un dedo de una pantalla táctil.
  13. 13. El aparato de la reivindicación 8, en el que el aparato es un teléfono inteligente o una tableta electrónica.
  14. 14. El aparato de la reivindicación 8, en el que el aparato incluye una cámara.
  15. 15. Un producto de programa informático que comprende un medio legible por ordenador tangible no transitorio que tiene instrucciones en el mismo, donde las instrucciones comprenden código para hacer que un dispositivo electrónico lleve a cabo un procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 7.
ES14736513T 2013-06-14 2014-05-30 Captura de imágenes asistida por rastreador Active ES2869438T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361835414P 2013-06-14 2013-06-14
US14/036,947 US10474921B2 (en) 2013-06-14 2013-09-25 Tracker assisted image capture
PCT/US2014/040166 WO2014200714A1 (en) 2013-06-14 2014-05-30 Tracker assisted image capture

Publications (1)

Publication Number Publication Date
ES2869438T3 true ES2869438T3 (es) 2021-10-25

Family

ID=52019256

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14736513T Active ES2869438T3 (es) 2013-06-14 2014-05-30 Captura de imágenes asistida por rastreador

Country Status (9)

Country Link
US (3) US10474921B2 (es)
EP (1) EP3008696B1 (es)
JP (1) JP6522595B2 (es)
KR (2) KR102349242B1 (es)
CN (2) CN111462185A (es)
BR (1) BR112015031071A2 (es)
CA (1) CA2910965A1 (es)
ES (1) ES2869438T3 (es)
WO (1) WO2014200714A1 (es)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9342759B1 (en) * 2013-03-14 2016-05-17 Hrl Laboratories, Llc Object recognition consistency improvement using a pseudo-tracklet approach
US10474921B2 (en) 2013-06-14 2019-11-12 Qualcomm Incorporated Tracker assisted image capture
US10346465B2 (en) 2013-12-20 2019-07-09 Qualcomm Incorporated Systems, methods, and apparatus for digital composition and/or retrieval
US9589595B2 (en) 2013-12-20 2017-03-07 Qualcomm Incorporated Selection and tracking of objects for display partitioning and clustering of video frames
KR101982258B1 (ko) * 2014-09-19 2019-05-24 삼성전자주식회사 오브젝트 검출 방법 및 오브젝트 검출 장치
JP6027070B2 (ja) * 2014-09-24 2016-11-16 富士フイルム株式会社 領域検出装置、領域検出方法、画像処理装置、画像処理方法、プログラムおよび記録媒体
US9791541B2 (en) * 2014-12-19 2017-10-17 The Boeing Company System and method to improve object tracking using multiple tracking systems
US9940726B2 (en) 2014-12-19 2018-04-10 The Boeing Company System and method to improve object tracking using tracking fingerprints
US20170244959A1 (en) * 2016-02-19 2017-08-24 Adobe Systems Incorporated Selecting a View of a Multi-View Video
CN106920251A (zh) 2016-06-23 2017-07-04 阿里巴巴集团控股有限公司 人手检测跟踪方法及装置
WO2018073848A1 (ja) 2016-10-19 2018-04-26 日本電気株式会社 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体
CN107066990B (zh) * 2017-05-04 2019-10-11 厦门美图之家科技有限公司 一种目标跟踪方法及移动设备
US10462370B2 (en) 2017-10-03 2019-10-29 Google Llc Video stabilization
US10628961B2 (en) * 2017-10-13 2020-04-21 Qualcomm Incorporated Object tracking for neural network systems
CN110032916A (zh) * 2018-01-12 2019-07-19 北京京东尚科信息技术有限公司 一种检测目标物体的方法和装置
CN108596116B (zh) * 2018-04-27 2021-11-05 深圳市商汤科技有限公司 测距方法、智能控制方法及装置、电子设备和存储介质
US10171738B1 (en) * 2018-05-04 2019-01-01 Google Llc Stabilizing video to reduce camera and face movement
CN110619339B (zh) * 2018-06-19 2022-07-15 赛灵思电子科技(北京)有限公司 一种目标检测方法与装置
CN109064489A (zh) * 2018-07-17 2018-12-21 北京新唐思创教育科技有限公司 用于人脸追踪的方法、装置、设备和介质
US20200293823A1 (en) * 2019-03-13 2020-09-17 Hitachi, Ltd. Method and system of auto build of image analytics program
JP2020170252A (ja) * 2019-04-01 2020-10-15 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
CN110110787A (zh) * 2019-05-06 2019-08-09 腾讯科技(深圳)有限公司 目标的位置获取方法、装置、计算机设备及存储介质
EP3739503B1 (en) * 2019-05-14 2023-10-25 Nokia Technologies Oy Video processing
CN110516620B (zh) * 2019-08-29 2023-07-28 腾讯科技(深圳)有限公司 目标跟踪方法、装置、存储介质及电子设备
US11113793B2 (en) * 2019-11-20 2021-09-07 Pacific future technology (Shenzhen) Co., Ltd Method and apparatus for smoothing a motion trajectory in a video
US11190689B1 (en) 2020-07-29 2021-11-30 Google Llc Multi-camera video stabilization

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7023469B1 (en) * 1998-04-30 2006-04-04 Texas Instruments Incorporated Automatic video monitoring system which selectively saves information
EP1097568A2 (en) * 1998-06-11 2001-05-09 Presenter.Com Creating animation from a video
US6628835B1 (en) * 1998-08-31 2003-09-30 Texas Instruments Incorporated Method and system for defining and recognizing complex events in a video sequence
JP2002064812A (ja) 2000-08-17 2002-02-28 Sharp Corp 移動物体追尾装置
KR100556732B1 (ko) * 2001-12-29 2006-03-10 엘지전자 주식회사 동영상 확대영역 추적방법
US6954544B2 (en) 2002-05-23 2005-10-11 Xerox Corporation Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences
JP3983624B2 (ja) 2002-08-09 2007-09-26 シャープ株式会社 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
US20040061781A1 (en) * 2002-09-17 2004-04-01 Eastman Kodak Company Method of digital video surveillance utilizing threshold detection and coordinate tracking
US7940302B2 (en) * 2004-09-15 2011-05-10 The Regents Of The University Of California Apparatus and method for privacy protection of data collection in pervasive environments
SE532236C2 (sv) 2006-07-19 2009-11-17 Scalado Ab Metod i samband med tagning av digitala bilder
JP5056061B2 (ja) 2007-02-22 2012-10-24 株式会社ニコン 撮像装置
JP4854786B2 (ja) 2007-04-09 2012-01-18 パナソニック株式会社 撮像装置、撮像方法及び集積回路
US8970703B1 (en) * 2007-04-16 2015-03-03 The United States Of America As Represented By The Secretary Of The Navy Automatically triggered video surveillance system
JP5144422B2 (ja) 2007-09-28 2013-02-13 富士フイルム株式会社 撮影装置及び撮影方法
CN101453660B (zh) * 2007-12-07 2011-06-08 华为技术有限公司 一种视频目标跟踪方法和装置
US8253819B2 (en) 2008-02-06 2012-08-28 Panasonic Corporation Electronic camera and image processing method
JP4623122B2 (ja) 2008-04-03 2011-02-02 ソニー株式会社 画像信号処理装置、画像信号処理方法、およびプログラム
US8745514B1 (en) * 2008-04-11 2014-06-03 Perceptive Pixel, Inc. Pressure-sensitive layering of displayed objects
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP2010114801A (ja) 2008-11-10 2010-05-20 Hoya Corp 撮像装置
US8611590B2 (en) * 2008-12-23 2013-12-17 Canon Kabushiki Kaisha Video object fragmentation detection and management
KR20100075167A (ko) 2008-12-24 2010-07-02 삼성전자주식회사 얼굴인식 기능을 이용한 디지털 영상 촬영 장치 및 방법
US20130321623A1 (en) * 2009-02-27 2013-12-05 Barracuda Networks, Inc. Internet Camera Which Caches References to Untransmitted Full Resolution Video
US20100225773A1 (en) 2009-03-09 2010-09-09 Apple Inc. Systems and methods for centering a photograph without viewing a preview of the photograph
KR101586700B1 (ko) * 2009-07-03 2016-01-20 한화테크윈 주식회사 감지장치, 이벤트 감지방법 및 촬영시스템
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8922718B2 (en) * 2009-10-21 2014-12-30 Disney Enterprises, Inc. Key generation through spatial detection of dynamic objects
CN101877132B (zh) * 2009-11-27 2014-03-26 北京中星微电子有限公司 用于运动跟踪的交互事件处理方法和装置
KR101183781B1 (ko) * 2009-12-22 2012-09-17 삼성전자주식회사 실시간 카메라 모션 추정을 이용한 물체 검출/추적 방법 및 단말
US8570286B2 (en) * 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
SE534551C2 (sv) * 2010-02-15 2011-10-04 Scalado Ab Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild
JP5394296B2 (ja) 2010-03-25 2014-01-22 富士フイルム株式会社 撮像装置及び画像処理方法
JP5577793B2 (ja) 2010-03-30 2014-08-27 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102214359B (zh) 2010-04-07 2013-02-13 北京智安邦科技有限公司 基于层级式特征匹配的目标跟踪装置
KR101130963B1 (ko) * 2010-05-24 2012-04-04 중앙대학교 산학협력단 형태와 특징 정보를 이용한 비정형 객체 추적 장치 및 그 방법
CN101887588B (zh) 2010-08-04 2012-07-25 中国科学院自动化研究所 一种基于表观分块的遮挡处理方法
CN103069457A (zh) * 2010-08-10 2013-04-24 Lg电子株式会社 基于感兴趣区的视频概要
FR2967804B1 (fr) * 2010-11-19 2013-01-04 Total Immersion Procede et dispositif de detection et de suivi d'objets non rigides en mouvement, en temps reel, dans un flux video, permettant a un utilisateur d'interagir avec un systeme informatique
CN103348386A (zh) * 2010-11-29 2013-10-09 马普科技促进协会 用于在数字视频中追踪和重塑人形图像的计算机实现的方法和装置
US9615062B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Multi-resolution image display
US8908911B2 (en) * 2011-03-04 2014-12-09 Qualcomm Incorporated Redundant detection filtering
JP2012205037A (ja) 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
US8736716B2 (en) * 2011-04-06 2014-05-27 Apple Inc. Digital camera having variable duration burst mode
MY159291A (en) 2011-06-17 2016-12-30 Mimos Berhad System and method of object counting
WO2013001143A2 (en) * 2011-06-30 2013-01-03 Nokia Corporation Method, apparatus and computer program product for generating panorama images
US20140163703A1 (en) * 2011-07-19 2014-06-12 Utah State University Systems, devices, and methods for multi-occupant tracking
US20130035979A1 (en) * 2011-08-01 2013-02-07 Arbitron, Inc. Cross-platform audience measurement with privacy protection
US8855436B2 (en) * 2011-10-20 2014-10-07 Xerox Corporation System for and method of selective video frame compression and decompression for efficient event-driven searching in large databases
US8805008B1 (en) * 2011-11-02 2014-08-12 The Boeing Company Tracking closely spaced objects in images
US9626798B2 (en) * 2011-12-05 2017-04-18 At&T Intellectual Property I, L.P. System and method to digitally replace objects in images or video
KR20130067530A (ko) * 2011-12-14 2013-06-25 한국전자통신연구원 영상 보안 전송 장치 및 방법과 그 수신 장치 및 방법
JP5921329B2 (ja) * 2012-05-17 2016-05-24 キヤノン株式会社 映像処理装置、追尾物体の管理方法、および、プログラム
JP5925068B2 (ja) * 2012-06-22 2016-05-25 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム
US8798926B2 (en) * 2012-11-14 2014-08-05 Navteq B.V. Automatic image capture
US9436875B2 (en) * 2012-12-06 2016-09-06 Nokia Technologies Oy Method and apparatus for semantic extraction and video remix creation
CN103108124B (zh) * 2012-12-28 2017-07-18 上海鼎为电子科技(集团)有限公司 图像获取方法、装置及移动终端
US20140192210A1 (en) * 2013-01-04 2014-07-10 Qualcomm Incorporated Mobile device based text detection and tracking
US9201499B1 (en) * 2013-02-11 2015-12-01 Amazon Technologies, Inc. Object tracking in a 3-dimensional environment
CN103139547B (zh) 2013-02-25 2016-02-10 昆山南邮智能科技有限公司 基于视频图像信号判定摄像镜头遮挡状态的方法
US20140362225A1 (en) * 2013-06-11 2014-12-11 Honeywell International Inc. Video Tagging for Dynamic Tracking
US10474921B2 (en) 2013-06-14 2019-11-12 Qualcomm Incorporated Tracker assisted image capture

Also Published As

Publication number Publication date
BR112015031071A2 (pt) 2017-07-25
CN111462185A (zh) 2020-07-28
JP2016526713A (ja) 2016-09-05
JP6522595B2 (ja) 2019-05-29
WO2014200714A1 (en) 2014-12-18
US20230077355A1 (en) 2023-03-16
CN105264570A (zh) 2016-01-20
US11538232B2 (en) 2022-12-27
US20200019806A1 (en) 2020-01-16
CA2910965A1 (en) 2014-12-18
EP3008696B1 (en) 2021-02-17
KR102349242B1 (ko) 2022-01-07
KR20210014774A (ko) 2021-02-09
US20140369555A1 (en) 2014-12-18
KR20160020498A (ko) 2016-02-23
US10474921B2 (en) 2019-11-12
EP3008696A1 (en) 2016-04-20

Similar Documents

Publication Publication Date Title
ES2869438T3 (es) Captura de imágenes asistida por rastreador
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
US11178324B2 (en) Focusing method and device, electronic device and computer-readable storage medium
CN110334635B (zh) 主体追踪方法、装置、电子设备和计算机可读存储介质
KR101739245B1 (ko) 비디오 프레임들의 디스플레이 파티셔닝 및 클러스터링을 위한 오브젝트들의 선택 및 추적
US9560271B2 (en) Removing unwanted objects from photographed image
US9542735B2 (en) Method and device to compose an image by eliminating one or more moving objects
KR20150110697A (ko) 타깃 오브젝트를 추적 및 검출하기 위한 시스템들 및 방법들
CN108027884B (zh) 一种用于监测对象的方法、存储媒体、服务器及设备
EP3152706A1 (en) Image capturing parameter adjustment in preview mode
KR20140109901A (ko) 오브젝트 추적 및 프로세싱
US20200267309A1 (en) Focusing method and device, and readable storage medium
CN112017137B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN110399823B (zh) 主体跟踪方法和装置、电子设备、计算机可读存储介质
CN110650288B (zh) 对焦控制方法和装置、电子设备、计算机可读存储介质
US20230290061A1 (en) Efficient texture mapping of a 3-d mesh
US11647294B2 (en) Panoramic video data process
CN111476063B (zh) 目标跟踪方法、装置、存储介质和电子设备
KR102280169B1 (ko) 영상을 처리하는 방법 및 장치