ES2693028T3 - Sistema y método para derivar mediciones de talla de cuerpo precisas a partir de una secuencia de imágenes en 2D - Google Patents

Sistema y método para derivar mediciones de talla de cuerpo precisas a partir de una secuencia de imágenes en 2D Download PDF

Info

Publication number
ES2693028T3
ES2693028T3 ES13835345.3T ES13835345T ES2693028T3 ES 2693028 T3 ES2693028 T3 ES 2693028T3 ES 13835345 T ES13835345 T ES 13835345T ES 2693028 T3 ES2693028 T3 ES 2693028T3
Authority
ES
Spain
Prior art keywords
user
sequence
images
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13835345.3T
Other languages
English (en)
Inventor
Itzhak Wilf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sizer Tech Ltd
Sizer Technologies Ltd
Original Assignee
Sizer Tech Ltd
Sizer Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sizer Tech Ltd, Sizer Technologies Ltd filed Critical Sizer Tech Ltd
Application granted granted Critical
Publication of ES2693028T3 publication Critical patent/ES2693028T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41HAPPLIANCES OR METHODS FOR MAKING CLOTHES, e.g. FOR DRESS-MAKING OR FOR TAILORING, NOT OTHERWISE PROVIDED FOR
    • A41H1/00Measuring aids or methods
    • A41H1/02Devices for taking measurements on the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Geometry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Generation (AREA)

Abstract

Un método para derivar mediciones de talla de cuerpo precisas de un usuario a partir de una secuencia de imágenes en 2D, que comprende las etapas de: a. guiar al usuario para maniobrar en un área designada a través de todo un proceso de exploración proporcionando instrucciones para el usuario antes y durante dicho proceso de exploración usando un módulo de realimentación y guiado de usuario (UFGM); b. explorar el cuerpo de dicho usuario obteniendo una secuencia de imágenes en 2D sin procesar de dicho usuario según se capturan por una cámara durante dicho proceso de exploración; c. analizar el comportamiento de dicho usuario rastreando la posición, pose/rotación y postura de dicho usuario antes y durante el proceso de exploración que incluye la distancia del usuario desde la cámara, usando un analizador de comportamiento de usuario (UBA); d. extraer y codificar descriptores de datos de forma en 2D a partir de dicha secuencia de imágenes usando un analizador de forma en 2D (2DSA); e e. integrar dichos descriptores de forma en 2D así como los datos de posición, pose y rotación del usuario, en un modelo de forma en 3D, en el que dicha integración incluye asignar valores de rotación a dicha secuencia de imágenes, en el que dichos valores son cualquiera de valores absolutos con respecto a una posición frontal completa o relativos, con respecto a una imagen de referencia en dicha secuencia; en el que la distancia del usuario desde la cámara se determina por la etapa c., a partir de imágenes en 2D usando la altura del usuario según se proporciona manualmente al sistema mediante un dispositivo de entrada y la altura del sujeto en la imagen.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Sistema y metodo para derivar mediciones de talla de cuerpo precisas a partir de una secuencia de imagenes en 2D Campo de la invencion
La presente invencion se refiere al campo de la exploracion del cuerpo y sistemas de prendas de vestir. Mas particularmente, la invencion se refiere a un sistema y metodo para exploracion del cuerpo para mejorar la experiencia de compras de prendas de vestir, a traves de la recomendacion de talla automatizada y visualizacion de realidad aumentada.
Antecedentes de la invencion
Pueden usarse escaneres de cuerpo completo - escaneres de laser / conjuntos de camaras de profundidad (tales como el Kinect de Microsoft) para capturar puntos tridimensionales (3D) en la superficie del cuerpo, que pueden usarse para representar la forma del cuerpo como en forma de puntos (por ejemplo nube de puntos), forma superficial (malla de triangulos) u otros modelos. Tales modelos pueden analizarse para extraer las mediciones requeridas. Por ejemplo, la localizacion de la cintura puede calcularse a partir de proporciones del cuerpo y la seccion transversal en la altura de la cintura puede usarse para extraer una lista de puntos o un contorno que representa la circunferencia en ese punto. El penmetro se calcula a continuacion a partir de dicha lista de puntos/contorno en 3D.
El coste y complejidad de la creacion de un escaner de cuerpo completo son prohibitivos para el despliegue masivo en almacenes y/o su uso en el hogar del consumidor. Por lo tanto, varias tecnicas de la tecnica anterior describen como extraer mediciones del cuerpo espedficas a partir de una unica imagen bidimensional (2D) (normalmente una vista frontal) y opcionalmente unas pocas otras vistas adicionales de pose controlada (por ejemplo una vista lateral). Considerando por ejemplo la circunferencia de la cintura, es evidente que una o dos vistas no pueden proporcionar suficiente informacion para calcular la circunferencia exacta sin suposiciones adicionales o aproximacion - por ejemplo una seccion transversal elfptica del cuerpo en el area de la cintura. De manera evidente tales aproximaciones fallan al proporcionar mediciones exactas cuando estan implicados sujetos reales.
Adicionalmente, estos metodos dependen de la capacidad del usuario para suponer las poses exactas y fallan adicionalmente al generar un modelo en 3D completo. Controlar/medir la pose exacta del usuario por medio de una mesa giratoria controlada o marcadores sobre el cuerpo de este tipo anade nivel de complejidad que evita que tales metodos se usen en el hogar o en multiples localizaciones de la tienda.
La patente GB 2 351 426 desvela obtenciones de imagenes en 2D del cuerpo en varias posiciones, la verificacion de la posicion del cuerpo correcta para cada obtencion y el calculo de un modelo de forma en 3D basandose en las imagenes en 2D.
Es un objeto de la presente invencion proporcionar un sistema que pueda capturar una secuencia de imagenes en 2D de un sujeto humano en movimiento con una unica camara en 2D estatica, extraer descriptores relacionados con la forma o talla en 2D a partir de multiples imagenes en 2D de este tipo e integrar dichos descriptores en medidas y/o elementos de talla en 3D de forma en 3D.
Otros objetos y ventajas de la invencion se haran evidentes a medida que continue la descripcion.
Sumario de la invencion
La presente invencion se refiere a un metodo para derivar unas medidas de talla de cuerpo precisas de un usuario a partir de una secuencia de imagenes en 2D como se define en la reivindicacion 1.
De definen diversas realizaciones de la invencion mediante las reivindicaciones dependientes 2-4.
En otro aspecto, la presente invencion se refiere a un sistema para derivar mediciones de talla de cuerpo precisas de un usuario a partir de una secuencia de imagenes en 2D como se define en la reivindicacion 5.
Breve descripcion de los dibujos
En los dibujos:
- la Figura 1 ilustra esquematicamente un sistema para exploracion del cuerpo y seleccion de prendas de vestir por una aplicacion de probador virtual, de acuerdo con una realizacion de la invencion;
- la Figura 2 es un diagrama de flujo que ilustra de manera general un metodo para deteccion de primer plano como se conoce en la tecnica anterior;
- la Figura 3 describe un metodo para analizar comportamiento de usuario segun se requiere para el proceso de
5
10
15
20
25
30
35
40
45
50
55
60
65
exploracion;
- la Figura 4 ilustra la extraccion de distancia de usuario de la deteccion de posicion de imagen de los pies;
- las Figuras 5A y 5B representan deteccion y rastreo de manos como un indicio de deteccion de rotacion del
cuerpo de acuerdo con una realizacion de la presente invencion;
- las Figuras 6A y 6B ilustran esquematicamente la evolucion de la anchura de la silueta del cuerpo como clave para rotacion del cuerpo;
- la Figura 7 describe el analizador de forma en 2D, de acuerdo con una realizacion de la presente invencion;
- las Figuras 8A-8C ilustran esquematicamente varios indicios para localizacion vertical de la cintura que pueden ejecutarse por metodos de analisis de imagen;
- las Figuras 9A-9D ilustran el principio de convertir puntos terminales de silueta a puntos terminales a un sector angular delimitador;
- las Figuras 10A y 10B muestran como obtener una forma de seccion transversal precisa a partir de una secuencia de imagenes, de acuerdo con una realizacion de la invencion;
- la Figura 11 describe la construccion de datos de metricas y forma de talla en 3D a partir de datos de forma en 2D;
- la Figura 12 representa medidas de talla del torso del cuerpo como se requieren habitualmente por la industria de las prendas de vestir;
- las Figuras 13A-13C ilustran esquematicamente la construccion de representaciones de modelo en 3D a partir de datos en 3D generados;
- la Figura 14 ilustra esquematicamente un Motor de Recomendacion de Prenda de Vestir (GRE) de acuerdo con una realizacion de la presente invencion;
- la Figura 15 ilustra esquematicamente un flujo de calculo de talla ejemplar de acuerdo con una realizacion de la presente invencion;
- la Figura 16 ilustra esquematicamente un proceso de emision de una recomendacion de talla, de acuerdo con una realizacion de la invencion; y
- la Figura 17 ilustra esquematicamente un ejemplo para un mapa de calor esquematico que representa la manera en la que una prenda de vestir se ajusta al cuerpo de un usuario.
Descripcion detallada de la invencion
La presente invencion se refiere a un metodo que emplea una secuencia de imagenes en 2D capturada a traves de movimientos del cuerpo naturales para calcular multiples medidas de talla de cuerpo lineales y de circunferencia (es decir, un escaner del cuerpo) que puede servir como una base para recomendacion de talla automatizada para experiencia de compras mas eficiente en la tienda o en el hogar. Estas medidas de talla pueden usarse adicionalmente para seleccionar y/o modificar un avatar que describe mejor la forma del cuerpo del usuario para visualizacion de realidad aumentada de como se ajustana o parecena la prenda de vestir seleccionada en el cuerpo del usuario. Adicionalmente, el metodo de exploracion puede usarse para obtener una nube de puntos u otra representacion en 3D densa que sirve como un modelo de forma del cuerpo detallada. Las mediciones requeridas se derivan a partir de ese modelo. La representacion en 3D puede convertirse a un modelo superficial (como triangulos) que se usa por el motor de representacion de la aplicacion de realidad aumentada anteriormente descrito.
En concepto, el escaner del cuerpo puede usarse en cualquier lugar, por ejemplo, en una tienda minorista o centro comercial o dentro del hogar del usuario. El usuario permanece de pie en el suelo en un estado desvestido, normalmente en un traje de cuerpo ajustado, en el que el objetivo es obtener mediciones del cuerpo precisas y completas, incluyendo angulos de postura y hombro. Tfpicamente, no se usa ninguna prenda de vestir de prueba como una base para hallar incongruencias de ajuste o para obtener una realimentacion del individuo. Las mediciones de exploracion del cuerpo del usuario se pasan a un programa informatico para analisis. El programa compara las mediciones del usuario a las propiedades de la prenda de vestir seleccionada tales como las dimensiones de la prenda de vestir en medidas en ciertas localizaciones clave, elasticidad de tejido, ajuste y tolerancia de prenda de vestir. El analisis del sistema dana como resultado una prenda de vestir que se ajustana al usuario perfectamente.
En la siguiente descripcion detallada, se hacen referencia a los dibujos adjuntos que forman una parte de la misma, y en los que se muestran por medio de ilustracion realizaciones o ejemplos espedficos. Estas realizaciones pueden combinarse, pueden utilizarse otras realizaciones, y pueden realizarse cambios estructurales sin alejarse del espmtu o alcance de la presente invencion. La siguiente descripcion detallada, por lo tanto, no se ha de tomar en un sentido limitante y el alcance de la presente invencion se define por las reivindicaciones adjuntas y sus equivalentes. Un experto en la materia reconocera facilmente a partir de la siguiente descripcion que pueden emplearse realizaciones alternativas de las estructuras y metodos ilustrados en el presente documento sin alejarse de los principios de la invencion descritos en el presente documento.
Haciendo referencia ahora a los dibujos, en los que se describiran aspectos de la presente invencion y un entorno de operacion informatico ejemplar. La Figura 1 y los siguientes analisis se pretende que proporcionen una breve descripcion general de un entorno informatico adecuado en el que puede implementarse la invencion. Aunque la invencion se describira en el contexto general de modulos de programa que se ejecutan en conjunto con un programa de aplicacion de probador virtual que se ejecuta en un sistema operativo en un ordenador personal, los
5
10
15
20
25
30
35
40
45
50
55
60
65
expertos en la materia reconoceran que la invencion puede implementarse tambien en combinacion con otros modulos de programa.
En general, los modulos de programa incluyen rutinas, programas, componentes, estructuras de datos, y otros tipos de estructuras que realizan tareas de procesamiento de imagenes particulares. Ademas, los expertos en la materia apreciaran que la invencion puede ponerse en practica con otras configuraciones de sistema informatico, incluyendo dispositivos portatiles, sistemas multiprocesador, electronica de consumo basada en microprocesadores o programable, miniordenadores, ordenadores centrales y similares. La invencion tambien puede ponerse en practica en entornos informaticos distribuidos donde las tareas se realizan por dispositivos de procesamiento remotos que estan enlazados a traves de una red de comunicaciones (por ejemplo, un lado del usuario y un lado del servidor). En un entorno informatico distribuido, los modulos de programa pueden localizarse tanto en dispositivos de almacenamiento de memoria locales como remotos.
La Figura 1 describe un sistema 100 para derivar mediciones de talla de cuerpo precisas desde una secuencia de imagenes en 2D, de acuerdo con una realizacion de la presente invencion. En general, el sistema 100 se usa para exploracion del cuerpo y seleccion de prendas de vestir por una aplicacion de probador virtual. El sistema 100 comprende un modulo de realimentacion y guiado de usuario (UFGM) 120, la camara 121, un analizador de comportamiento de usuario (UBA) 130, un analizador de forma en 2D (2DSA) 140, un analizador de apariencia de usuario (UAA) 150, un analizador de forma en 3D (3DSA) 160, una aplicacion de probador virtual 190 y una base de datos de prendas de vestir 180.
Un usuario 110 se situa delante de la camara 121, con una pantalla 122 y un altavoz 123 controlado por el UFGM 120 para proporcionar guiado/asistencia de usuario inicial y adicional durante el proceso de exploracion del cuerpo del usuario. Un dispositivo de entrada, tal como un teclado 124, una pantalla tactil o modulo de comando de voz, puede servir para iniciar el proceso de exploracion, introducir el ID de usuario, consentimiento explfcito de usuario para medicion, etc.
La camara 121 esta conectada al UBA 130, que toma la posicion, pose/rotacion y postura del usuario 110 antes y durante el proceso de exploracion, verificando que la imagen del usuario no supera el campo de vision de la camara y que el usuario sea el siguiente las instrucciones sencillas proporcionadas por el UFGM 120. Tales instrucciones sencillas pueden incluir: “Entrar en el area de exploracion”, “Alza tus manos”, “Gira dando vueltas”, etc.
La camara 121 esta conectada adicionalmente al 2DSA 140, que extrae y codifica datos de forma en 2D desde cada una de una secuencia de imagenes capturada por la camara 121.
La camara 121 esta conectada adicionalmente al UAA 150, que extrae y codifica descriptores distintos de forma visual espedficos para el usuario. Tales descriptores pueden incluir tono de piel, color y estilo de pelo y opcionalmente descriptores de apariencia de la cara. Estos descriptores pueden usarse por la aplicacion de probador virtual 190 para mejorar la apariencia visual del avatar para que se asemeje al usuario - por ejemplo teniendo un tono de piel similar al usuario, teniendo una cara similar al usuario, etc.
Los descriptores distintos de forma visual pueden usarse adicionalmente para generar recomendaciones de ropa basandose en uno o mas de estos descriptores. Por ejemplo un color y/o textura/patron de prenda de vestir recomendado puede potenciar el tono de piel, el color de pelo y los ojos.
Cada elemento del sistema 100 puede implementarse por un modulo separado tal como una camara web de USB, pantalla LCD, altavoces conectados, un teclado, un ordenador personal, etc. Sin embargo, con la introduccion de dispositivos electronicos de consumidor altamente aptos, ciertas realizaciones de la presente invencion pueden basarse en tales dispositivos. En un ejemplo espedfico, todos los elementos del sistema 100 pueden implementarse por un dispositivo informatico del usuario tal como un ordenador portatil, un ordenador de tableta tal como el iPad de Apple Inc., o incluso un telefono inteligente tal como el Galaxy de Samsung.
De acuerdo con una realizacion de la presente invencion, algunos modulos del sistema 100 pueden implementarse en un servidor remoto, tal como el 3DSA 160, y la base de datos de prendas de vestir 180. El 3DSA 160 recibe los descriptores de forma en 2D asf como los datos de posicion, pose y rotacion del usuario, integrandolos en un modelo de forma en 3D y/o extrayendo mediciones de talla en 3D para que se almacenen junto con los datos de apariencia del usuario en una base de datos de forma y apariencia del usuario 170. Cuando un usuario previamente explorado inicia sesion en el sistema 100 (por ejemplo, mediante una interfaz de la aplicacion de probador virtual 190), se usan sus caractensticas de talla de cuerpo almacenadas para filtrar/buscar en la base de datos de prendas de vestir 180 y recomienda prendas de vestir y sus tallas espedficas que seran un buen ajuste para el usuario. En otro caso de uso que esta mejor relacionado con la experiencia de compras actual, el usuario seleccionara una prenda de vestir en una tienda web y recibira una recomendacion de talla asf como un mapa de calor esquematico que representa la manera en la que la prenda de vestir se ajustara al cuerpo (un ejemplo para un mapa de calor esquematico de este tipo se presenta en la Figura 17).
La base de datos de prendas de vestir 180 incluye datos que representan digitalmente prendas de vestir tales como
5
10
15
20
25
30
35
40
45
50
55
60
65
camisetas, pantalones, vestidos, etc., y sus atributos, tales como talla, longitud, anchura, color, etc., como se definen comunmente por la industria de la ropa.
Por ejemplo, para anadir prendas de vestir a la base de datos 180, el sistema 100 puede comprender adicionalmente un modulo de deteccion de prendas de vestir (no mostrado). Para proporcionar la escala y perspectiva correctas para la prenda de vestir detectada y opcionalmente para eliminar o reducir distorsiones que puedan tener lugar debido al angulo de vision de la camara y al plano en el que esta localizada la prenda de vestir, debenan usarse tecnicas de correccion de distorsion conocidas en la tecnica, tales como usar un objeto con dimensiones conocidas como un objeto de referencia (por ejemplo, un disco compacto) o un patron de calibracion tal como un patron de tipo tablero de ajedrez.
De acuerdo con una realizacion de la invencion, la informacion de forma en 3D se usa adicionalmente para crear un avatar que describe mejor la forma del cuerpo del usuario para visualizacion de realidad aumentada de como la prenda de vestir seleccionada se ajustana o parecena en el cuerpo del usuario. Para una presentacion mas potente, la informacion de apariencia del usuario segun se obtiene desde el UAA 150 esta embebida en el avatar en forma de color de piel/pelo y tambien una cara similar, con la condicion de que el usuario optara que se capturara su cara durante el proceso de exploracion. Con la creciente potencia informatica de tales dispositivos informaticos del usuario, el 3DSA 160 puede incluirse en un dispositivo de este tipo, reduciendo adicionalmente recursos computacionales y requisitos de ancho de banda en el lado del servidor.
La Figura 2 describe un metodo para deteccion de primer plano que se usa comunmente para detectar cambios en secuencias de imagenes, como se conoce en la tecnica anterior. Como el proceso de exploracion se realizara en interiores y la camara 121 (Figura 1) estara estatica durante el proceso, es apropiada una tecnica de resta de fondo. Una modelacion de fondo (etapa 220) construye un modelo de fondo como una media movil de imagenes de video que no contienen objetos de primer plano - antes de que el usuario entre en la escena o inhibiendo el promedio en aquellas areas donde la diferencia de fotograma a fotograma es alta, senalizando por lo tanto la presencia o movimiento del usuario. Una imagen ejemplar de un modelo de fondo se indica por el numero 211.
Una vez que el modelo de fondo es estable (como se indica por el numero 211), para cada fotograma de video nuevamente capturado, una resta de fondo (etapa 230) calcula la diferencia absoluta pixel a pixel entre el fotograma de video (como se indica por el numero 210) y la imagen de modelo de fondo 211. La imagen de diferencia (como se indica por el numero 212) se procesa a continuacion por un umbral adaptativo (etapa 240) que establece su umbral de manera global o local (por localizacion de imagen) justo por encima del nivel de cambios de ruido e iluminacion para obtener una imagen binaria (una imagen binaria ejemplar se indica por el numero 213). Una etapa de filtracion binaria 250 puede usar tecnicas conocidas tales como filtracion de componente conectado o filtracion morfologica para eliminar pequenas regiones de ruido y pequenos agujeros dentro del objeto.
La Figura 3 ilustra esquematicamente, en forma de un diagrama de flujo, el proceso de analisis de comportamiento de usuario por el UBA 130 como parte del proceso de exploracion, de acuerdo con una realizacion de la presente invencion. Para el fin de obtener unos datos de forma en 3D del usuario, la informacion de comportamiento de usuario puede incluir:
- posicion de usuario en un plano del suelo;
- pose o rotacion del usuario con respecto al plano del suelo; y
- verificacion de la postura requerida como se ordena por el UFGM 120.
Durante la siguiente descripcion, se supone que el proceso de exploracion se dirige al torso del usuario para el fin de medir tales circunferencias en cintura, caderas y pecho y/o para obtener una nube de puntos en 3D que describe el area del torso. En una realizacion espedfica, se realiza exploracion de torso asumiendo el usuario una posicion de “cactus" de modo que el area del torso no esta ocultada a traves de todo el proceso de exploracion - como se senala por la imagen 210 en las Figuras 2 y 3.
Se analiza el comportamiento de usuario basandose en la silueta del cuerpo binaria segun se obtiene a partir del proceso de deteccion de primer plano (como se indica por la imagen 213 en la Figura 2) y las imagenes de video sin procesar de la camara 121 (Figura 1).
De acuerdo con una realizacion de la presente invencion, un atributo clave del analisis de comportamiento de usuario es la localizacion en el suelo de referencia del sujeto humano. En una realizacion, se solicita que el sujeto humano maniobre en un area designada a traves de todo el proceso de exploracion, usando opcionalmente marcas en el suelo que pueden usarse para guiar al usuario a traves del proceso de exploracion. Como alternativa, el sistema puede estimar la distancia de la altura de la imagen del sujeto y la altura ffsica del sujeto, como un unico valor de talla que puede introducirse manualmente al sistema (por ejemplo, mediante el teclado 124 mostrado en la Figura 1). Sin embargo, para operacion completamente automatica, de mejor precision y un sujeto menos cooperativo, el sistema extrae la distancia/localizacion desde la secuencia de imagenes en 2D.
Analizar el comportamiento de usuario por el UBA 130 puede implicar las siguientes etapas:
5
10
15
20
25
30
35
40
45
50
55
60
65
Deteccion de pies (etapa 310), busca la fila inferior de la silueta binaria. Basandose en la calibracion de la camara que tiene lugar al comienzo de los procesos de exploracion, cada coordenada de fila de imagen (y) que representa la superficie del suelo puede convertirse a una distancia desde la camara. Por ejemplo, la Figura 4 ilustra la extraccion de distancia de usuario desde la deteccion de posicion de imagen de los pies en mayor detalle. Se muestran lmeas de distancia calibrada 280, 290, 300 y 310 como lmeas horizontales con valores de distancia. Puede interpolarse la posicion de los pies vertical entre lmeas. Para asignar el valor de distancia exacto al centro de rotacion, el sistema convierte la parte inferior de la distancia de los pies a la distancia central del cuerpo usando un valor medio para talla de pies y (opcionalmente) el angulo de rotacion del cuerpo.
Una vez que se detecta la fila de la parte inferior, se construye una ventana de calculo (como se indica por la lmea discontinua 400) alrededor de los pies y el centro de gravedad x convertido a posicion horizontal en el suelo (a partir de calibracion de camara). Esto completa la deteccion de posicion del usuario (etapa 320).
Para evitar que la inestabilidad de segmentacion de objeto en el area de los pies afecte a la precision de posicion, tanto la coordenada inferior, y, como el centro de gravedad, x, se filtran temporalmente, por ejemplo, usando un filtro de promedio de 5 fotogramas u otro filtro de promedio adecuado.
La distancia del usuario puede estimarse de una manera similar a partir de la parte superior de la localizacion de la cabeza detectando y rastreando la cabeza como se describe en la presente invencion. Ambos de estos metodos para rastreo de distancia - a partir de deteccion de los pies unicamente o a partir de deteccion de la cabeza unicamente, requieren conocer la altura de la camara del suelo y su inclinacion. Aunque esto esta facilmente disponible en una instalacion de camara fija tal como en un probador, podemos desear soportar la aplicacion en el hogar cuando se mide la altura de camara y controlar/medir su inclinacion puede ser molesto para un usuario unico. En un caso de este tipo, pueden combinarse las realizaciones de acuerdo con la presente invencion para rastrear tanto la localizacion de la cabeza como la de los pies, derivando por lo tanto la distancia del usuario en cada fotograma de medicion sin los valores de altura/inclinacion de la camara.
Si el usuario esta demasiado cerca de la camara, que puede dar como resultado el recorte de la silueta del usuario y/o distorsion de perspectiva aumentada, el UFGM de realimentacion de usuario 120 proporcionara una advertencia al usuario. De manera similar, si el usuario esta demasiado cerca detras de una pared, que puede dar como resultado dificultad al girarse, se suministrara otra advertencia. El UFGM 120 (Figura 1) incluye multiples algoritmos de analisis de contenido de escena y comportamiento de usuario como se conoce en la tecnica anterior, para detectar problemas comunes en configuracion de escena y camara y comportamiento de usuario tal como: la iluminacion es demasiado baja o demasiado brillante, el fondo tiene demasiado ruido, fondo dinamico tal como pantalla de monitor de TV u ordenador en el campo de vision de la camara, sombras en movimiento, luces de fundido en movimiento, la camara esta inclinada, etc.
Basandose en la silueta binaria, el modulo de deteccion de la cabeza (etapa 330) puede hallar la cabeza del usuario como la parte superior de la forma binaria, cerca del centro de gravedad horizontal (x). La verificacion adicional/localizacion precisa de la cabeza del usuario puede estar basada en un detector con forma de omega u otras tecnicas de deteccion y rastreo humano conocidas basadas en las caractenstica de la forma omega de las partes de la cabeza-hombro de las personas.
Una vez que se detectan la cabeza y los pies, esta disponible una escala general para toda la forma y puede servir como una estimacion inicial para la localizacion de ciertas partes del cuerpo. El modulo de deteccion de las manos (etapa 340) empieza a buscar los brazos a partir de las posiciones de hombro estimadas, a continuacion se mueve hacia arriba para detectar las manos como los puntos finales de la forma de los brazos. Como alternativa, la forma binaria (por ejemplo, vease la imagen ejemplar 213) puede estrecharse a una imagen de esqueleto de 1 pixel de ancho donde las puntas de las manos pueden detectarse como pfxeles de 1 conectados en el extremo del esqueleto del brazo rastreado a partir de la localizacion del cuerpo central.
Habiendo verificado la posicion del usuario a partir de la silueta de los pies, el sistema continua (etapa 370) para verificar la postura del cuerpo a partir de la posicion de las manos y a continuacion para guiar al usuario a que haga giros de un cfrculo completo (el guiado puede hacerse por el UFGM 120). La continuidad de secuencia de imagen puede aprovecharse en el rastreo de manos. Una vez que se han detectado ambas manos en una posicion frontal, pueden rastrearse de fotograma a fotograma (por ejemplo usando busqueda de correlacion u otros metodos de Correlacion y Rastreo de Imagen Digital (DIC/DDlT) comunes que emplean tecnicas de rastreo y registro de imagen para mediciones en 2D y 3D precisas de cambios en imagenes) y por prediccion cuando las manos se fusionan con la silueta de la cabeza.
Para integrar los datos de forma de imagen en 2D en talla/forma en 3D, se requiere asignar valores de rotacion (ya sean absolutos - con respecto a una posicion frontal completa o relativos, con respecto a una imagen de referencia en la secuencia) a las imagenes de secuencia.
Las Figuras 5A y 5B representan deteccion y rastreo de las manos como indicio de deteccion de rotacion del cuerpo, en las que la Figura 5A representa el cuerpo del usuario 110 en una primera posicion, mientras que la Figura 5B
5
10
15
20
25
30
35
40
45
50
55
60
65
representa el cuerpo del usuario 110 en otra posicion que se gira con respecto a la primera posicion de la Figura 5A. El numero 510 indica la cabeza del usuario mientras que los numeros 511 y 512 indican las manos del usuario. Suponiendo que la distancia en 3D entre las manos 511 y 512 permanece fijada durante la breve rotacion, el modulo de deteccion de rotacion del cuerpo (etapa 380) rastrea la evolucion de la distancia de la imagen para proporcionar estimaciones de angulo de rotacion. Pueden usarse otros indicios de rotacion del cuerpo, de manera independiente o combinados para aumentar la precision.
Por ejemplo, puede rastrearse el contenido visual dentro de la silueta del cuerpo - tal como patrones de prendas de vestir y textura de piel. Las tecnicas aplicables incluyen deteccion y rastreo de punto caractenstico [Carlo Tomasi y Takeo Kanade, “Detection and Tracking of Point Features”, Carnegie Mellon University Technical Report CMU-CS- 91-132, abril de 1991]. La rotacion del cuerpo puede estimarse a partir del calculo de un campo de “flujo optico” de movimiento visual y ajustando un modelo de movimiento al campo vectorial [John L. Barron, David J. Fleet y Steven Beauchemin (1994), “Performance of optical flow techniques”, International Journal of Computer Vision (Springer)]. Tales tecnicas pueden ampliarse por rastreo de rotacion de la cara como se describe a continuacion.
El modulo de deteccion de la cara (etapa 350) se centra en la busqueda de la cara en la cabeza detectada por el modulo de deteccion de la cabeza (etapa 330). Un detector de cara tal como el detector de cara de Viola-Jones puede aplicarse a las imagenes para detectar caras en una diversidad de poses frontales, y se ha ampliado tambien para detectar caras de perfil. El clasificador espedfico que proporciona la mejor puntuacion proporciona una sensacion de pose de cara. Se aumenta adicionalmente la precision detectando multiples puntos de referencia de la cara y estimando la pose a partir de las posiciones relativas y proporciones de distancia.
Las Figuras 6A y 6B ilustran esquematicamente una evolucion de anchura de la silueta del cuerpo como clave para rotacion del cuerpo, en las que la Figura 6A muestra la silueta del cuerpo en una primera posicion, mientras que la Figura 6B muestra la silueta del cuerpo en otra posicion que se gira con respecto a la primera posicion de la Figura 6A. Por ejemplo, pueden asignarse 90° a la imagen con la dimension de cintura mas estrecha (minima de minima) y pueden asignarse 0° a la de las dimensiones de cadera mas anchas (maxima de maxima). El sistema a continuacion rastrea la evolucion de la secuencia de anchura y estima los angulos de rotacion intermedios usando interpolacion, tal como:
- interpolacion lineal - suponiendo velocidad angular constante;
- interpolacion basada en anchura - suponiendo una seccion transversal elfptica de la cintura/cadera;
- rastrear el movimiento de detalles visuales dentro de la silueta del cuerpo, usando tecnicas de flujo optico conocidas o deteccion de punto caractenstico y rastreando como se ha descrito en el presente documento anteriormente, y resolviendo la rotacion usando un modelo de seccion transversal elfptica.
El proceso anteriormente mencionado de analisis de comportamiento de usuario por el UBA 130 describe el analisis del comportamiento de usuario en una base fotograma a fotograma. Los errores de segmentacion y analisis pueden dar como resultado mediciones con ruido y/o valores falsos en fotogramas aislados. Todos los parametros de comportamiento de usuario pueden suavizarse en el dominio temporal (durante el tiempo) para proporcionar estimaciones robustas de dichos parametros. Como un ejemplo espedfico, puede aplicarse un filtro de mediana u otro estimador robusto como es conocido en estadfstica a la secuencia de angulos de rotacion del cuerpo para reducir errores angulares aleatorios y filtrar valores atfpicos.
La Figura 7 describe, en una forma de diagrama de flujo, el proceso de analisis de la forma en 2D por 2DSA 140, de acuerdo con una realizacion de la presente invencion. Para mejor claridad, describimos el analisis de forma en 2D en el contexto de una medicion de talla espedfica - la circunferencia de la cintura.
De acuerdo con una realizacion de la presente invencion, el analisis de forma en 2D requiere detectar la localizacion de imagen de la cintura en multiples imagenes de la secuencia de rotacion y a continuacion medir los puntos de borde o contorno de la cintura en cada imagen de este tipo.
De acuerdo con la Figura 7, un modulo de seleccion de subsecuencia (etapa 710) emplea datos de comportamiento de usuario (etapa 702) a partir del UBA 130 (como se ha descrito en el presente documento anteriormente con respecto a la Figura 3) para seleccionar una subsecuencia de imagenes desde la secuencia de imagenes de video (etapa 700) y su parte opuesta de la imagen de primer plano (etapa 701) segun se obtiene a partir del modulo de deteccion de primer plano (como se ha descrito en el presente documento anteriormente con respecto a la Figura 2). Esto permite omitir imagenes irrelevantes (por ejemplo cuando no estan disponibles datos de localizacion de usuario o cuando el usuario no esta en la postura correcta), asf como para omitir imagenes redundantes (cuando el usuario no se mueve o gira muy despacio).
El modulo de localizacion vertical de la cintura (etapa 720) a continuacion detecta la localizacion de imagen vertical de la cintura para imagenes seleccionadas de la subsecuencia, como se describe en el presente documento posteriormente con respecto a las imagenes mostradas en las Figuras 8A-8C.
El modulo de deteccion de punto terminal de silueta (etapa 740) a continuacion busca a la izquierda y a la derecha
5
10
15
20
25
30
35
40
45
50
55
60
65
en la fila de la imagen asociada con dicha localizacion de imagen vertical de la cintura y detecta los puntos terminales de la silueta izquierda y derecha como cruces de blanco-negro de las imagenes binarias. La precision de subpfxel de puntos terminales se obtiene a partir de la imagen de nivel de gris usando deteccion de borde de subpfxel/de cruce en cero como es conocido en la tecnica.
En una realizacion preferida, se aplica el filtro de localizacion vertical temporal (etapa 730) y el filtro de localizacion de puntos terminales temporales (etapa 750) a la secuencia de valores a partir de etapas anteriores, para reducir ruido e ignoran valores atfpicos.
El filtro de localizacion vertical temporal (etapa 730) se aplica a la secuencia temporal de localizacion vertical de la cintura, por ejemplo, como se indica por {yWaist_0, yWaist_1, ...} donde _0, _1, etc., son indices de imagen.
El filtro de localizacion de puntos terminales temporales (etapa 750) se aplica a la secuencia temporal de localizacion de la cintura izquierda, por ejemplo, {xLft_0, xLft_1, ...} donde _0, _1, etc., son indices de imagen y de manera similar para la secuencia temporal de localizacion de la cintura derecha.
El proceso se repite para cada valor de circunferencia deseado tal como caderas, pecho, etc. Para aumentar la eficacia, ya que estas localizaciones del cuerpo son conocidas con antelacion, el proceso en la Figura 7 puede modificarse facilmente para obtener multiples secuencias temporales durante un unico paso de procesamiento de la secuencia de imagenes.
En el caso de que se requiera un modelo en 3D completo en forma de una nube de puntos, se atraviesa el contorno entero de la silueta y se convierte en una lista de puntos de borde cuya localizacion se calcula a precision de subpfxel como se ha descrito anteriormente en el presente documento.
Las Figuras 8A-8C ilustran esquematicamente varios indicios para localizacion vertical de la cintura que pueden ejecutarse por metodos de analisis de imagen. Para varias formas del cuerpo (por ejemplo, vease la Figura 8A), la cintura se define en el punto mas estrecho del torso. Se define un rango de [ymin, ymax] coordenadas de fila de imagen basandose en el tamano de la silueta del cuerpo y se lleva a cabo una busqueda para el rango [x_left, x_right] mas pequeno. Para mejores resultados, la mano del sujeto debena estar alejada del cuerpo, ya sea alzada (por ejemplo, como la posicion del usuario mostrada en la Figura 8C) o a 45 grados, para evitar interferencia en la medicion. Para personas mas obesas, la localizacion de la cintura puede no ser evidente a partir de la funcion de anchura del cuerpo. Por lo tanto, puede usarse otro metodo para deteccion de la cintura vertical para detectar los puntos caractensticos visuales dentro de la silueta del usuario tal como el ombligo del usuario (como se ilustra esquematicamente en la Figura 8B). Cuando ninguno de los indicios visuales para localizacion de la cintura es lo suficiente estable, el sistema calcula la localizacion de la cintura a partir de datos antropometricos que proporcionan, por ejemplo, la altura de la cintura promedio como una fraccion de la altura del usuario.
Ademas de detectar localizaciones anatomicas 'naturales' (por ejemplo cintura, pecho, etc.) las dimensiones del usuario se extraen en localizaciones del cuerpo nominales, segun se solicita para hacer coincidir las dimensiones del usuario a dimensiones de prendas de vestir espedficas. Por ejemplo: para una cierta prenda de vestir se define la lmea de la cintura para que este a 45 cm del hombro - localizaremos el mismo punto a lo largo del cuerpo y mediremos la circunferencia en ese mismo punto.
Debido a la amplia variacion en la apariencia de las partes del cuerpo humano, de acuerdo con una realizacion se recopila una coleccion de imagenes de esas partes del cuerpo, se seleccionan caractensticas de imagen apropiadas (tales como las caractensticas similares a Haar o similares caractensticas de imagen digitales usadas en reconocimiento de objetos), y se entrena una cascada de clasificadores sencillos usando el algoritmo AdaBoost conocido o la implementacion de algoritmos de aprendizaje de maquina similares. Estas etapas pueden realizarse fuera de lmea. Durante la operacion de sistema, se estima la region del ombligo a partir del tamano de imagen global y se aplica la cascada de clasificadores, explorando la region a diferentes escalas para la deteccion de caractenstica.
La Figura 8C demuestra otra realizacion para localizacion vertical de la cintura, de acuerdo con la que se detectan la altura del hombro y la altura de la entrepierna, basandose en analisis de silueta y la localizacion vertical de la cintura se define proporcionalmente entre estos dos valores. La altura del hombro y la altura de la entrepierna se indican por lmeas discontinuas 801 y 802 respectivamente y la localizacion de la cintura definida se indica por la lmea 803.
La busqueda de imagen para lmeas de altura de torso espedficas como la lmea de la cintura, la lmea de las caderas y la lmea del pecho se restringe adicionalmente usando informacion antropometrica. Por ejemplo, el punto de la cintura femenina para el 99 % de todas las mujeres radica entre 0,578 y 0,652 de la altura de las mujeres. Por lo tanto, conociendo el genero y altura del sujeto como se ha introducido (por ejemplo, durante un proceso de registro de un usuario para el sistema), junto con los parametros de la camara nos permite calcular la imagen vertical que abarca el area de la cintura y llevar a cabo uno o mas de los procesos de deteccion de la cintura anteriormente descritos, unicamente en ese espacio de imagen vertical. Similares datos antropometricos facilitan la busqueda de otras claves-puntos del cuerpo tales como los hombros, cuello, muneca de la mano, etc.
5
10
15
20
25
30
35
40
45
50
55
60
65
Las Figuras 9A-9D ilustran esquematicamente el principio de convertir puntos terminales de una silueta del cuerpo 900 a un sector angular delimitador. Supondremos un modelo de proyeccion ortografico (o paralelo) para la camara que puede justificarse para partes del cuerpo a aproximadamente la altura de la camara o una camara distante (con respecto a dimensiones de cuerpo). Para otros casos, pueden obtenerse experimentalmente factores de correccion por angulo de elevacion de la parte del cuerpo espedfica, con respecto al eje optico de la camara y usarse para corregir las medidas de talla derivadas/puntos de contorno en 3D derivados.
Otros factores de correccion se refieren a definicion de ciertas medidas de la talla del cuerpo. Por ejemplo, la circunferencia del cuello se define a lo largo de un corte diagonal de la forma en 3D del cuerpo y se aplica un factor de correccion espedfico para esa medida.
Suponiendo una camara calibrada, cada punto de imagen puede retro-proyectarse desde el punto focal de la camara (como se indica por el numero 906 en la Figura 9B), para describir un rayo en el espacio. Los puntos terminales izquierdo y derecho (como se indica por los numeros 901 y 902, respectivamente, en las Figuras 9B-9D) definen un sector angular, bajo el que radica la suposicion/aproximacion ortografica en un plano paralelo al suelo. La seccion transversal del cuerpo de la silueta 900 en una altura espedfica (tal como la cintura, caderas, etc.) esta delimitada por dicho sector angular, como se indica por los numeros 903. Ejemplos para otras alturas espedficas se indican por los numeros 904 y 905.
La calibracion de la camara es conocida en la tecnica anterior. Los datos de campo de vision de camara y distorsion de lente pueden estar disponibles a partir del fabricante. Por ejemplo, cuando se usa un telefono inteligente tal como un iPhone 4S de Apple Inc., la aplicacion de medicion del cuerpo instalada de acuerdo con la presente invencion puede consultar al dispositivo, con una Interfaz de Programacion de Aplicacion (API) conocida, los parametros de la camara.
Como alternativa, pueden obtenerse parametros de camara intrmsecos (campo de vision, distorsion, centro optico) y extrmsecos (localizacion y orientacion) con un patron/objeto de calibracion. Tambien estan disponibles paquetes de software de calibracion como codigo abierto.
De manera ideal, el eje optico de la camara debena ser paralelo a la superficie del suelo. Cuando este no es el caso, puede detectarse y estimare la inclinacion a partir de informacion visual tal como la localizacion de la interseccion suelo-pared, o medirse a partir de dispositivos en el dispositivo. Una vez que la informacion de inclinacion esta disponible se incorpora en las ecuaciones de medicion para compensar tal inclinacion.
Por supuesto, una restriccion unica (segun se obtiene a partir de una unica imagen en 2D del cuerpo) nos cuenta muy poco acerca de la talla del cuerpo real, puesto que la seccion transversal del cuerpo real en dicho nivel de cintura podna ser una de las formas mostradas en la Figura 9B tales como la forma 902, 903, 904 u otra forma. Observese que otra vista (como una vista lateral) reduce incertidumbre y permite resolver la circunferencia del cuerpo suponiendo una seccion transversal elfptica. Sin embargo, con cuerpos humanos reales una aproximacion de este tipo no es suficiente precisa para proporcionar la recomendacion o visualizacion de talla apropiadas.
Las Figuras 10A y 10B muestran como obtener una forma de seccion transversal precisa (y circunferencia) a partir de una secuencia de imagenes de un usuario que gira libremente. La figura representa 3 poses como se designa por contornos elfpticos que se indican por los numeros 911, 912 y 913. El contorno elfptico 911 representa un area delimitante derivada a partir de la primera pose de referencia. A medida que el usuario gira (en el sentido contrario al de las agujas del reloj), su punto terminal de la silueta cambia y se generan sectores angulares adicionales, tales como los contornos elfpticos 912 y 913 (lmea discontinua), para la seccion transversal girada.
De manera evidente para generar la forma de seccion transversal, el sistema debe transformar todos los sectores angulares al mismo fotograma de referencia, elegido de manera arbitraria como la primera posicion u otra. La transformacion euclfdea se define por la traslacion y rotacion del cuerpo humano, con respecto a la posicion de referencia. Estos parametros de movimiento se obtienen para el modulo de analisis de comportamiento de usuario descrito en el presente documento anteriormente con respecto a la Figura 3.
De vuelta a la Figura 10A, despues de la transformacion euclfdea, las 3 restricciones en la forma de seccion transversal del cuerpo se designan por los sectores angulares 921, 922 y 923 (como se indica por las lmeas continuas). El sistema ahora tiene mas conocimiento acerca de dicha forma ya que radica en el area comun de los 3 sectores.
Con multiples imagenes (por ejemplo, durante una rotacion de 5 segundos que el sistema puede obtener por encima de 100 imagenes), el sistema repite el proceso de calculo de los sectores angulares delimitantes en el sistema de coordenadas de referencia, aplicando la respectiva transformacion euclidiana a cada sector e intersecando con la forma delimitante acumulativa. A medida que se anaden mas y mas vistas del cuerpo, la interseccion booleana de los sectores encierra la forma mas y mas apretada, hasta que se obtiene la seccion transversal convexa. La interseccion booleana puede calcularse usando la tecnica conocida de interseccion poligonal. Este enfoque de “objeto-espacio” como se conoce en graficos informaticos tiene la ventaja de calcular la forma a precision arbitraria.
5
10
15
20
25
30
35
40
45
50
55
60
65
Como alternativa, un enfoque “basado en imagen” de acuerdo con la presente invencion representa los sectores angulares uno a uno en un mapa de bits de alta resolucion que abarca inicialmente el area de medicion completa (como se indica por el rectangulo 930) y aplicando de manera recursiva interseccion booleana con el mapa de bits anterior como se muestra en la serie de imagenes en blanco y negro ejemplares en la Figura 10B.
La Figura 11 describe, en forma de un diagrama de flujo, la construccion de metricas de talla en 3D y datos de forma a partir del almacen de datos de modelo de forma en 2D (etapa 1100). Para cada imagen en 2D analizada por el 2DSA 140 (Figura 1), se recuperan coordenadas de puntos terminales de silueta (etapa 1105) con posicion de usuario y angulo de rotacion (etapa 1115). Los ultimos se usan para calcular la matriz de transformacion euclfdea en 2D (etapa 1120). La etapa 1110 crea un sector angular delimitador en coordenadas de camara, que se desplazan y giran (por la etapa 1130) usando dicha matriz, al sistema de coordenadas de referencia. La etapa 1140 representa el interior del sector angular, usando tecnicas de rellenado de polfgonos convexos como se conoce en la tecnica anterior. La solucion de representacion (por ejemplo 5 pfxeles/cm) debe ser lo suficientemente perfeccionada para evitar errores de digitalizacion. La etapa 1150 realiza la interseccion booleana del sector angular nuevamente representado con el mapa de bits de cobertura de forma segun se ha acumulado hasta ahora.
Cuando se ha procesado la secuencia de rotacion completa como se ha descrito anteriormente, la forma de la seccion transversal esta disponible y puede atravesarse su contorno, por la etapa 1160. El contorno puede representarse por una serie de puntos de contorno (etapa 1170) que pueden convertirse en una nube de puntos en 3D, cuando se acumulan con la seccion transversal de la figura en multiples alturas. Como alternativa se calcula la longitud de contorno por la etapa 1180 y sirve como un valor de circunferencia para la cintura. El modelo de forma en 3D obtenido puede almacenarse en una base de datos (etapa 1190).
La Figura 12 representa medidas de talla del cuerpo segun se requieren normalmente por la industria de las prendas de vestir. Pueden calcularse varias medidas clave a partir de una unica rotacion de usuario en posicion de brazos alzados (tambien denominado “Cactus”): busto/pecho, cintura y caderas.
Otras medidas de talla del cuerpo requieren que el usuario asuma una postura diferente. Por ejemplo, con las manos del usuario a los lados de su cuerpo, es posible obtener las medidas de circunferencia del contorno del brazo y de cuello.
Las tallas del cuerpo adicionales son lineales en su naturaleza. Estos incluyen el largo de pierna, brazo y altura. Usando calibracion, tales medidas se extraen desde un unico fotograma, que se basa en el analizador de comportamiento de usuario 130 (Figura 1) para seleccionar una imagen completamente frontal/trasera para esa medicion. Medir las piernas es importante para vaqueros u otras prendas de vestir que se ajustan de manera cenida. Como las piernas sufren de ocultacion mutua durante una rotacion de cuerpo completa, una modificacion al metodo de la presente invencion creana la forma de la rodilla o tobillo a partir de los fotogramas sin ocultacion. Puesto que la seccion transversal de la pierna en la rodilla/angulo es casi circular, la visibilidad del contorno de la pierna individual para 120° o el movimiento rotacional es suficiente para estimacion precisa de la circunferencia de las piernas.
Las Figuras 13A-13C ilustran esquematicamente la construccion de representaciones de modelo en 3D a partir de datos en 3D generados de acuerdo con una realizacion de la presente invencion. Repetir el proceso descrito con respecto a la Figura 11 para una serie de series de puntos, obtenidos a partir de intersectar los contornos de silueta de una secuencia de fotogramas de imagen, a una secuencia de valores de elevacion, genera una nube de puntos (Figura 13A). Una nube de puntos de este tipo puede convertirse al formato de escaneres de cuerpo en 3D completos. Adicionalmente, la tecnica anterior asf como varios productos de software comercialmente disponibles, muestran como convertir la nube de puntos a una serie de polfgonos (vease la malla de triangulos ilustrada en la Figura 13B) que sirve como un modelo superficial (vease la Figura 13C), que puede ser mejor adecuado para aplicaciones de probador virtual y para simulacion de ropa virtual.
La Figura 14 describe un Motor de Recomendacion de Prenda de Vestir (GRE) 175 de acuerdo con una realizacion de la presente invencion. El GRE 175 compara mediciones del cuerpo del usuario (por ejemplo circunferencias y longitudes) a aquellas de una prenda de vestir seleccionada y suministra recomendacion con respecto al mejor ajuste de talla.
El GRE 175 recibe las mediciones del usuario a partir de la base de datos de medidas de talla del cuerpo del usuario (por ejemplo, tal como la base de datos de forma y apariencia del usuario 170) y mediciones de prendas de vestir a partir de la base de datos de prendas de vestir 180. La insercion de datos de prendas de vestir a la base de datos 180 puede hacerse manual o automaticamente por un modulo de deteccion de prenda de vestir. El GRE 175 puede recibir adicionalmente historial de compras del usuario como se indica por el numero 174. Cada tipo de prenda de vestir (por ejemplo camiseta, pantalones, vestido, etc.) requiere comparar un conjunto diferente de circunferencias y longitudes, el numero de mediciones puede variar tambien por comerciante. La talla real de cada prenda de vestir se comparara frente a las dimensiones del cliente - depende tambien de parametros tales como elasticidad, facilidad de uso y tolerancia. Un flujo de calculo de talla ejemplar se muestra en la Figura 15 de acuerdo con una realizacion de la presente invencion.
5
10
15
20
25
30
35
40
45
50
55
60
65
Despues de que se hayan calculado y comparado las mediciones de la prenda de vestir a las mediciones del cuerpo del cliente, se emite una recomendacion de talla, como se describe, por ejemplo, en la Figura 16 acompanada por una ilustracion del ajuste del cuerpo presentada por un mapa de calor como se indica por el numero 620 en la Figura 17.
Haciendo referencia ahora a la Figura 16, para el fin de ilustracion unicamente, el proceso de emision de una recomendacion de talla puede implicar las siguientes etapas:
En primer lugar, el GRE 175 comprueba las mediciones del cuerpo (por ejemplo, comprobando un conjunto de circunferencias y longitudes de caderas, cintura y pecho del usuario como se indica por los numeros 601-606). En este ejemplo, las tallas de circunferencias halladas son la talla de pecho = 38, talla de cintura = 38 y talla de caderas = 40.
En la siguiente etapa (607), el GRE 175 comprueba si todas las mediciones del cuerpo estan dentro del rango de la talla de la prenda de vestir (ni mayor ni menor). En caso afirmativo, a continuacion en la siguiente etapa (608), comprueba si la diferencia entre las tallas de las mediciones del cuerpo no es mayor de dos tallas. En caso afirmativo, a continuacion en la siguiente etapa (609), comprueba si el punto de pecho del cuerpo esta dentro de un rango de +/- 3 cm en el eje vertical del punto de pecho del patron. Hasta este punto, si la repuesta a una cualquiera de las comprobaciones de las etapas 607-609 es negativa, entonces no se obtiene recomendacion (etapa 611). Si en la etapa 609 la respuesta es afirmativa, entonces en la siguiente etapa (610), el GRE 175 comprueba si la diferencia entre las tallas de las mediciones del cuerpo no es mayor que una talla. En caso afirmativo, (etapa 613), se proporciona una recomendacion para un ajuste perfecto (por ejemplo, talla 40 - talla mas grande), y el sistema visualiza la prenda de vestir en el diagrama del cuerpo del usuario (por ejemplo, un avatar que imita la apariencia del usuario). En caso negativo, (etapa 612), se proporciona una recomendacion para el ajuste mas grande (por ejemplo, talla 40), pero no necesariamente una recomendacion para un ajuste perfecto como en la etapa 613. Para la etapa 612, el sistema tambien visualiza la prenda de vestir en el diagrama del cuerpo del usuario (por ejemplo, un avatar que imita la apariencia del usuario).
Es importante mencionar que las etapas anteriores para emitir una recomendacion de talla pueden hacer unicamente referencia a una parte parcial de una logica muy extensa que puede incluir otras reglas o adicionales. Por ejemplo, la diferencia de hueco de dos tallas, descrita en la seccion anterior (vease la etapa 608), es solamente una regla ejemplar de un gran conjunto de reglas que pueden utilizarse para mejorar la eficacia del proceso de recomendacion de talla.
De acuerdo con una realizacion de la invencion, el sistema puede configurarse para crear un avatar a partir de datos de forma en 2D del usuario explorados y/o a partir de datos de forma en 3D calculados y opcionalmente caractensticas de usuario distintas de forma (tales como tono de la piel, color de ojos, color de pelo). Como se ha mencionado anteriormente en el presente documento, el avatar se usa para visualizacion del usuario durante el proceso de exploracion (la idea es presentar una figura que siga el comportamiento de usuario - para potenciar la experiencia y crear opcionalmente una sensacion de privacidad no mostrando la imagen real capturada por la camara).
El avatar puede usarse adicionalmente para visualizacion de una prenda de vestir seleccionada para el usuario. Dicha visualizacion puede ser estatica o dinamica animando el avatar con uno de movimientos predefinidos/generados aleatoriamente durante la exploracion o para potenciar la visualizacion de la prenda de vestir durante la etapa de la compra de prenda de vestir.
El proceso de medicion del cuerpo de acuerdo con la presente invencion puede usarse en diversos dominios fuera de la industria del comercio de moda. Un dominio de este tipo es la salud. La obesidad se esta convirtiendo en un riesgo para la salud significativo y por lo tanto es obligatorio proporcionar medios para monitorizar la obesidad. Un mdice de masa corporal (BMI) es una metrica sencilla que se usa ampliamente para medir la obesidad. Sin embargo, el BMI no refleja la distribucion de grasa.
De acuerdo con algunas realizaciones de la invencion, el proceso de medicion del cuerpo puede adaptarse para aplicaciones medicas - explorar el usuario y analizar los datos de forma en 3D para producir ciertos parametros/metricas relacionados con la salud tales como obesidad, distribucion de grasa. En una realizacion, la exploracion se lleva a cabo de manera repetitiva (mensualmente) y los datos de forma en 3D del usuario se comparan con una exploracion de referencia o con una o mas exploraciones anteriores. El proceso de comparacion genera indicaciones de cambios significativos de ciertos parametros de forma.
Como se apreciara por los expertos en la materia la disposicion descrita en las figuras da como resultado un sistema que puede capturar una secuencia de imagenes en 2D de un sujeto humano en movimiento con una camara en 2D estatica sencilla, extraer descriptores relacionados con la forma o talla en 2D desde multiples de tales imagenes en 2D e integrar dichos descriptores en medidas y/o elementos de talla en 3D de la forma en 3D.
De acuerdo con una realizacion de la presente invencion, para obtener propiedades precisas de la prenda de vestir, tales como la longitud y anchura de la prenda de vestir en varias regiones (por ejemplo, region del cuello, region del
5
10
15
20
25
30
ombligo, mangas, etc.), debena considerarse el angulo de la camara con respecto a un plano de referencia en el que esta localizada la prenda de vestir. Esto se requiere para eliminar cualquier distorsion que pueda tener lugar debido a la posicion no paralela (o angulo de captura no optimo) entre la lente de la camara y el plano en el que esta localizada la prenda de vestir.
Las realizaciones de la invencion segun se describieron en el presente documento anteriormente pueden implementarse como un proceso (metodo) informatico, un sistema informatico, o como un artfculo de fabricacion, tal como un producto de programa informatico o medio legible por ordenador. El producto de programa informatico puede ser un medio de almacenamiento informatico legible por un sistema informatico y que codifica un programa informatico de instrucciones para ejecutar un proceso informatico.
Ademas, con respecto a los procesos de ejemplo segun se han descrito, no necesitan alcanzarse todos los estados/etapas de proceso, ni tienen que realizarse los estados/etapas en el orden ilustrado. Ademas, ciertos estados de proceso que se ilustran como que se realizan en serie pueden realizarse en paralelo.
De manera similar, aunque ciertos ejemplos pueden hacer referencia a un sistema de ordenador personal (PC) o dispositivo de datos, pueden usarse otros sistemas informaticos o electronicos tambien, tales como, sin limitacion, una tableta, un asistente digital personal (PDA) habilitado para red, un telefono inteligente y asf sucesivamente.
Las expresiones, “por ejemplo”, “p. ej.”, “opcionalmente”, como se usan en el presente documento, se pretende que se usen para introducir ejemplos no limitantes. Aunque se realizan ciertas referencias a ciertos componentes o servicios de sistema de ejemplo, pueden usarse otros componentes y servicios tambien y/o los componentes de ejemplo pueden combinarse en menos componentes y/o dividirse en componentes adicionales. Ademas, la terminologfa de ejemplo como se representa y describe en el presente documento, se pretende que sea ilustrativa y ejemplar, y que no limite de ninguna manera el alcance de la invencion segun se reivindica.
Toda la descripcion anterior y ejemplos se han presentado para el fin de ilustracion y no se pretende que limiten la invencion de ninguna manera. Pueden emplearse muchos mecanismos diferentes, metodos de analisis, elementos electronicos y logicos, todos sin superar el alcance de la invencion, definiendose este alcance por las reivindicaciones adjuntas.

Claims (6)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    REIVINDICACIONES
    1. Un metodo para derivar mediciones de talla de cuerpo precisas de un usuario a partir de una secuencia de imagenes en 2D, que comprende las etapas de:
    a. guiar al usuario para maniobrar en un area designada a traves de todo un proceso de exploracion proporcionando instrucciones para el usuario antes y durante dicho proceso de exploracion usando un modulo de realimentacion y guiado de usuario (UFGM);
    b. explorar el cuerpo de dicho usuario obteniendo una secuencia de imagenes en 2D sin procesar de dicho usuario segun se capturan por una camara durante dicho proceso de exploracion;
    c. analizar el comportamiento de dicho usuario rastreando la posicion, pose/rotacion y postura de dicho usuario antes y durante el proceso de exploracion que incluye la distancia del usuario desde la camara, usando un analizador de comportamiento de usuario (UBA);
    d. extraer y codificar descriptores de datos de forma en 2D a partir de dicha secuencia de imagenes usando un analizador de forma en 2D (2DSA); e
    e. integrar dichos descriptores de forma en 2D asf como los datos de posicion, pose y rotacion del usuario, en un modelo de forma en 3D, en el que dicha integracion incluye asignar valores de rotacion a dicha secuencia de imagenes, en el que dichos valores son cualquiera de valores absolutos con respecto a una posicion frontal completa o relativos, con respecto a una imagen de referencia en dicha secuencia;
    en el que la distancia del usuario desde la camara se determina por la etapa c., a partir de imagenes en 2D usando la altura del usuario segun se proporciona manualmente al sistema mediante un dispositivo de entrada y la altura del sujeto en la imagen.
  2. 2. Un metodo de acuerdo con la reivindicacion 1, en el que el UFGM incluye multiples algoritmo o algoritmos de analisis de contenido de escena y de comportamiento de usuario para detectar problemas comunes en la escena y configuracion de camara y comportamiento de usuario y/o para verificar que el usuario esta siguiendo las instrucciones proporcionadas por el UFGM.
  3. 3. Un metodo de acuerdo con la reivindicacion 1, en el que la distancia se determina posteriormente rastreando al menos un punto clave del cuerpo que incluye: la parte superior de la cabeza, la parte inferior de los pies.
  4. 4. Un metodo de acuerdo con la reivindicacion 1, en el que asignar valores de rotacion a dicha secuencia de imagenes incluye al menos uno de: rastrear las manos de dicho usuario desde una posicion frontal, rastrear la secuencia de anchura de evolucion de las imagenes de la silueta del usuario y estimar los angulos de rotacion intermedios usando la tecnica de interpolacion, o rastrear caractensticas visuales y detalles dentro de la silueta del cuerpo.
  5. 5. Un sistema para derivar mediciones de talla de cuerpo precisas de un usuario a partir de una secuencia de imagenes en 2D, que comprende:
    a. un modulo de realimentacion y guiado de usuario (UFGM) para guiar al usuario para maniobrar en un area designada a traves de todo un proceso de exploracion proporcionando instrucciones al usuario antes y durante dicho proceso de exploracion;
    b. una camara para explorar el cuerpo de dicho usuario capturando una secuencia de imagenes en 2D sin procesar de dicho usuario durante dicho proceso de exploracion;
    c. un analizador de comportamiento de usuario (UBA) para analizar el comportamiento de dicho usuario rastreando la posicion, pose/rotacion, la distancia del usuario desde la camara, y postura de dicho usuario antes y durante la exploracion del cuerpo;
    d. un analizador de forma en 2D (2DSA) para extraer y codificar descriptores de datos de forma en 2D a partir de dicha secuencia de imagenes; y
    e. una unidad de procesamiento programada para integrar dichos descriptores de forma en 2D asf como los datos de posicion, pose y rotacion del usuario en un modelo de forma en 3D, en el que dicha integracion incluye asignar valores de rotacion a dicha secuencia de imagenes, en el que dichos valores son cualquiera de valores absolutos con respecto a una posicion frontal completa o relativos, con respecto a una imagen de referencia en dicha secuencia,
    en el que la distancia del usuario desde la camara se determina por el UBA a partir de imagenes en 2D usando la altura del usuario segun se proporciona manualmente al sistema mediante un dispositivo de entrada y la altura del sujeto en la imagen.
  6. 6. Un sistema de acuerdo con la reivindicacion 5, en el que el UFGM incluye multiples algoritmo o algoritmos de analisis de contenido de escena y comportamiento de usuario para detectar problemas comunes en configuracion de escena y de camara y comportamiento de usuario y/o para verificar que el usuario esta siguiendo las instrucciones proporcionadas por el UFGM.
ES13835345.3T 2012-09-05 2013-09-03 Sistema y método para derivar mediciones de talla de cuerpo precisas a partir de una secuencia de imágenes en 2D Active ES2693028T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261696816P 2012-09-05 2012-09-05
US201261696816P 2012-09-05
PCT/IL2013/050743 WO2014037939A1 (en) 2012-09-05 2013-09-03 System and method for deriving accurate body size measures from a sequence of 2d images

Publications (1)

Publication Number Publication Date
ES2693028T3 true ES2693028T3 (es) 2018-12-07

Family

ID=50236613

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13835345.3T Active ES2693028T3 (es) 2012-09-05 2013-09-03 Sistema y método para derivar mediciones de talla de cuerpo precisas a partir de una secuencia de imágenes en 2D

Country Status (7)

Country Link
US (1) US9727787B2 (es)
EP (1) EP2893479B1 (es)
JP (1) JP6392756B2 (es)
KR (1) KR20150079585A (es)
CN (1) CN104813340B (es)
ES (1) ES2693028T3 (es)
WO (1) WO2014037939A1 (es)

Families Citing this family (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10332176B2 (en) 2014-08-28 2019-06-25 Ebay Inc. Methods and systems for virtual fitting rooms or hybrid stores
KR20150079585A (ko) * 2012-09-05 2015-07-08 바디 패스 리미티드 일련의 2d 이미지로부터 정확한 신체 사이즈 치수를 도출하는 시스템 및 방법
US9367733B2 (en) 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
US10009579B2 (en) * 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
US10089680B2 (en) * 2013-03-12 2018-10-02 Exalibur Ip, Llc Automatically fitting a wearable object
US9639747B2 (en) * 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
FR3010624B1 (fr) * 2013-09-13 2015-09-25 Ct Hospitalier Universitaire De Poitiers Procede et systeme de cartographie, procede et systeme d'evaluation de l'efficacite d'une stimulation medullaire
US9392254B2 (en) * 2014-02-28 2016-07-12 John Clinton Barkley Game sizing camera
US10247541B2 (en) * 2014-03-31 2019-04-02 Gorilla Technology Inc. System and method of estimating the three-dimensional size of an object for packaging or storing the object
US10013710B2 (en) * 2014-04-17 2018-07-03 Ebay Inc. Fashion preference analysis
US9436277B2 (en) * 2014-04-21 2016-09-06 Xerox Corporation System and method for producing computer control signals from breath attributes
NZ631213A (en) * 2014-05-13 2016-03-31 Mport Pty Ltd Frameworks and methodologies for enabling provision of computer implement functionalities via centralized management of data derived from three dimensional body scans
US10529009B2 (en) 2014-06-25 2020-01-07 Ebay Inc. Digital avatars in online marketplaces
EP2960854A1 (en) * 2014-06-27 2015-12-30 Thomson Licensing Method and device for determining a set of modifiable elements in a group of pictures
RU2551731C1 (ru) * 2014-07-02 2015-05-27 Константин Александрович Караваев Способ виртуального подбора одежды
US10653962B2 (en) 2014-08-01 2020-05-19 Ebay Inc. Generating and utilizing digital avatar data for online marketplaces
US10366447B2 (en) 2014-08-30 2019-07-30 Ebay Inc. Providing a virtual shopping environment for an item
US9639954B2 (en) * 2014-10-27 2017-05-02 Playsigh Interactive Ltd. Object extraction from video images
EP3998571A1 (en) * 2014-12-23 2022-05-18 Bit Body Inc. Methods of capturing images and making garments
EP3256916B1 (en) 2015-02-12 2023-10-11 Glowforge Inc. Moving material during laser fabrication
US10509390B2 (en) 2015-02-12 2019-12-17 Glowforge Inc. Safety and reliability guarantees for laser fabrication
US11004133B1 (en) * 2015-04-01 2021-05-11 Amazon Technologies, Inc. Fit characteristics for comparing garments
US9839376B1 (en) 2015-04-20 2017-12-12 Massachusetts Mutual Life Insurance Systems and methods for automated body mass index calculation to determine value
JP6455310B2 (ja) * 2015-05-18 2019-01-23 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US10339593B2 (en) * 2015-07-07 2019-07-02 Lutzy Inc. System and network for outfit planning and wardrobe management
US9905019B2 (en) * 2015-08-07 2018-02-27 Selfiestyler Inc. Virtual apparel fitting systems and methods
US10430867B2 (en) 2015-08-07 2019-10-01 SelfieStyler, Inc. Virtual garment carousel
CN105184584A (zh) * 2015-09-17 2015-12-23 北京京东方多媒体科技有限公司 虚拟试衣***及方法
US10438292B1 (en) 2015-09-17 2019-10-08 Allstate Insurance Company Determining body characteristics based on images
WO2017059438A1 (en) * 2015-10-02 2017-04-06 Edward Knowlton Synthetically fabricated and custom fitted dressware
CA3000727C (en) 2015-10-05 2023-12-12 Bayer Healthcare Llc Generating orthotic product recommendations
US10140832B2 (en) 2016-01-26 2018-11-27 Flir Systems, Inc. Systems and methods for behavioral based alarms
CN105740688B (zh) * 2016-02-01 2021-04-09 腾讯科技(深圳)有限公司 解锁的方法和装置
US10587858B2 (en) * 2016-03-14 2020-03-10 Symbol Technologies, Llc Device and method of dimensioning using digital images and depth data
US11559086B1 (en) * 2016-03-24 2023-01-24 Detra C. Aubert Method to remotely fit brassieres for prosthetics wearers and mastectomy patients
US10068612B2 (en) 2016-04-08 2018-09-04 DISH Technologies L.L.C. Systems and methods for generating and presenting virtual experiences
US10579203B2 (en) * 2016-04-13 2020-03-03 Intel Corporation Wellness mirror
EP3452956A4 (en) * 2016-05-04 2020-01-08 Styku LLC METHOD AND SYSTEM FOR BODY SCAN AND DISPLAY OF BIOMETRIC DATA
WO2018011332A1 (en) 2016-07-13 2018-01-18 Naked Labs Austria Gmbh Method for creating a 3d-model and 3d-body-scanner
WO2018013968A1 (en) * 2016-07-14 2018-01-18 Brightday Technologies, Inc. Posture analysis systems and methods
GB2552648B (en) * 2016-07-22 2020-09-16 Imperial College Sci Tech & Medicine Estimating dimensions for an enclosed space using a multi-directional camera
US10251438B2 (en) 2016-08-10 2019-04-09 Lymphatech Methods of generating compression garment measurement information for a patient body part and fitting pre-fabricated compression garments thereto
US10249100B2 (en) * 2016-08-29 2019-04-02 Physan, Inc. Method and system for progressive drape update on avatar morph for virtual fitting
CN107865473B (zh) * 2016-09-26 2019-10-25 华硕电脑股份有限公司 人体特征测距装置及其测距方法
FR3058250B1 (fr) * 2016-10-28 2019-07-05 Guillaume Vandevoorde Procede pour simuler le tombe d’un vetement sur une representation numerique d’un sujet, produit programme d’ordinateur et serveur associes
EP3541277A4 (en) * 2016-11-17 2020-07-15 Medici Technologies, LLC METHODS AND APPARATUSES FOR MEASURING A STATE OF CENTRAL VENOUS PRESSURE
WO2018098397A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Calibration of computer-numerically-controlled machine
WO2018098396A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Multi-user computer-numerically-controlled machine
WO2018098393A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Housing for computer-numerically-controlled machine
WO2018098398A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Preset optical components in a computer numerically controlled machine
WO2018098395A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Improved engraving in a computer numerically controlled machine
WO2018098399A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Controlled deceleration of moveable components in a computer numerically controlled machine
WO2018098394A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Fabrication with image tracing
US20180160777A1 (en) 2016-12-14 2018-06-14 Black Brass, Inc. Foot measuring and sizing application
US10325372B2 (en) * 2016-12-20 2019-06-18 Amazon Technologies, Inc. Intelligent auto-cropping of images
WO2018127811A1 (en) * 2017-01-06 2018-07-12 Platform Orthopedic Solutions Inc. System, platform and method for personalized shopping using an automated shopping assistant
JP2018124946A (ja) * 2017-02-03 2018-08-09 有限会社Primavera 3dボディスキャナーと型紙自動作成ソフトを使ったアパレルのビジネスモデル
CN110521286B (zh) * 2017-02-06 2021-11-05 理想工业照明有限责任公司 图像分析技术
CN106952302B (zh) * 2017-02-14 2019-12-13 深圳奥比中光科技有限公司 人体模型自动创建方法及三维试衣***
TWI604332B (zh) * 2017-03-24 2017-11-01 緯創資通股份有限公司 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體
JP6733590B2 (ja) * 2017-03-30 2020-08-05 京セラドキュメントソリューションズ株式会社 商品選択支援装置
US10705113B2 (en) 2017-04-28 2020-07-07 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user to generate inputs for computer systems
KR102649617B1 (ko) 2017-06-27 2024-03-19 나이키 이노베이트 씨.브이. 자동화된 쇼핑 어시스턴트를 사용하는 개인화된 쇼핑을 위한 시스템, 플랫폼 및 방법
WO2019093877A2 (en) 2017-09-27 2019-05-16 Peacs Investment B.V. Heart position estimation
US11016116B2 (en) 2018-01-11 2021-05-25 Finch Technologies Ltd. Correction of accumulated errors in inertial measurement units attached to a user
WO2019147815A1 (en) * 2018-01-24 2019-08-01 Nike Innovate C.V. System, platform and method for personalized shopping using a virtual shopping assistant
AU2019200433B1 (en) * 2018-02-14 2019-05-16 Lymphatech, Inc. Methods Of Generating Compression Garment Measurement Information For A Patient Body Part And Fitting Pre-Fabricated Compression Garments Thereto
WO2019164741A1 (en) * 2018-02-26 2019-08-29 Seddi, Inc. Avatar matching in on-line shopping
KR102028563B1 (ko) * 2018-03-09 2019-10-04 (주)펄핏 영상 처리를 이용한 발 사이즈 및 모양 측정 방법
JP6840890B2 (ja) * 2018-03-16 2021-03-10 株式会社ソニー・インタラクティブエンタテインメント 身体サイズ推定装置、身体サイズ推定方法及びプログラム
CA3095732C (en) * 2018-03-30 2023-08-29 ZOZO, Inc. Size measuring system
CN108550384B (zh) * 2018-03-30 2022-05-03 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
KR102036127B1 (ko) * 2018-04-10 2019-11-26 (주)오엔에스커뮤니케이션 영상 인식을 이용한 의류 생산 모니터링 시스템
US10321728B1 (en) 2018-04-20 2019-06-18 Bodygram, Inc. Systems and methods for full body measurements extraction
US11474593B2 (en) 2018-05-07 2022-10-18 Finch Technologies Ltd. Tracking user movements to control a skeleton model in a computer system
US10416755B1 (en) 2018-06-01 2019-09-17 Finch Technologies Ltd. Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
TWI697861B (zh) * 2018-05-16 2020-07-01 緯創資通股份有限公司 服飾試穿方法及其顯示系統與電腦可讀取記錄媒體
KR101956143B1 (ko) * 2018-07-04 2019-03-12 주식회사 프로젝트 융 에어샤워 게이트
CN109211139A (zh) * 2018-07-10 2019-01-15 北京三体高创科技有限公司 三维扫描方法及扫描装置
US11009941B2 (en) * 2018-07-25 2021-05-18 Finch Technologies Ltd. Calibration of measurement units in alignment with a skeleton model to control a computer system
CN109146772B (zh) * 2018-08-03 2019-08-23 深圳市飘飘宝贝有限公司 一种图片处理方法、终端和计算机可读存储介质
CN112566549A (zh) * 2018-08-06 2021-03-26 国际现代科学团队(Sism) 自动执行人的静态动态个性测试的方法
CN109190519B (zh) * 2018-08-15 2021-07-16 上海师范大学 一种人体图像裆部检测方法
WO2020093090A1 (en) * 2018-11-05 2020-05-14 Cape Bionics Pty Ltd Tailored compression garments and methods of tailoring compression garments for individuals
CN109615462B (zh) * 2018-11-13 2022-07-22 华为技术有限公司 控制用户数据的方法及相关装置
KR102202490B1 (ko) * 2018-11-30 2021-01-14 동국대학교 산학협력단 3차원 신체 모델 측정 장치 및 방법
JP6792273B2 (ja) * 2019-04-26 2020-11-25 Arithmer株式会社 寸法データ算出装置、製品製造装置、及びシルエット画像生成装置
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
US11010896B2 (en) 2018-12-17 2021-05-18 Bodygram, Inc. Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation
WO2020130219A1 (ko) * 2018-12-21 2020-06-25 엘지전자 주식회사 로봇의 제어 방법
KR20200080047A (ko) * 2018-12-26 2020-07-06 삼성전자주식회사 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기
CN109409348A (zh) * 2018-12-29 2019-03-01 北京卡路里信息技术有限公司 一种用户体征的确定方法、装置、设备和存储介质
US11995840B2 (en) * 2018-12-31 2024-05-28 I-Deal S.R.L. Anthropometric data portable acquisition device and method of collecting anthropometric data
US10909709B2 (en) 2019-01-03 2021-02-02 Lg Electronics Inc. Body measurement device and method for controlling the same
KR102132721B1 (ko) * 2019-01-03 2020-07-10 (주) 아이딕션 신체 사이즈 측정용 사진 획득 방법 및 이를 이용한 신체 사이즈 측정 방법, 서버 및 프로그램
KR20210099508A (ko) * 2019-01-03 2021-08-12 엘지전자 주식회사 신체 측정 디바이스 및 그 제어 방법
CN109829785B (zh) * 2019-01-21 2021-07-09 深圳市云之梦科技有限公司 虚拟试衣方法、装置、电子设备和存储介质
GB2581167A (en) * 2019-02-06 2020-08-12 Arbroath Capital Uk Risk Man Consulting Limited Video processing apparatus
JP2020134242A (ja) * 2019-02-15 2020-08-31 オリンパス株式会社 計測方法、計測装置、およびプログラム
CN110188633B (zh) * 2019-05-14 2023-04-07 广州虎牙信息科技有限公司 人体体态指标预测方法、装置、电子设备及存储介质
US11134079B2 (en) * 2019-05-21 2021-09-28 International Business Machines Corporation Cognitive behavioral and environmental access
EP3742397A1 (en) * 2019-05-23 2020-11-25 Koninklijke Philips N.V. Estimating a surface area and/or volume of a body or a body part of a subject
EP3745352B1 (en) * 2019-05-31 2023-01-18 presize GmbH Methods and systems for determining body measurements and providing clothing size recommendations
WO2021016556A1 (en) * 2019-07-25 2021-01-28 Eifle, Inc. Digital image capture and fitting methods and systems
US10842680B1 (en) * 2019-08-31 2020-11-24 Michael J. Weiler Methods and systems for fitting compression garments from digital imagery
CN112446166B (zh) * 2019-09-03 2024-05-14 财团法人工业技术研究院 材料推荐***与材料推荐方法
KR102314163B1 (ko) * 2019-09-09 2021-10-18 (주)플리츠미 온라인 의류 쇼핑 시스템
US10976863B1 (en) 2019-09-19 2021-04-13 Finch Technologies Ltd. Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
US11175729B2 (en) 2019-09-19 2021-11-16 Finch Technologies Ltd. Orientation determination based on both images and inertial measurement units
US11903730B1 (en) 2019-09-25 2024-02-20 Amazon Technologies, Inc. Body fat measurements from a two-dimensional image
EP4037515A4 (en) 2019-10-03 2023-08-23 Cornell University OPTIMIZATION OF BRA SIZING ACCORDING TO THE 3D SHAPE OF THE BREASTS
KR102314164B1 (ko) * 2019-10-10 2021-10-18 (주)플리츠미 온라인 의류 쇼핑 시스템
US11250572B2 (en) * 2019-10-21 2022-02-15 Salesforce.Com, Inc. Systems and methods of generating photorealistic garment transference in images
US11222434B2 (en) * 2019-11-21 2022-01-11 Shopify Inc. Systems and methods for measuring body size
CN111105348A (zh) 2019-12-25 2020-05-05 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
KR102387711B1 (ko) * 2020-01-10 2022-04-18 주식회사 리모 2d 영상 기반의 3차원 체형 분석 방법, 그 시스템 및 그 프로그램
EP4091137A4 (en) 2020-01-19 2024-01-17 UdiSense Inc. MEASUREMENT CALIBRATION USING PATTERNED SHEETS
US11138771B2 (en) * 2020-02-03 2021-10-05 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
KR102268801B1 (ko) * 2020-03-05 2021-06-24 (주)헬스허브 의료영상을 통한 신체 사이즈의 시계열적 변화 추정 장치 및 그 방법
CN111307039A (zh) * 2020-03-06 2020-06-19 珠海随变科技有限公司 一种物体长度识别方法、装置、终端设备和存储介质
EP3882810B1 (en) 2020-03-16 2023-06-07 Carl Zeiss Vision International GmbH Computer implemented methods and devices for determining dimensions and distances of head features
CN111611928B (zh) * 2020-05-22 2023-07-28 郑泽宇 一种基于单目视觉与关键点识别的身高及身体尺寸测量方法
CN116235210A (zh) 2020-05-29 2023-06-06 耐克创新有限合伙公司 用于处理捕获的图像的***和方法
KR20220012061A (ko) * 2020-07-22 2022-02-03 삼성전자주식회사 이미지 내 오브젝트의 높이를 확인하는 전자 장치 및 그 동작 방법
USD937007S1 (en) 2020-07-30 2021-11-30 Udisense Inc. Bedsheet
US20230394695A1 (en) * 2020-10-22 2023-12-07 Cornell University Methods, devices and systems to determine and visualize breast boundary, predict bra cup size and/or evaluate performance of a garment using 4d body scans of an individual
US11740608B2 (en) 2020-12-24 2023-08-29 Glowforge, Inc Computer numerically controlled fabrication using projected information
SE545466C2 (en) * 2021-02-05 2023-09-19 Volumental AB Method and electronic arrangement for item matching for a user´s body part
DE102021103578B4 (de) * 2021-02-16 2023-06-07 Sikora Aktiengesellschaft Verfahren und System zum Erfassen und Bereitstellen von Daten für einen Kauf eines Bekleidungsartikels
US11094135B1 (en) * 2021-03-05 2021-08-17 Flyreel, Inc. Automated measurement of interior spaces through guided modeling of dimensions
US11698622B2 (en) 2021-03-09 2023-07-11 Glowforge Inc. Previews for computer numerically controlled fabrication
WO2022214872A1 (en) * 2021-04-05 2022-10-13 Advanced Human Imaging Limited Predicting user body volume to manage medical treatments and medication
US12046374B2 (en) * 2021-05-23 2024-07-23 Zhiqing Cheng Digital twin
GB2608170A (en) 2021-06-24 2022-12-28 Aistetic Ltd Method and system for obtaining human body size information from image data
US11854146B1 (en) 2021-06-25 2023-12-26 Amazon Technologies, Inc. Three-dimensional body composition from two-dimensional images of a portion of a body
US11887252B1 (en) 2021-08-25 2024-01-30 Amazon Technologies, Inc. Body model composition update from two-dimensional face images
US11861860B2 (en) * 2021-09-29 2024-01-02 Amazon Technologies, Inc. Body dimensions from two-dimensional body images
JP7316336B2 (ja) * 2021-09-29 2023-07-27 株式会社Zozo 情報処理装置、情報処理方法及び情報処理プログラム
KR20230077647A (ko) * 2021-11-25 2023-06-01 에이아이바 주식회사 실감형 패션 메타버스 서비스 제공하는 방법, 그 장치 및 그 방법을 수행하는 프로그램을 저장하는 비일시적 컴퓨터 판독 가능 기록 매체
CN114419135B (zh) * 2022-03-29 2022-06-28 武汉楚精灵医疗科技有限公司 胰腺标志物尺寸量化方法、装置、终端及可读存储介质
CN114663552B (zh) * 2022-05-25 2022-08-16 武汉纺织大学 一种基于2d图像的虚拟试衣方法
CN115251897B (zh) * 2022-07-14 2023-11-14 广东工业大学 一种胸型量测装置及***

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2351426A (en) * 1999-06-24 2000-12-27 Stephen James Crampton Method and apparatus for the generation of computer graphic representations of individuals
FR2816821B1 (fr) * 2000-11-20 2003-01-17 Telmat Ind Installation et procede automatiques de prise de mensurations et d'acquisition de formes
JP2003269936A (ja) * 2002-03-19 2003-09-25 Sanyo Electric Co Ltd 自動採寸方法
WO2006071006A1 (en) * 2004-12-30 2006-07-06 G & G Cormerce Ltd Method for converting 2d image into pseudo 3d image and user-adapted total coordination method in use artificial intelligence, and service business method thereof
JP4765429B2 (ja) * 2005-06-21 2011-09-07 パナソニック電工株式会社 体型測定機能付洗面ユニット
US8249334B2 (en) * 2006-05-11 2012-08-21 Primesense Ltd. Modeling of humanoid forms from depth maps
US8068676B2 (en) * 2007-11-07 2011-11-29 Palo Alto Research Center Incorporated Intelligent fashion exploration based on clothes recognition
CA2734143C (en) * 2008-08-15 2021-08-31 Brown University Method and apparatus for estimating body shape
US9292967B2 (en) * 2010-06-10 2016-03-22 Brown University Parameterized model of 2D articulated human shape
KR20150079585A (ko) * 2012-09-05 2015-07-08 바디 패스 리미티드 일련의 2d 이미지로부터 정확한 신체 사이즈 치수를 도출하는 시스템 및 방법

Also Published As

Publication number Publication date
US20150154453A1 (en) 2015-06-04
WO2014037939A1 (en) 2014-03-13
CN104813340B (zh) 2018-02-23
CN104813340A (zh) 2015-07-29
EP2893479A4 (en) 2017-02-01
JP6392756B2 (ja) 2018-09-19
US9727787B2 (en) 2017-08-08
EP2893479B1 (en) 2018-10-24
EP2893479A1 (en) 2015-07-15
JP2015534637A (ja) 2015-12-03
KR20150079585A (ko) 2015-07-08

Similar Documents

Publication Publication Date Title
ES2693028T3 (es) Sistema y método para derivar mediciones de talla de cuerpo precisas a partir de una secuencia de imágenes en 2D
Xu et al. Mo 2 cap 2: Real-time mobile 3d motion capture with a cap-mounted fisheye camera
US9791267B2 (en) Determining three-dimensional information from projections or placement of two-dimensional patterns
ES2812578T3 (es) Estimación de una postura basada en la silueta
Tian et al. Handling occlusions in augmented reality based on 3D reconstruction method
JP7427188B2 (ja) 3dポーズ取得方法及び装置
US20130293679A1 (en) Upper-Body Skeleton Extraction from Depth Maps
KR20180069786A (ko) 3d 신체 모델에 대한 3d 의복 모델의 이미지 파일을 생성하기 위한 방법 및 시스템
US20160071322A1 (en) Image processing apparatus, image processing system and storage medium
KR20170073623A (ko) 고속 3d 모델 피팅 및 인체 측정법
TR201815349T4 (tr) Geliştirilmiş sanal deneme simülasyonu hizmeti.
Hu et al. 3DBodyNet: fast reconstruction of 3D animatable human body shape from a single commodity depth camera
CN109559371A (zh) 一种用于三维重建的方法和装置
CN104376599A (zh) 一种简便的三维头部模型生成***
JP7024876B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
Ogawa et al. Occlusion handling in outdoor augmented reality using a combination of map data and instance segmentation
Senanayake et al. Automated human body measurement extraction: single digital camera (webcam) method–phase 1
CN113724378B (zh) 三维建模方法和装置、计算机可读存储介质及计算机设备
US20240013415A1 (en) Methods and systems for representing a user
Liem et al. Coupled person orientation estimation and appearance modeling using spherical harmonics
JP7234595B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
Botre et al. Virtual Trial Room
JP7447956B2 (ja) 処理装置、姿勢解析システム、及びプログラム
WO2021095095A1 (ja) カメラ校正装置、カメラ校正方法及びカメラ校正プログラムが格納された非一時的なコンピュータ可読媒体
Xu High-fidelity human body modelling from user-generated data