JP6548967B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6548967B2
JP6548967B2 JP2015121094A JP2015121094A JP6548967B2 JP 6548967 B2 JP6548967 B2 JP 6548967B2 JP 2015121094 A JP2015121094 A JP 2015121094A JP 2015121094 A JP2015121094 A JP 2015121094A JP 6548967 B2 JP6548967 B2 JP 6548967B2
Authority
JP
Japan
Prior art keywords
subject
posture
data
image
deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015121094A
Other languages
English (en)
Other versions
JP2017004464A5 (ja
JP2017004464A (ja
Inventor
馨 杉田
馨 杉田
関根 真弘
真弘 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015121094A priority Critical patent/JP6548967B2/ja
Priority to US14/941,881 priority patent/US10360444B2/en
Publication of JP2017004464A publication Critical patent/JP2017004464A/ja
Publication of JP2017004464A5 publication Critical patent/JP2017004464A5/ja
Application granted granted Critical
Publication of JP6548967B2 publication Critical patent/JP6548967B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理方法及びプログラムに関する。
近年では、例えば撮像部によって撮像される被写体(ユーザ)が試着対象の衣服を仮想的に試着すること(以下、仮想試着と表記)を実現する技術が開発されている。
この技術によれば、撮像部によって撮像された被写体を含む画像(以下、被写体画像と表記)上に衣服の画像(以下、衣服画像と表記)を重畳した合成画像を表示することにより、当該被写体は、実際に試着を行うことなく当該被写体が試着対象の衣服を着用した状態を確認することが可能となる。
なお、衣服画像は、例えば衣服を着用したマネキン等をスキャンすることによって予め生成される。
特開2000−287223号公報
ところで、被写体画像中の被写体の形状と衣服画像中の衣服の形状とが一致しているような精度の高い合成画像を表示するためには、仮想試着を行う被写体の姿勢と衣服画像を生成した際に衣服を着用していたマネキンの姿勢(以下、衣服画像に対応する姿勢と表記)とが一致していることが好ましい。
しかしながら、あらゆる姿勢のマネキンに衣服を着用させて衣服画像を生成(用意)しておくことは困難であるため、仮想試着時の被写体の姿勢と衣服画像に対応する姿勢とは一致しない場合が多い。
よって、精度の高い合成画像を表示するためには、被写体の姿勢が予め用意されている衣服画像に対応する姿勢(つまり、所定の姿勢)と一致するように当該被写体を誘導する仕組みが必要である。また、マネキンの体型と被写体の体型は必ずしも一致していない。
そこで、本発明が解決しようとする課題は、被写体の体型に合わせて被写体の姿勢と所定の姿勢とのずれを通知することが可能な画像処理装置、画像処理方法及びプログラムを提供することにある。
実施形態に係る画像処理装置は、第1の取得手段と、第2の取得手段と、判定手段と、出力手段と、算出手段と、格納手段とを具備する。前記第1の取得手段は、第1被写体の形状を表す第1のデータを取得する。前記第2の取得手段は、前記第1被写体とは異なる第2被写体の形状を表す第2のデータを取得する。前記判定手段は、前記第1のデータ及び前記第2のデータ間にずれが生じているかを判定する。前記出力手段は、前記ずれが生じていると判定された場合に、前記ずれを通知するための通知情報を出力する。前記算出手段は、前記第1のデータ及び前記第2のデータの各々によって表される形状間のずれの量を表す評価値を算出する。前記格納手段は、前記評価値が閾値以下であると判定されるタイミングで撮像部によって撮像された前記第1被写体を含む被写体画像を格納する。
実施形態における画像処理システムの外観の一例を示す図。 画像処理システムの構成の一例を示すブロック図。 格納部のデータ構造の一例を示す図。 画像処理装置の処理手順の一例を示すフローチャート。 被写体3次元モデルを取得する処理の概要について説明するための図。 目標3次元モデルを選択する処理の概要について説明するための図。 評価値が算出される部位の一例を示す図。 評価値の一例について具体的に説明するための図。 通知画像の一例を示す図。 通知画像の別の例を示す図。 画像処理システムとして実現される携帯端末の外観の一例を示す図。 携帯端末の利用態様の一例を示す図。
以下、図面を参照して、実施形態について説明する。
図1は、本実施形態に係る画像処理装置を含む画像処理システムの外観の一例を示す。図1に示す画像処理システム10は、筐体11、表示部12、第1撮像部13及び第2撮像部14を備える。なお、本実施形態に係る画像処理装置は、筐体11の内部に設けられているが、図1においては省略されている。
図1に示すように、画像処理システム10が備える筐体11は例えば矩形形状を有し、当該筐体11の一面には表示部12が組み込まれている。表示部12は、各種画像等を表示可能な、例えば液晶表示装置のような表示装置である。
更に、筐体11には、第1撮像部13及び第2撮像部14が組み込まれている。第1撮像部13は、被写体Pを連続的に撮像し、当該撮像された被写体Pを含む画像(以下、デプス画像と表記)を順次出力するための撮像装置である。このデプス画像(デプスマップ)は、距離画像とも称され、画素毎に第1撮像部13からの距離が規定された画像である。第1撮像部13としては、例えばゲーム等において用いられるデプスセンサを利用することができる。なお、第1撮像部13は、デプス画像(つまり、第1撮像部13からの距離が規定された画像)を得ることが可能な構成であればよい。このため、第1撮像部13は、例えば複数のカメラから構成され、ステレオマッチングによりデプス画像を得るような構成であってもよい。
第2撮像部14は、被写体Pを連続的に撮像し、当該撮像された被写体Pを含む画像(以下、被写体画像と表記)を順次出力するための撮像装置である。この被写体画像は、ビットマップ画像であり、画素毎に被写体Pの色彩及び輝度等を示す画素値が規定された画像である。第2撮像部14としては、例えばビデオカメラを利用することができる。
第1撮像部13及び第2撮像部14は、図1に示す回転台20に乗っている被写体Pを撮像する。すなわち、第1撮像部13及び第2撮像部14は、回転台20に乗っている被写体Pを撮像可能な位置に設けられる。なお、第1撮像部13及び第2撮像部14は、被写体Pを撮像可能であれば図1に示す位置以外に設けられていてもよい。
回転台20は、例えば任意の角度に回転可能に構成される。また、回転台20は、当該回転台20に被写体Pが乗っている状態において、当該被写体Pが表示部12(に表示される画像)を視認可能な位置に配置されている。回転台20は、被写体Pが所定の方向を向くように自動または手動操作等により回転する。
図1に示す画像処理システム10は、例えば人物である被写体P(ユーザ)が仮想試着をする(試着対象の衣服を仮想的に試着する)際に用いられる。
仮想試着は、予め生成されている衣服画像を被写体Pを含む被写体画像上に重畳した合成画像(以下、試着画像と表記)を表示することによって実現される。衣服画像は、例えばマネキン等の被写体が着用した状態の衣服を示す画像であり、例えば当該衣服を着用したマネキンをスキャンすることによって生成される。衣服画像によって示される衣服(の種類)には、例えばインナー、アウター、靴及び帽子等が含まれる。また、アウターには、例えば上半身に着用するトップス(上着)及び下半身に着用するボトムス(スカート、ズボン)等が含まれる。
画像処理システム10は、仮想試着時に精度の高い試着画像を表示するために、当該仮想試着を行う被写体Pの姿勢が衣服画像を生成した際に衣服を着用していたマネキンの姿勢と一致するように被写体Pを誘導するための機能を有する。
この機能によれば、衣服画像を生成した際に衣服を着用していたマネキンの姿勢と略同一の姿勢の被写体Pを含む被写体画像を得ることができる。
図1においては、画像処理装置が設けられている筐体11に表示部12及び撮像部(第1撮像部13及び第2撮像部14)が組み込まれた構成が示されているが、画像処理装置、表示部12及び撮像部は、別個の装置として構成されていてもよい。
図1においては省略されているが、画像処理システム10には、例えば被写体Pによる操作指示に応じて各種情報を入力する(受け付ける)、例えばマウス、ボタン、リモコン、キーボード、マイク等の音声認識装置、及び画像認識装置のうちの1つまたは複数を組み合わせて構成される入力部が更に設けられていてもよい。
上記した表示部12及び入力部は一体的に構成されていてもよい。具体的には、表示部12及び入力部は、表示機能及び入力機能の双方を備えたUI(User Interface)部として構成されていてもよい。このようなUI部には、タッチパネル付きLCD(Liquid Crystal Display)等が含まれる。
また、画像処理システム10は、例えばネットワークを介して画像処理装置と通信可能に接続される外部のサーバ装置を更に備える構成であっても構わない。
図2は、本実施形態における画像処理システム10の構成を示すブロック図である。図2においては、画像処理システム10に含まれる画像処理装置の機能構成について主に説明する。
図2に示すように、画像処理装置100は、表示部12、第1撮像部13、第2撮像部14及び格納部15と通信可能に接続されている。図2において、表示部12、第1撮像部13、第2撮像部14及び格納部15は、画像処理装置100と別個に設けられているが、これらのうちの少なくとも1つが当該画像処理装置100と一体的に構成されていても構わない。また、画像処理装置100は、上記したように筐体11の内部に設けられるが、例えば筐体11の外部のサーバ装置等として実現されても構わない。
なお、表示部12、第1撮像部13及び第2撮像部14については、上述した図1において説明した通りであるため、その詳しい説明を省略する。
格納部15は、複数の体型及び姿勢に対応する人体の形状を表すモデルデータ(つまり、体型及び姿勢に関連づけられた多数のモデルデータ)を予め格納する。格納部15に格納されているモデルデータは、例えば複数の衣服画像が生成された際に衣服を着用していた各マネキンの形状(と同一の形状)を表す。モデルデータにおいては、当該モデルデータによって表される形状(マネキンの形状)に対応する体型及び姿勢が規定されている。
このモデルデータとしては、例えば3次元ポリゴンデータ(以下、3次元モデルと表記)を用いることができる。3次元モデルは複数の頂点及びそれらを結ぶ複数の面から構成されており、例えば当該複数の頂点の各々には、当該頂点の3次元位置(座標)及び当該頂点を識別するための番号(以下、頂点番号と表記)が付加されているものとする。なお、異なる3次元モデル間において対応する頂点(つまり、3次元モデルにおける構造的に同一の位置の頂点)には同一の頂点番号が付加されている(割り当てられている)。
格納部15は、筐体11の内部に設けられていてもよいし、上述した外部のサーバ装置等に設けられていてもよい。
画像処理装置100は、画像取得部101、姿勢推定部102、姿勢受付部103、モデル選択部104、姿勢ずれ評価部105、通知情報生成部106、画像生成部107及び表示処理部108を含む。
本実施形態において、これらの各部101〜108の一部または全ては、例えば画像処理装置100に備えられるCPU等のコンピュータにプログラムを実行させること、すなわち、ソフトウェアによって実現されるものとする。なお、各部101〜108の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。
画像取得部101は、第1撮像部13によって出力されたデプス画像を取得する。また、画像取得部101は、第2撮像部14から出力された被写体画像を取得する。
姿勢推定部102は、画像取得部101によって取得されたデプス画像(に含まれる被写体Pの領域)に基づいて被写体Pの体型及び姿勢を推定する。姿勢推定部102は、推定された被写体Pの体型及び姿勢に対応する形状を表す3次元モデル(第1のモデルデータ)を取得する。この3次元モデルは、格納部15または外部のサーバ装置等から取得されてもよいし、画像処理装置100内で生成されたものであってもよい。以下、姿勢推定部102によって取得された3次元モデルを便宜的に被写体3次元モデルと称する。
姿勢受付部103は、仮想試着時に被写体Pが目標とすべき姿勢(つまり、被写体Pが誘導される姿勢)を示すデータ(以下、姿勢データと表記)を受け付ける。
モデル選択部104は、姿勢推定部102によって推定された被写体Pの体型(つまり、被写体3次元モデルによって表される形状に対応する体型)及び姿勢受付部103によって受け付けられた姿勢データによって示される姿勢(以下、目標姿勢と表記)に対応する形状を表す3次元モデル(第2のモデルデータ)を、格納部15に格納されている複数の3次元モデルの中から選択する(つまり、格納部15から読み出す)。以下、モデル選択部104によって選択された3次元モデルを便宜的に目標3次元モデルと称する。
姿勢ずれ評価部105は、被写体3次元モデル(被写体Pの体型及び姿勢の推定結果)及び目標3次元モデルの各々によって表される形状間のずれ(すなわち、各3次元モデルに規定されている姿勢の空間的なずれ)を評価(検出)する。なお、被写体3次元モデル及び目標3次元モデルの各々に規定されている体型は被写体Pの体型であるため、当該各3次元モデルによって表される形状間のずれは主に姿勢のずれを表す。以下の説明においては、被写体3次元モデル及び目標3次元モデルの各々によって表される形状間のずれを便宜的に姿勢ずれと称する。姿勢ずれ評価部105は、被写体3次元モデル及び目標3次元モデルに基づいて姿勢ずれの量を表す評価値を算出する。
通知情報生成部106は、姿勢ずれ評価部105によって算出された評価値(姿勢ずれの検出結果)に基づいて姿勢ずれを被写体Pに通知するための通知情報を生成する。
画像生成部107は、第2撮像部14によって撮像された被写体Pを含む被写体画像(つまり、第2撮像部14から出力された被写体画像)上に通知情報生成部106によって生成された通知情報を重畳した合成画像(以下、通知画像と表記)を生成する。
表示処理部108は、姿勢ずれを被写体Pに通知するために、通知情報生成部106によって生成された通知情報を出力する処理を実行する。具体的には、表示処理部108は、画像生成部107によって生成された通知画像を表示部12に表示する。
図3は、図2に示す格納部15のデータ構造の一例を示す。図3に示すように、格納部15には、各体型及び姿勢に対応する人体の形状を表す3次元モデル(ポリゴンメッシュデータ)が格納されている。なお、格納部15において、体型(β)は、体型の偏差の程度を示すパラメータである。体型(β)は、痩せている体型、太っている体型、男性的な体型及び女性的な体型等をパラメトリックに記述するための複数の数値から構成される。姿勢(θ)は、人体における各関節の角度(曲げ角度)を示すパラメータである。
図3に示す例では、格納部15には、例えば体型β1及び姿勢θ1に対応する形状を表す3次元モデル151が格納されている。
また、3次元モデル151と体型が共通する3次元モデルとして、体型β1及び姿勢θ2に対応する形状を表す3次元モデル152と、体型β1及び姿勢θ3に対応する形状を表す3次元モデル153とが格納されている。
一方、3次元モデル151と姿勢が共通する3次元モデルとして、体型β2及び姿勢θ1に対応する形状を表す3次元モデル154と、体型β3及び姿勢θ1に対応する形状を表す3次元モデル155とが格納されている。
図3に示す3次元モデル151〜155は、上述したように例えば裸の状態か図1に示した被写体Pのように薄着の衣服を着用した状態か衣服画像が生成された際に衣服を着用したマネキンの形状を表す3次元モデルである。なお、図3においては、3次元モデル151〜155以外の3次元モデルについては省略されている。
なお、格納部15に格納されている3次元モデルは、当該3次元モデルによって表される形状(つまり、マネキンの形状)の例えば向き(M)等を適宜変更(規定)して利用することが可能である。向き(M)は、回転角度を示すパラメータである。
次に、図4に示すフローチャートを参照して、本実施形態に係る画像処理装置100の処理手順について説明する。
ここでは、仮想試着において試着対象となる多数の衣服を示す衣服画像が予め生成されているものとする。なお、衣服画像は、格納部15に格納されていてもよいし、外部のサーバ装置等で管理されていてもよい。また、格納部15には、裸の状態か図1に示した被写体Pのように薄着の衣服を着用した状態か衣服画像が生成された際に当該衣服画像によって示される衣服を着用したマネキンの形状を表す3次元モデルが、当該マネキンの形状(つまり、体型及び姿勢)毎に格納されているものとする。
ここで、仮想試着を行うユーザが画像処理システム10を利用する場合、当該ユーザは、被写体Pとして回転台20に乗ることができる。これによれば、第1撮像部13及び第2撮像部14は、被写体Pを撮像可能となる。本実施形態において、被写体Pは、第1撮像部13及び第2撮像部14によって撮像されている間は、所定の姿勢をとるものとする。
この場合、画像取得部101は、第1撮像部13によって撮像された被写体Pを含むデプス画像(被写体Pのデプス画像)を当該第1撮像部13から取得する(ステップS1)。
姿勢推定部102は、ステップS1において取得されたデプス画像に基づいて、被写体Pの体型βh及び姿勢θh(及び向きMh)を推定し、当該推定された被写体Pの体型βh及び姿勢θhに対応する形状を表す3次元モデル(つまり、被写体3次元モデル)を取得する(ステップS2)。例えば、被写体Pが示す体型、及び最初に示した姿勢(現状の姿勢)に対応するデプス画像を取得する。
ここで、図5を参照して、ステップS2の処理の概要について説明する。まず、ステップS1において、図5に示すデプス画像201が取得されているものとする。
この場合、姿勢推定部102は、図5に示すように、例えばデプス画像201上で格納部15に格納されている3次元モデルの各々(例えば、図3に示す3次元モデル151〜155等)を回転させながら、デプス画像201中の被写体Pの形状と3次元モデルによって表される形状(シルエット)とを対比する。これにより、姿勢推定部102は、格納部15に格納されている3次元モデルの中から、デプス画像201中の被写体Pと同じ向きとしたときに当該被写体P(の形状)と最も近い(一致する)形状を表す3次元モデルを特定する。姿勢推定部102は、このように特定された3次元モデルによって表される形状に対応する体型及び姿勢を、被写体Pの体型βh及び姿勢θhとして推定することができる。姿勢推定部102は、推定された被写体Pの体型βh及び姿勢θhに対応する形状を表す3次元モデルを被写体3次元モデルとして取得する。
図5に示す例では、3次元モデル151によって表される形状がデプス画像201中の被写体Pの形状と最も近く、当該3次元モデル151によって表される形状に対応する体型β1及び姿勢θ1が被写体Pの体型βh及び姿勢θhとして推定された場合が示されている。この場合、3次元モデル151が被写体3次元モデルとして取得される。
なお、被写体Pの体型βh及び姿勢θhの推定には、第1撮像部13によって撮像された被写体Pを含むデプス画像(被写体Pのデプス画像)の代わりに3Dスキャナ等を用いて取得される被写体Pの3次元モデルを利用することも可能である。具体的には、例えば3Dスキャナを用いて取得された被写体Pの3次元モデル(によって表される形状)と最も近い形状を表す3次元モデルを格納部15に格納されている3次元モデルの中から特定することによって、被写体Pの体型βh及び姿勢θhを推定することができる。
再び図4に戻ると、姿勢受付部103は、上記した目標姿勢を示す姿勢データを受け付ける(ステップS3)。なお、姿勢データ(によって示される目標姿勢)は、例えば仮想試着において試着対象となる衣服を着用していたマネキンの姿勢θ´及び向きM´を含み、例えば当該マネキン等から予め求められているものとする。
具体的には、目標姿勢をとっているマネキンのデプス画像を取得し、当該デプス画像に対して上記したステップS2の処理に相当する処理を実行することによって、当該マネキンの形状に対応する体型、姿勢及び向きを取得する(推定する)ことができる。このように取得された体型、姿勢及び向きのうちの姿勢及び向きを姿勢θ´及び向きM´(つまり、姿勢データ)として用いる。この場合、姿勢受付部103は、姿勢´及び向きM´を含む姿勢データを受け付ける。
なお、上記したように取得された向きM´は変更されてもよい。具体的には、例えば第1撮像部13に対して正面を向いている向きM´が取得された場合、当該M´は、第1撮像部13に対して横方向を向いている向きM´´に変更されても構わない。この場合、姿勢受付部103は、姿勢θ´及び向きM´´を含む姿勢データを受け付ける。上述したように回転台20に乗っている被写体Pを回転させながら撮像する場合には、回転台20の回転角度に応じてM´の値を変更するようにしてもよい。また、姿勢θ´を任意の姿勢θ´´に変更(修正)可能な構成であってもよい。
ここでは、マネキンのデプス画像から予め求められた姿勢θ´及び向きM´が姿勢データとして用いられるものとして説明したが、例えば人物のデプス画像から求められた姿勢及び向きが姿勢データとして用いられてもよい。例えば過去の被写体P(または当該被写体P以外の人物)のデプス画像から求められた姿勢及び向きを姿勢θ´及び向きM´として用いることも可能である。なお、過去の被写体Pのデプス画像は、過去に当該被写体Pが画像処理システム10を利用した際に当該画像処理システム10(例えば、格納部15等)に蓄積されているものとする。この場合、このように蓄積された過去の被写体Pのデプス画像から求められる姿勢及び向きの中から、目標姿勢(姿勢θ´及び向きM´)として用いる姿勢及び向きを被写体Pが選択可能な構成としてもよい。これによれば、例えば過去にトップスについて仮想試着をしたときの被写体Pの姿勢と同様の姿勢でボトムスについての仮想試着をすること等が可能となる。
また、デプス画像に基づくことなく、姿勢データに含まれる姿勢θ´及び向きM´を例えば被写体Pが直接指定することができるようにしてもよい。
モデル選択部104は、格納部15に格納されている複数の3次元モデルの中から、目標3次元モデルを選択する(ステップS4)。具体的には、モデル選択部104は、図6に示すように、被写体3次元モデルによって表される形状に対応する体型(つまり、姿勢推定部102によって推定された被写体Pの体型)βhと、姿勢受付部103によって受け付けられた姿勢データに含まれる姿勢θ´及び向きM´(目標姿勢)とに対応する形状を表す目標3次元モデルを選択する。目標3次元モデルは、格納部15に格納されている被写体Pの体型βh及び姿勢データに含まれる姿勢θ´に対応する3次元モデルを向きM´に基づいて回転させた3次元モデルである。なお、事前に用意されていない場合、被写体の体型βhの3次元モデルを、姿勢θ´及び向きM´を用いて変形して用いてもよい。
次に、姿勢ずれ評価部105は、被写体Pのデプス画像に基づいて取得された被写体3次元モデルとモデル選択部104によって選択された目標3次元モデルとの間の姿勢のずれを評価する(検出する)処理を実行する(ステップS5)。この場合、姿勢ずれ評価部105は、被写体3次元モデル及び目標3次元モデルの各々によって表される形状間のずれ(姿勢ずれ)の量を表す評価値を算出する。姿勢ずれ評価部105によって算出される評価値は、値が小さいほど姿勢ずれが小さいことを表すものとする。
なお、評価値(姿勢ずれの量)は、図7に示すように、被写体3次元モデル及び目標3次元モデルの各々によって表される形状における部位(区分された部位)毎に算出される。これによれば、例えば足の位置、脚の開き方、腰の位置、上半身(腕等)の位置、頭の位置、肩の向き、左右の肘の位置及び左右の手の位置等のずれの量が、評価値として算出される。
ここで、図8を参照して、姿勢ずれ評価部によって算出される評価値について具体的に説明する。ここでは、被写体3次元モデル301と目標3次元モデル302との間の腕の部位における姿勢ずれを表す評価値を算出する場合について説明する。なお、図8においては、便宜的に、目標3次元モデル302の腕の部位以外の部分は省略されている。
この場合、姿勢ずれ評価部105は、例えば被写体3次元モデル301における腕の部位を構成する頂点Viを含む直線Liと目標3次元モデル302における腕の部位を構成する複数の頂点によって形成される面との交点Piを求める。
なお、直線Liの向きは、頂点Viを含む複数の頂点によって形成される面の法線方向であるものとする。被写体3次元モデル301において頂点Viは複数の面を形成するが、この場合、直線Liの方向は、当該頂点Viによって形成される複数の面の各々の法線方向の平均に相当する方向であるものとする。
また、直線Liが複数の面と交差する場合があるが、被写体3次元モデル301及び目標3次元モデル302において複数の頂点によって形成される各面には例えば図7に示すような人体上のどの部位に属するかという情報や表裏等が定義されており、交点Piを求める対象となる目標3次元モデルにおける面は判別可能であるものとする。具体的には、例えば頂点Viが被写体3次元モデル301によって表される人体形状の腕の部位の外側(胴体とは逆側)の面を形成している場合には、直線Liが目標3次元モデル302によって表される人体形状の腕の部位の外側の面及び内側(胴体側)の面の両方と交差する場合であっても、直線Liと当該腕の部位の外側の面との交点Piが求められる。
姿勢ずれ評価部105は、頂点Viの3次元位置及び交点Piの3次元位置に基づいて、頂点Viから交点Piまでの距離(長さ)lを算出する。なお、交点Piが存在しない(つまり、直線Liが目標3次元モデルと交差しない)場合には、距離lは所定の最大値mあるいは目標3次元モデル上の最も近い頂点までの距離とする。このような距離lを被写体3次元モデルにおける腕の部位を構成する全ての頂点について算出し、当該算出された距離lの平均値を当該腕の部位の評価値(姿勢ずれの量)とする。本実施形態においては、このように被写体3次元モデルを基準として評価値が算出される。
ここでは、被写体3次元モデルを基準として評価値を算出するものとして説明したが、目標3次元モデルを基準として評価値が算出されてもよい。この場合には、目標3次元モデル302における腕の部位を構成する頂点を含む直線と被写体3次元モデル301における腕の部位を構成する複数の頂点によって形成される面との交点が求められる。
また、頂点Viから交点Piまでの間の距離l(の平均値)を評価値として用いるものとして説明したが、当該距離lは、頂点Viから目標3次元モデルを構成する複数の頂点によって形成される任意の面までの最短距離としてもよい。また、距離lは、被写体3次元モデル301を構成する頂点Viと、当該頂点Viに対応する目標3次元モデルを構成する頂点との間の距離としてもよい。上記したように異なる3次元モデル間において対応する頂点には同一の頂点番号が付加されているため、被写体3次元モデル301を構成する頂点Viに対応する目標3次元モデルを構成する頂点は、当該頂点Viに付加されている頂点番号に基づいて特定することができる。
なお、図8においては、説明のために被写体3次元モデル301と目標3次元モデル(の腕の部位)302が離して示されているが、上述した評価値は、例えば被写体3次元モデル301の全体あるいは一部の頂点あるいは面の中心点と目標3次元モデル302の全体あるいは一部の頂点あるいは面の中心点とを一致させた状態で算出される。
ここで、被写体3次元モデル301は第1撮像部13によって撮像された被写体Pを含むデプス画像に基づいて取得されたものであるため、第1撮像部13の方向を向いている(つまり、第1撮像部13によって撮像された)被写体Pの面以外の面(の形状)は、実際の被写体P(の形状)とは一致していない可能性がある。このため、ステップS5においては、第1撮像部13によって撮像された面を形成する頂点Viから交点Piまでの距離lのみに基づいて評価値を算出するようにしてもよいし、当該第1撮像部13によって撮像された面以外の面を形成する頂点Viからの交点Piまでの距離lについては評価値に対して与える影響を低くするように重みを下げてもよい。
なお、本実施形態においてはモデルデータとして3次元モデル(3次元ポリゴンデータ)が用いられるものとして説明したが、モデルデータは、被写体Pの姿勢と目標姿勢との姿勢ずれの量(つまり、評価値)を算出可能なデータであればよい。具体的には、モデルデータは、例えば被写体Pまたは目標姿勢をとっているマネキンを第1撮像部13を用いて撮像することによって取得されるデプス画像(データ)であってもよいし、当該デプス画像を構成する画素毎に3次元座標(X、Y及びZ座標)が規定された点群データであってもよい。
評価値は、上記した3次元モデル、デプス画像及び点群データのうちの2つ以上を用いて算出されるような構成であってもよい。また、被写体Pの姿勢と目標姿勢とを比較可能な形式に変換することによって、例えば被写体Pを含むデプス画像及び目標3次元モデルのような異なる属性のモデルデータから評価値が算出されるような構成とすることも可能である。
更に、被写体Pの体型βhを用いることなく、被写体Pの姿勢θh及び向きMhと、姿勢データに含まれる姿勢θ´及び向きM´(目標姿勢)とを比較することによって評価値が算出されてもよい。この場合、被写体Pの向きMhは、上述した姿勢推定部102によって体型βh及び姿勢θhとともにデプス画像に基づいて推定されていればよい。
ここで、通知情報生成部106は、部位毎に算出された評価値に基づいて姿勢ずれを被写体Pに通知する必要があるか否かを判定する(ステップS6)。この場合、通知情報生成部106は、部位毎に算出された評価値(姿勢ずれの量)の各々が予め定められた値(以下、閾値と表記)以下であるか否かを判定する。評価値が閾値以下であることは、被写体3次元モデル及び目標3次元モデルにおいて、当該評価値が算出された部位の姿勢ずれが小さい(または、当該部位の姿勢が一致している)ことを意味する。一方、評価値が閾値以下でないことは、被写体3次元モデル及び目標3次元モデルにおいて、当該評価値が算出された部位の姿勢ずれが大きいことを意味する。
ステップS6においては、部位毎に算出された評価値のうちの少なくとも1つが閾値以下でない場合、姿勢ずれを被写体Pに通知する必要があると判定される。一方、部位毎に算出された評価値の全てが閾値以下である場合、姿勢ずれを被写体Pに通知する必要がないと判定される。
ここで、本実施形態における画像処理システム10は上述したように被写体Pが仮想試着をする際に用いられるが、仮想試着における試着対象の衣服が着用される位置によっては、被写体Pの全ての部位を目標姿勢と一致させる必要がある場合もあるし、被写体Pの一部の部位のみを目標姿勢と一致させればよい場合もある。
具体的には、試着対象の衣服がトップスである場合には、被写体Pの少なくとも上半身のみを目標姿勢と一致させればよい。また、試着対象の衣服がボトムスである場合には、被写体Pの少なくとも下半身のみを目標姿勢と一致させればよい。
このため、本実施形態においては、試着対象の衣服が着用される位置に応じた部位のみが姿勢ずれの評価対象となる(つまり、当該部分のみの姿勢ずれが検出される)ように、評価値が算出される部位毎に異なる閾値が設定されていてもよい。例えば被写体Pの上半身のみを評価対象とする場合には下半身の閾値を高く設定すればよいし、被写体Pの下半身のみを評価対象とする場合には上半身の閾値を高く設定すればよい。
更に、仮想試着における試着対象の衣服の種類によっては、許容範囲内であれば被写体Pの姿勢と目標姿勢との間にずれが生じていてもよい場合がある。
具体的には、試着対象の衣服がインナーまたはタイトな衣服である場合には、姿勢ずれによって試着画像において被写体P(の領域)が衣服(の領域)からはみ出してしまうため、被写体Pの姿勢と目標姿勢との間の姿勢ずれの許容範囲は小さい。一方、試着対象の衣服がアウターまたはルーズな衣服である場合には、姿勢ずれが生じていたとしても試着画像において被写体P(の領域)が衣服(の領域)からはみ出さない場合があり、被写体Pの姿勢と目標姿勢との間の姿勢ずれの許容範囲は大きい。このため、本実施形態においては、試着対象の衣服の種別に応じて、異なる閾値が設定されてもよい。具体的には、試着対象の衣服がインナーまたはタイトな衣服である場合には閾値を低く設定すればよいし、試着対象の衣服がアウターまたはルーズな衣服である場合には閾値を高く設定すればよい。
姿勢ずれを被写体Pに通知する必要があると判定された場合(ステップS6のYES)、通知情報生成部106は、姿勢ずれ評価部105によって算出された評価値に基づいて、姿勢ずれを被写体Pに通知するための通知情報を生成する(ステップS7)。この場合、通知情報生成部106は、評価値が算出された部位毎に通知情報を生成する。
次に、画像生成部107は、第2撮像部14によって撮像された被写体Pを含む被写体画像(カラー画像)上にステップS8において生成された通知情報を重畳した通知画像を生成する(ステップS8)。
表示処理部108は、ステップS9において生成された通知画像を表示部12に表示する(ステップS9)。
ここで、ステップS9において表示される通知画像について説明する。図9に示すように、通知画像においては、当該通知画像中の被写体Pの各部位について算出された評価値に基づいて生成された通知情報として、当該評価値に応じたメッセージ(文字列)401等が当該部位の付近に表示される。なお、通知画像において、通知情報として評価値が表示されても構わない。
また、図9に示すように、通知画像においては、例えば目標3次元モデルのシルエット(当該目標3次元モデルによって表される形状の輪郭線)402が案内画像として表示されてもよい。なお、目標3次元モデルのシルエット402は、例えば目標3次元モデルをスクリーン面に投影すること等によって得ることができる。目標3次元モデルのシルエット402は、例えば被写体画像中の被写体P上の特徴点あるいは特徴領域と当該シルエット402上の特徴点あるいは特徴領域とが一致する位置に重畳表示される。
なお、目標3次元モデルのシルエット402は、被写体Pに姿勢ずれを通知可能なように評価値に基づいて加工されていてもよい。具体的には、例えば姿勢ずれが生じている部位を被写体Pに通知するためのマークが付されていてもよいし、当該部位について算出された評価値に応じた色彩が目標3次元モデルのシルエット402における当該部位に付与されていてもよい。
また、通知画像においては、目標3次元モデルのシルエットは、全体(全身)が表示されてもよいし、一部のみが表示されてもよい。
図10に示すように、目標3次元モデルのシルエット402に代えて、目標3次元モデル(3次元ポリゴンデータ)403が表示されてもよい。
すなわち、本実施形態において姿勢ずれを通知するために出力される通知情報(つまり、通知画像)は、姿勢ずれ評価部105によって算出された評価値、当該評価値に基づいて生成されたメッセージ、または当該評価値に基づいて加工された目標3次元モデル(によって表される形状)等を含む。
また、通知画像には、被写体Pの姿勢を目標姿勢と一致させるために必要な情報として、例えば被写体Pが各部位を移動させるべき方向が例えば矢印等により表示されても構わない。更に、各部位を移動させる距離や位置が表示されても構わない。具体的には、腕の部位において姿勢ずれが生じている場合には、通知画像上で、腕の関節を曲げる方向や当該腕の関節の位置等を表示することができる。また、現在の腕の角度と目標となる腕の角度(数値)をグラフまたはメーター等で示すことも可能である。
なお、上下及び左右方向(つまり、第1撮像部13及び第2撮像部14の撮影方向に直交する方向)の姿勢ずれは通知画像上で比較的容易に把握することが可能であるが、奥行き方向(つまり、第1撮像部13及び第2撮像部14の撮影方向)の姿勢ずれは通知画像上で把握することは困難である。したがって、通知画像においては、奥行き方向の姿勢ずれが生じている部位についてのみ評価値(メッセージ)または移動方向等が表示されるようにしてもよい。これによれば、全ての部位について評価値または移動方向等を表示する場合と比較して、姿勢ずれを把握することが困難な部位についての当該姿勢ずれの視認性を向上させることができる。
ここでは、被写体画像上に通知情報を重畳した通知画像を表示することによって当該通知情報が出力(通知)されるものとして説明したが、当該通知情報は、画像としてではなく音声等で出力されてもよい。この場合、被写体画像が表示部12に表示された状態で、例えば評価値等に基づいて生成される「もう少し右手を前に出してください。」または「もう少し左腕を開いて下さい。」等のメッセージが音声で出力されればよい。なお、通知情報は、画像及び音声の組み合わせとして出力されてもよい。具体的には、被写体画像上に目標3次元モデルを重畳した通知画像を表示するとともに、上記したメッセージを音声で出力する構成としてもよい。また、通知情報は、姿勢ずれが生じているか否かを被写体Pに通知するための効果音として出力されてもよい。
すなわち、本実施形態において、通知情報は、姿勢ずれを被写体Pが知覚可能な情報として生成される。
上記したステップS9の処理が実行されると、ステップS1に戻って処理が繰り返される。
ここで、被写体Pは、表示部12に表示された通知画像を参照しながら当該被写体Pの姿勢を目標姿勢(目標3次元モデルによって表される形状)と一致するように修正することができる。このように姿勢が修正された後にステップS1以降の処理が実行された場合には、ステップS6において姿勢ずれを被写体Pに通知する必要がないと判定される。
このようにステップS6において姿勢ずれを被写体Pに通知する必要がないと判定された場合(ステップS6のNO)、画像取得部101は、第2撮像部14によって撮像された被写体Pを含む被写体画像(カラー画像)を取得する(ステップS10)。画像取得部101は、第2撮像部14によって撮像された被写体Pを含む被写体画像(カラー画像)にあわせて第1撮像部13によって出力された被写体Pを含む被写体画像(デプス画像)や、姿勢推定部102で推定された被写体Pの体型及び姿勢を取得してもよい。
画像取得部101によって取得された被写体画像は、例えば格納部15に格納される(ステップS11)。
すなわち、本実施形態においては、被写体3次元モデル及び目標3次元モデルの各々によって表される形状間のずれの量が閾値以下である(つまり、被写体Pの姿勢が目標姿勢と一致している)タイミングで第2撮像部14によって撮像された被写体Pを含む被写体画像が格納部15に格納される。被写体Pの姿勢が目標姿勢と一致している(または被写体画像が格納部15に格納された)旨は、音声または効果音等で被写体Pに通知されてもよい。なお、被写体画像は目標姿勢と姿勢が一致している被写体Pを含むものであればよく、当該被写体画像が格納部15に格納されるタイミング(時刻)は、当該被写体Pが撮像された時刻と異なっていてもよい。
ステップS11において格納部15に格納された被写体画像は、上述した仮想試着における試着画像の生成に用いられる。具体的には、格納部15において格納された被写体画像上に試着対象の衣服を含む衣服画像を重畳した試着画像は、例えば被写体P(ユーザ)が使用するスマートフォン及びタブレットコンピュータのような携帯端末上で生成及び表示することができる。この場合、格納部15に格納された被写体画像及び試着対象の衣服を含む衣服画像は、例えば携帯端末に対するユーザの操作に応じて当該携帯端末に送信されればよい。これによれば、ユーザは、当該ユーザが試着対象の衣服を着用した状態(つまり、当該衣服を仮想試着した状態)を携帯端末上で確認することができる。なお、試着画像は、画像処理装置100内で生成されて表示部12に表示されてもよいし、携帯端末以外の他の外部機器上で生成及び表示されても構わない。
本実施形態の使用態様の一例として、例えば雑誌等におけるファッションモデルが着用している衣服を含む衣服画像を予め生成しておき、当該ファッションモデルの姿勢を示す姿勢データを受け付けるものとする。これによれば、被写体Pは、画像処理システム10を利用することによって、雑誌等においてファッションモデルが着用している衣服を当該ファッションモデルと同様の姿勢で仮想的に試着することが可能となる。
上記した被写体画像は、格納部15ではなく、外部のサーバ装置等に格納される(アップロードされる)構成であってもよい。
なお、図4に示す処理においては、例えば足の位置、脚の開き方、腰の位置、上半身の位置、頭の位置、肩の向き、左右の肘の位置及び左右の手の位置等の被写体Pの部位毎の姿勢ずれ(を通知するための通知情報)が順番に通知(出力)されてもよい。この場合、被写体Pのある部位の姿勢ずれが目標3次元モデルによって表される形状と一致するように修正された後に、次の部位の姿勢ずれを通知するための通知情報が出力されればよい。例えば足の位置のずれを通知するための通知情報が出力された後に、脚の開き方のずれを通知するための通知情報が出力される等、地面に接している部位から関節をたどるような順番で通知情報が出力されるようにすることも可能である。
上記したように本実施形態においては、被写体Pの体型及び姿勢に対応する形状を表す被写体3次元モデル(第1のモデルデータ)を取得し、当該被写体Pの体型及び目標となる姿勢に対応する形状を表す目標3次元モデル(第2のモデルデータ)を取得し、当該被写体3次元モデル及び当該目標3次元モデルの各々によって表される形状間のずれを表す評価値を算出し、当該評価値に基づいて当該ずれを通知するための通知情報を生成し、当該通知情報を出力する。この場合、被写体画像上に通知情報を重畳することによって生成された通知画像が表示部12に表示される。また、通知情報は、評価値、当該評価値に基づいて生成されたメッセージ、または当該評価値に基づいて加工された目標3次元モデル等を含む。
本実施形態においては、このような構成により、被写体Pの姿勢と所定の姿勢(目標姿勢)とのずれを通知する(通知画像を表示する)ことが可能となるため、被写体Pは、当該通知画像を見ながら体幹、腕及び脚等を動かすことによって目標姿勢と同様の姿勢をとることができる。換言すれば、本実施形態によれば、被写体Pの姿勢と目標姿勢(予め生成された衣服画像に対応する姿勢)とが一致するように被写体Pを誘導することができる。
また、本実施形態においては、評価値が閾値以下であると判定されるタイミングで第2撮像部14によって撮像された被写体Pを含む被写体画像を格納部15に格納する。本実施形態においては、このような構成により、姿勢が目標姿勢と一致した状態の被写体Pを含む被写体画像を記録しておくことが可能となるため、このような被写体画像を用いることによって精度の高い試着画像を生成及び表示することが可能となる。
更に、本実施形態においては、部位毎に評価値を算出し、当該部位毎に算出された評価値の各々が閾値以下であるか否かを判定する構成により、姿勢ずれの有無を部位毎に評価(検出)することが可能となる。また、閾値を部位毎に設定することにより、例えば被写体Pに通知すべき部位の姿勢ずれのみを検出することが可能となる。
また、本実施形態においては、被写体Pの部位毎に生成された通知情報を段階的に(順番に)出力する(つまり、通知画像を段階的に表示する)ことにより、被写体Pは姿勢ずれを部位毎に段階的に修正することが可能となる。更に、通知情報を例えば地面に接している部位(足の位置等)から関節をたどるような順で出力していくことにより、被写体Pはより安定した姿勢を保ちながら各部位のずれを修正することが可能となる。
本実施形態においては、1つの姿勢データによって示される目標姿勢と被写体Pの姿勢とを一致させるものとして説明したが、例えば複数の姿勢データを用意しておき、被写体Pの姿勢を複数の目標姿勢の各々に順次誘導するような構成とすることも可能である。この場合、姿勢データ毎に図4に示す処理が実行されればよい。これによれば、複数の目標姿勢の各々と同様の姿勢の被写体Pを含む被写体画像を順次記録していくことが可能となる。
なお、本実施形態においては、被写体Pが人物であるものとして主に説明したが、被写体Pはマネキン等であってもよい。この場合、本実施形態における画像処理システム10は、現在のマネキンの姿勢を所定の姿勢に一致させる場合に用いることができる。所定の姿勢とは、予め定められている姿勢及び過去に撮像された際のマネキンの姿勢等を含む。更に、複数の現場で異なるマネキンを撮像するような場合には、ある現場のマネキンの姿勢を他の現場のマネキンの姿勢に合わせるような用途に利用することも可能である。
また、本実施形態に係る画像処理装置100は、複数の装置を含む構成であっても構わない。具体的には、上述した図4に示す一部の処理が筐体11内部に設けられている装置によって実行され、図4に示す残りの処理が筐体11外部に設けられている装置(例えば、サーバ装置)によって実行されるような構成としてもよい。
更に、本実施形態における画像処理システム10は、図11に示すように、携帯端末500として実現されても構わない。このように画像処理システム10が携帯端末500として実現される場合、携帯端末500は、当該画像処理システム10における筐体11、表示部12、第1撮像部13及び第2撮像部14にそれぞれ相当する本体501、表示部502、第1撮像部503及び第2撮像部504を備える。また、上述した画像処理装置(図示せず)は、本体501の内部に設けられている。画像処理装置の構成は、上述した図2と同一である。
このような携帯端末500によれば、上述した図4に示す処理と同様の処理を実行することが可能であるため、被写体Pの姿勢が目標姿勢と一致するように被写体Pを誘導することが可能となる。
ここで、被写体Pが携帯端末500を利用する場合、被写体Pは、携帯端末500に備えられる第1撮像部503及び第2撮像部504によって撮像される必要がある。このため、被写体Pは、図12に示すように、例えば携帯端末500が先端部に取り付けられた棒状の器具510を把持することによって携帯端末500を利用することができる。しかしながら、この場合には、器具510を把持する腕は動かすことができないため、上述した通知画像が表示部502に表示されたとしても、被写体Pの姿勢を目標姿勢と一致させることは困難である。
そこで、携帯端末500は、特定の部位(ここでは、左腕)を姿勢ずれの評価対象から除外する機能を有するものとする。これによれば、特定の部位が目標姿勢と一致していない場合であっても、他の部位が目標姿勢と一致している場合には、被写体画像を格納部15に格納することが可能となる。
評価対象から除外される特定の部位は、例えば被写体Pによって指定されるものとする。また、例えば携帯端末500は図12に示すような態様で使用されることが想定されるため、他の部位と比較して第1撮像部503または第2撮像部504の近傍に位置する部位(ここでは、左腕)が自動的に評価対象から除外されてもよい。
本実施形態の処理はコンピュータプログラムによって実現することができるため、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10…画像処理システム、11…筐体、12…表示部、13…第1撮像部、14…第2撮像部、15…格納部、20…回転台、100…画像処理装置、101…画像取得部、102…姿勢推定部、103…姿勢受付部、104…モデル選択部、105…姿勢ずれ評価部、106…通知情報生成部、107…画像生成部、108…表示処理部。

Claims (11)

  1. 第1被写体の形状を表す第1のデータを取得する第1の取得手段と、
    前記第1被写体とは異なる第2被写体の形状を表す第2のデータを取得する第2の取得手段と、
    前記第1のデータ及び前記第2のデータ間にずれが生じているかを判定する判定手段と、
    前記ずれが生じていると判定された場合に、前記ずれを通知するための通知情報を出力する出力手段と
    前記第1のデータ及び前記第2のデータの各々によって表される形状間のずれの量を表す評価値を算出する算出手段と、
    前記評価値が閾値以下であると判定されるタイミングで撮像部によって撮像された前記第1被写体を含む被写体画像を格納する格納手段と
    を具備する画像処理装置。
  2. 前記撮像部によって撮像された前記第1被写体を含む被写体画像上に前記通知情報を重畳した通知画像を生成する生成手段を更に具備し、
    前記出力手段は、前記通知画像を出力する
    請求項1記載の画像処理装置。
  3. 前記算出手段は、前記第1のデータ及び前記第2のデータによって表される形状における部位毎に前記評価値を算出し、
    前記格納手段は、前記部位毎に算出された評価値の各々が閾値以下であると判定されるタイミングで前記撮像部によって撮像された前記第1被写体を含む被写体画像を格納する
    請求項記載の画像処理装置。
  4. 前記閾値は、前記部位毎に定められている請求項記載の画像処理装置。
  5. 前記判定手段は、前記第1被写体の第1部位について前記ずれが生じているかを判定する請求項1又は2記載の画像処理装置。
  6. 前記通知情報は、前記第1被写体の第1部位に関する前記ずれを通知するための情報である請求項1又は記載の画像処理装置。
  7. 前記算出手段は、前記第1のデータ及び前記第2のデータの各々によって表される形状間のずれの量を表す評価値を、当該形状における部位毎に算出し
    前記出力手段は、前記部位毎の通知情報を段階的に出力する
    請求項1又は2記載の画像処理装置。
  8. 記通知情報は、前記評価値、当該評価値に基づいて生成されたメッセージ、または当該評価値に基づいて加工された前記第2のデータを含む
    請求項1又は2記載の画像処理装置。
  9. 前記第2被写体の形状は、前記第1被写体が目標とする形状である請求項1乃至の何れか一項に記載の画像処理装置。
  10. 画像処理装置が実行する画像処理方法であって、
    第1被写体の形状を表す第1のデータを取得するステップと、
    前記第1被写体とは異なる第2被写体の形状を表す第2のデータを取得するステップと、
    前記第1のデータ及び前記第2のデータ間にずれが生じているかを判定するステップと、
    前記ずれが生じていると判定された場合に、前記ずれを通知するための通知情報を出力するステップと
    前記第1のデータ及び前記第2のデータの各々によって表される形状間のずれの量を表す評価値を算出するステップと、
    前記評価値が閾値以下であると判定されるタイミングで撮像部によって撮像された前記第1被写体を含む被写体画像を格納手段に格納するステップと
    を具備する画像処理方法。
  11. 画像処理装置のコンピュータによって実行されるプログラムであって、
    前記コンピュータに、
    第1被写体の形状を表す第1のデータを取得するステップと、
    前記第1被写体とは異なる第2被写体の形状を表す第2のデータを取得するステップと、
    前記第1のデータ及び前記第2のデータ間にずれが生じているかを判定するステップと、
    前記ずれが生じていると判定された場合に、前記ずれを通知するための通知情報を出力するステップと
    前記第1のデータ及び前記第2のデータの各々によって表される形状間のずれの量を表す評価値を算出するステップと、
    前記評価値が閾値以下であると判定されるタイミングで撮像部によって撮像された前記第1被写体を含む被写体画像を格納手段に格納するステップと
    を実行させるためのプログラム。
JP2015121094A 2015-06-16 2015-06-16 画像処理装置、画像処理方法及びプログラム Active JP6548967B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015121094A JP6548967B2 (ja) 2015-06-16 2015-06-16 画像処理装置、画像処理方法及びプログラム
US14/941,881 US10360444B2 (en) 2015-06-16 2015-11-16 Image processing apparatus, method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015121094A JP6548967B2 (ja) 2015-06-16 2015-06-16 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017004464A JP2017004464A (ja) 2017-01-05
JP2017004464A5 JP2017004464A5 (ja) 2017-07-20
JP6548967B2 true JP6548967B2 (ja) 2019-07-24

Family

ID=57587060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015121094A Active JP6548967B2 (ja) 2015-06-16 2015-06-16 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10360444B2 (ja)
JP (1) JP6548967B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6548967B2 (ja) * 2015-06-16 2019-07-24 株式会社東芝 画像処理装置、画像処理方法及びプログラム
US11127163B2 (en) * 2015-06-24 2021-09-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Skinned multi-infant linear body model
EP3364644A1 (en) * 2017-02-20 2018-08-22 Koninklijke Philips N.V. Image capturing
JP6987508B2 (ja) * 2017-02-20 2022-01-05 オムロン株式会社 形状推定装置及び方法
US10885622B2 (en) 2018-06-29 2021-01-05 Photogauge, Inc. System and method for using images from a commodity camera for object scanning, reverse engineering, metrology, assembly, and analysis
CN112703286A (zh) 2018-09-12 2021-04-23 Lg电子株式会社 衣物登记装置和衣物推荐装置及包括这些装置的线上***
CN111353844A (zh) * 2018-12-24 2020-06-30 上海时元互联网科技有限公司 虚拟试衣的舒适度评估方法及***、存储介质及终端
KR20210099508A (ko) * 2019-01-03 2021-08-12 엘지전자 주식회사 신체 측정 디바이스 및 그 제어 방법
KR102663906B1 (ko) 2019-01-14 2024-05-09 삼성전자주식회사 아바타를 생성하기 위한 전자 장치 및 그에 관한 방법
KR102058421B1 (ko) * 2019-01-31 2020-01-22 주식회사 팀엘리시움 대상물의 표면 메시를 획득하는 방법 및 이를 이용한 장치
JP2021135337A (ja) 2020-02-25 2021-09-13 キヤノン株式会社 電子機器およびその制御方法
WO2022269741A1 (ja) * 2021-06-22 2022-12-29 株式会社Vrc 情報処理装置、3dシステム、及び情報処理方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251078A (ja) 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
JP4221808B2 (ja) 1999-03-30 2009-02-12 コニカミノルタセンシング株式会社 3次元データ入力方法及び装置
US7046838B1 (en) 1999-03-30 2006-05-16 Minolta Co., Ltd. Three-dimensional data input method and apparatus
JP4473754B2 (ja) 2005-03-11 2010-06-02 株式会社東芝 仮想試着装置
US8139067B2 (en) * 2006-07-25 2012-03-20 The Board Of Trustees Of The Leland Stanford Junior University Shape completion, animation and marker-less motion capture of people, animals or characters
CN102439603B (zh) * 2008-01-28 2014-08-13 耐特维塔有限公司 用于三维建模的采样方法
GB2473503B (en) * 2009-09-15 2015-02-11 Metail Ltd System and method for image processing
US9240067B2 (en) * 2009-10-15 2016-01-19 Yeda Research & Development Co. Ltd. Animation of photo-images via fitting of combined models
US8525828B1 (en) * 2010-05-05 2013-09-03 Amazon Technologies, Inc. Visualization of fit, flow, and texture of clothing items by online consumers
US8908928B1 (en) * 2010-05-31 2014-12-09 Andrew S. Hansen Body modeling and garment fitting using an electronic device
US8976230B1 (en) * 2010-06-28 2015-03-10 Vlad Vendrow User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
US20130171601A1 (en) 2010-09-22 2013-07-04 Panasonic Corporation Exercise assisting system
US8307560B2 (en) * 2010-10-08 2012-11-13 Levi Strauss & Co. Shaped fit sizing system
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
US20130110666A1 (en) * 2011-10-28 2013-05-02 Adidas Ag Interactive retail system
JP2014055814A (ja) 2012-09-11 2014-03-27 Keyence Corp 形状測定装置、形状測定方法および形状測定プログラム
JP2014179135A (ja) * 2014-07-01 2014-09-25 Toshiba Corp 画像処理装置、方法、及びプログラム
JP6338966B2 (ja) * 2014-08-08 2018-06-06 株式会社東芝 仮想試着装置、仮想試着システム、仮想試着方法、およびプログラム
JP6548967B2 (ja) * 2015-06-16 2019-07-24 株式会社東芝 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2017004464A (ja) 2017-01-05
US10360444B2 (en) 2019-07-23
US20160371542A1 (en) 2016-12-22

Similar Documents

Publication Publication Date Title
JP6548967B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102346320B1 (ko) 고속 3d 모델 피팅 및 인체 측정법
US9928411B2 (en) Image processing apparatus, image processing system, image processing method, and computer program product
US9778464B2 (en) Shape recognition device, shape recognition program, and shape recognition method
JP5430565B2 (ja) 電子ミラー装置
US20160071322A1 (en) Image processing apparatus, image processing system and storage medium
JP6373026B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
KR20150079585A (ko) 일련의 2d 이미지로부터 정확한 신체 사이즈 치수를 도출하는 시스템 및 방법
CN110956695B (zh) 信息处理装置、信息处理方法和存储介质
KR20150085797A (ko) 정보처리장치 및 정보처리방법
JP6262105B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
TW201738847A (zh) 組裝指示系統及組裝指示方法
EP2947549A1 (en) Apparartus and method for navigating through volume image
CA3018886C (en) Three-dimensional measuring system and measuring method with multiple measuring modes
WO2019039229A1 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
CN111435069B (zh) 测量体积的方法和装置
KR101499699B1 (ko) 깊이 정보 기반으로 사용자의 3차원 신체 모델을 생성하는 방법 및 장치
US20210327160A1 (en) Authoring device, authoring method, and storage medium storing authoring program
JP7341736B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2004030408A (ja) 三次元画像表示装置及び表示方法
CN108764135B (zh) 图像生成方法、装置,及电子设备
JP2019066196A (ja) 傾き測定装置及び傾き測定方法
WO2022081745A1 (en) Real-time rendering of 3d wearable articles on human bodies for camera-supported computing devices
JP6458300B2 (ja) 身体情報取得装置および身体情報取得方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190626

R151 Written notification of patent or utility model registration

Ref document number: 6548967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151