JP5807192B2 - 測定装置および測定方法 - Google Patents

測定装置および測定方法 Download PDF

Info

Publication number
JP5807192B2
JP5807192B2 JP2014528728A JP2014528728A JP5807192B2 JP 5807192 B2 JP5807192 B2 JP 5807192B2 JP 2014528728 A JP2014528728 A JP 2014528728A JP 2014528728 A JP2014528728 A JP 2014528728A JP 5807192 B2 JP5807192 B2 JP 5807192B2
Authority
JP
Japan
Prior art keywords
image information
subject
image
light
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014528728A
Other languages
English (en)
Other versions
JPWO2014112393A1 (ja
Inventor
今村 典広
典広 今村
山形 道弘
道弘 山形
善光 野口
善光 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014528728A priority Critical patent/JP5807192B2/ja
Application granted granted Critical
Publication of JP5807192B2 publication Critical patent/JP5807192B2/ja
Publication of JPWO2014112393A1 publication Critical patent/JPWO2014112393A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/59Transmissivity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Signal Processing (AREA)
  • Dermatology (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • General Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本願は皮膚等の透明度を測定するための装置に関する。
撮像装置を用いて皮膚の透明度あるいは透明感を測定する方法として、特許文献1〜3が開示されている。
特許文献1は、スポット光を皮膚に投射し、スポット光の分布面積と分布状態から皮膚の透明度を判定する方法を開示している。
特許文献2は、筐体の底面のスリットから光を斜めに照射し、皮膚の表面下の拡散光の輝度分布から皮膚の透明度を測定する方法を開示している。
特許文献3は、皮膚表面に接触する開口部を有する投光手段によって光源からの直接光を遮光し、皮膚内部の拡散光を撮像する方法を開示している。
なお、これらの文献にも示されているように、皮膚の透明度あるいは透明感は、皮膚に光を照射し、皮膚の内部から得られる拡散光の量を測定することにより求められる。つまり、本願明細書において、皮膚の透明度の測定とは、光の伝播の度合い(光伝播度)を測定することを意味する。ただし、美容分野における一般的な表現に従って、以下においても、透明度の測定として本開示の測定装置を説明する。
特開2009−213729号公報 特開2009−240644号公報 特開2011−130806号公報
しかしながら、上述した従来の技術は、皮膚の限られた領域の透明度を測定する方法であるため、例えば顔全体のように広い領域の透明度を一度に複数個所において測定することができない。
本願の、限定的ではない例示的なある実施の形態は、皮膚の複数の領域の透明度を一度に測定することのできる測定装置を提供する。
本発明の一態様である、測定装置は、被写体の複数の領域に、光による所定のパターンの像を投影するように構成された投影部と、前記複数の領域を含む前記被写体を撮影するように構成された撮像部と、前記撮像部によって取得した前記被写体の画像情報に基づいて前記被写体の複数の領域における光伝播度を算出し、出力するように構成された演算部とを備える。
上述の一般的かつ特定の態様は、システム、方法およびコンピュータプログラムを用いて実装され、またはシステム、方法およびコンピュータプログラムの組み合わせを用いて実現され得る。
本発明の一態様にかかる測定装置によれば、被写体の複数の領域の透明度を同時に測定することができる。
(a)は、本発明による測定装置の実施の形態1を示す模式図である。(b)は、マスクパターンの一例を示す図である。(c)は、パターンが投影された被写体を示す図である。 実施の形態1における測定装置の透明度測定のフローチャートである。 (a)は、図2のフローチャートのステップS12で取得した画像、(b)はステップS14で取得した画像、(c)はステップS15で取得した画像、(d)はステップS18で取得した画像である。 実施の形態1における皮膚の表面下で拡散する光を模式的に示す断面図である。 (a1)は、実施の形態1における官能的に透明度の高い皮膚の部位における投影パターンの画像であり、(a2)は、(a1)の画像を2値化した画像であり、(b1)は、実施の形態1における官能的に透明度の低い皮膚の部位における投影パターンの画像であり、(b2)は、(b1)の画像を2値化した画像である。 (a)および(b)は、測定装置の実施の形態2の撮像部Aの模式図である。 実施の形態2における測定装置の透明度測定のフローチャートである。 測定装置の実施の形態3の構成で用いる撮像部の模式図である。 (a)および(b)は、測定装置の実施の形態4の構成で用いる撮像部の模式図である。 測定装置の実施の形態5の構成で用いる撮像部の模式図である。 (a)は、実施の形態5で用いる撮像部における光学素子L1sの光学領域D1、D2、D3およびD4を被写体側から見た正面図であり、(b)は、光学素子L1pの光学領域D1、D2、D3およびD4を被写体側から見た正面図である。 実施の形態5で用いる撮像部におけるアレイ状光学素子Kの斜視図である。 (a)は、本実施の形態5で用いる図10に示すアレイ状光学素子Kおよび撮像素子Nを拡大して示す図であり、(b)は、アレイ状光学素子Kと撮像素子N上の画素との位置関係を示す図である。 (a)および(b)は、測定装置の実施の形態6を示す図である。 (a)から(f)は、その他の実施の形態における被写体に投影するパターンを示す図である。 (a)から(c)は、その他の実施の形態における被写体の位置をガイドパターンに合わせて撮影するフローを説明する図である。 (a)から(c)は、その他の実施の形態における、撮像部によって撮像したサブパターンの変位量に基づいて被写体までの距離を測定する方法を説明する図である。 (a)および(b)は、その他の実施の形態における、測定装置の構成を示すブロック図である。
本発明の一態様の概要は以下のとおりである。
本発明の一態様である、測定装置は、被写体の複数の領域に、光による所定のパターンの像を投影するように構成された投影部と、前記複数の領域を含む前記被写体を撮影するように構成された撮像部と、前記撮像部によって取得した前記被写体の画像情報に基づいて前記被写体の複数の領域における光伝播度を算出し、出力するように構成された演算部とを備える。
本発明の他の一態様である、測定装置は、被写体の所定の領域内に、光による複数のサブパターンからなる所定のパターンの像を投影するように構成された投影部と、前記所定の領域を含む前記被写体を撮影するように構成された撮像部と、前記撮像部によって取得した前記被写体の画像情報に基づいて前記所定の領域における光伝播度を算出するように構成された演算部とを備える。
前記撮像部は、前記像が投影された前記被写体の第1の画像情報と、前記像が投影されていない前記被写体の第2の画像情報とを取得し、前記演算部は、前記第1の画像情報と前記第2の画像情報との差分から第3の画像情報を生成し、前記第3の画像情報から前記複数の領域または前記所定の領域における前記被写体の光伝播度を算出してもよい。
前記光は赤色光であり、前記第1の画像情報および前記第2の画像情報はカラー画像情報であってもよい。
前記撮像部は、前記像が投影された前記被写体を撮影することにより、前記被写体を選択的に含む第2の画像情報と、前記被写体に投影された前記像を選択的に含む第3の画像情報とを取得し、前記演算部は、前記第3の画像情報から前記複数の領域または前記所定の領域における前記被写体の光伝播度を算出してもよい。
前記光は近赤外光であり、前記第2の画像情報はカラー画像情報であり、前記第3の画像情報は近赤外光画像情報であってもよい。
前記第2の画像情報および前記第3の画像情報は、前記像が投影された前記被写体を同時に撮影することにより得られていてもよい。
前記撮像部は、可視光を選択的にカットするか、近赤外光を選択的に透過する第1のフィルタ、および、近赤外光を選択的にカットするか、可視光を選択的に透過する第2のフィルタを含み、前記第1のフィルタを用いて前記第3の画像を取得し、前記第2のフィルタを用いて前記第2の画像を取得してもよい。
前記撮像部は、赤色の波長帯域の光を選択的に透過する第1のバンドパスフィルタ、緑赤色の波長帯域の光を選択的に透過する第2のバンドパスフィルタ、青色の波長帯域の光を選択的に透過する第3のバンドパスフィルタおよび近赤外の波長帯域の光を選択的に透過する第4のバンドパスフィルタを含み、前記第1、第2、第3および第4のバンドパスフィルタを用いて、第1、第2、第3および第4の画像情報を取得し、前記第1、第2および第3の画像情報から前記第2の画像を生成し、前記第4の画像情報から前記第3の画像を生成してもよい。
前記光は、第1の偏光軸の方向に振動する偏光光であり、前記撮像部は、前記第1の偏光軸とは異なる第2の偏光軸の方向に振動する偏光光による画像を取得してもよい。
前記演算部は、前記複数の領域または前記所定の領域の光伝播度に基づいて、前記第2の画像情報の前記複数の領域または前記所定の領域の部分を変調し、変調された第2の画像情報を出力してもよい。
前記演算部は、前記第2の画像情報の前記複数の領域または前記所定の領域の部分の色調を変化させてもよい。
測定装置は、前記第2の画像情報または前記変調された第2の画像情報を表示する表示部をさらに備えていてもよい。
前記撮像部と、前記投影部と、前記表示部とは略同一平面に配置されていてもよい。
前記所定のパターンは、前記複数のストライプ状のサブパターンを含んでいてもよい。
前記所定のパターンは、前記複数の領域のそれぞれに投影される格子状のサブパターンを含んでいてもよい。
前記所定のパターンは、前記複数の領域のそれぞれに投影されるアレイ状に配列されたサブパターンを含んでいてもよい。
前記所定のパターンは、前記被写体の顔全体に投影されていてもよい。
前記所定のパターンは、前記顔の両目に相当する位置に前記サブパターンを含まなくてもよい。
前記演算部は、前記表示部に表示するための、前記被写体の両目の位置を示すガイドパターンを生成し、前記演算部は、前記第1の画像情報または前記第2の画像情報における被写体の目の位置を検出し、前記ガイドパターンの位置と前記目の位置とが一致した場合、前記光伝播度を算出してもよい。
前記測定装置は、前記撮像部によって取得した画像情報における前記被写体の両目の間隔に基づいて前記被写体を所定の計測位置に移動させる行動を促す情報を出力する報知部をさらに備えていてもよい。
前記測定装置は、前記投影部と前記撮像部を所定の距離だけ離間して配置し、前記撮像部によって取得した画像情報における前記所定のパターンの位置に基づいて前記被写体を所定の計測位置に移動させる行動を促す情報を出力する報知部をさらに備えていてもよい。
前記測定装置は、前記撮像部によって取得した画像情報に基づいて前記被写体までの距離を測定する距離測定部と、前記測定した被写体までの距離に基づいて前記被写体を所定の計測位置に移動させる行動を促す情報を出力する報知部をさらに備えていてもよい。
前記測定装置は、前記撮像部によって取得した画像情報に基づいて前記被写体までの距離を測定する距離測定部をさらに備え、前記投影部は、前記測定した被写体までの距離に基づいて、前記被写体に投影された所定のパターンの像の合焦度を変化させてもよい。
前記所定のパターンは、前記被写体に投影される距離計測用のサブパターンを含んでいてもよい。
本発明の他の一態様である携帯情報端末は、皮膚の複数の領域に光による所定のパターンの像が投影された被写体を撮影するように構成された撮像部と、前記撮像部によって取得した前記被写体の皮膚の画像情報に基づいて前記被写体の複数の領域における皮膚の光伝播度を算出し、出力するように構成された演算部と、前記撮像部によって撮影された画像情報を表示する表示部とを備える。
本発明の他の一態様である透明度測定方法は、所定のパターンを被写体に投影する第1のステップと、前記被写体を撮像する第2のステップと、前記第2のステップによって取得した前記被写体の画像情報に基づいて前記被写体の複数の位置の光伝播度を出力する第3のステップとを包含する。
以下、図面を参照しながら、本発明による測定装置の実施の形態を説明する。
(実施の形態1)
図1(a)は、本発明による測定装置の実施の形態1の構成を示す模式図である。本実施の形態の測定装置APは、投影部Qと、撮像部Aと、制御部Cと、演算部Gとを備えている。
本実施の形態では、被写体OBは人物の顔である。また、本実施の形態では、室内照明によって、被写体OBが照らされている条件下にて測定装置APを使用する。
投影部Qは、被写体OBの皮膚の複数の領域に光による所定のパターンを投影するように構成されている。このために、投影部Qは、光源Eと、マスクUと、レンズLpとを含む。
光源Eは、以下において説明するように、赤色の波長帯域の光を出射する。光源Eは、白色光を出射する光源および赤色の波長帯域の光を透過するフィルタによって構成されていてもよい。
マスクUは、所定のパターンPTを備えた透光部を有する。所定のパターンPTは、例えば、図1(b)に示すように、複数の領域Rにそれぞれ設けられたストライプ状のサブパターンptを含む。
レンズLpは、マスクUの透光部を透過した光を収束し、所定のパターンPTの像を被写体OBに投影する。
図1(c)は、被写体OBに投影された所定のパターンPTを模式的に示している。図1(c)に示すように所定のパターンの像PT’は、被写体の皮膚の複数の領域R’にそれぞれ投影されたストライプ状のサブパターンpt’を含む。各領域R’におけるストライプ状のサブパターンpt’は、5mm〜15mm間隔で配置され、例えば、幅1mm〜5mmであり、長さ10mm〜30mmの、赤色の波長帯域の光による複数の矩形領域を含む。
撮像部Aは、撮像素子を含み、像PT’が投影された複数の領域R’を含む被写体OBを撮影し、電気信号を出力する。より具体的には、像PT’が投影された被写体OBの皮膚の第1の画像情報および像PT’が投影されていない被写体OBの皮膚の第2の画像情報を取得する。撮像部Aは、赤色の波長帯域を含む光を検出して第1の画像情報および第2の画像情報を生成する。例えば、カラーの第1の画像情報および第2の画像情報を生成する。
演算部Gは、撮像部Aによって取得した被写体OBの皮膚の画像情報に基づいて、被写体OBの複数の領域R’における皮膚の透明度の測定値(光伝播度)を算出し、出力するように構成されている。より具体的には、撮像部Aから受け取る第1の画像情報および第2の画像情報の差分画像情報を生成し、差分画像情報から、複数の領域R’における皮膚の透明度の測定値を算出する。演算部Gは、さらに算出した皮膚の透明度の測定値に基づき、第2の画像情報の複数の領域R’の部分を変調し、変調した結果を出力してもよい。
測定装置APは、演算部Gが算出した透明度の測定値、第1の画像情報、第2の画像情報および変調された画像情報のうち少なくとも1つを表示部Zに出力する。
制御部Cは、測定装置APの上述の各構成要素を制御する。制御部Cおよび演算部Gは、例えば、マイコンなどのコンピュータと以下に説明する透明度の測定手順を実行するためのプログラムとによって構成されていてもよい。
次に、測定装置APの動作および被写体OBの透明度の測定フローを説明する。図2は、測定装置APの動作および透明度測定手順を示すフローチャートである。制御部Cは以下の手順で透明度を測定することができるように、測定装置APの各構成要素を制御する。
まず、ステップS11において、投影部Qを動作させる。これにより、被写体OBの皮膚上に像PT’が投影される。
ステップS12において、撮像部Aによって、像PT’が投影された複数の領域R’を含む被写体OBの皮膚を撮影し、第1の画像情報を取得する。例えば、図3(a)に示す第1の画像情報を取得する。
ステップS13において、投影部Qの動作を停止または中断し、像PT’の投影を停止する。
ステップS14において、撮像部Aによって、像PT’が投影されておらず、かつ、複数の領域R’を含む被写体OBの皮膚を撮影し、第2の画像情報を取得する。例えば、図3(b)に示す第2の画像情報を取得する。
ステップS15において、ステップS12において取得した第1の画像情報と、ステップS14において取得した第2の画像情報との差分画像情報である第3の画像情報を生成する。例えば、第1の画像情報と第2の画像情報とにおける対応する画素の輝度値の差分を求め、第3の画像情報を生成する。図3(c)は第3の画像情報の一例を示している。図3(a)に示す第1の画像情報と図3(b)に示す第2の画像情報とは、被写体OBに動きがなければ、像PT’が投影されているか否かを除いてほぼ同じである。よって、差分を取ることによって、像PT’の投影パターンによる輝度分布のみを抽出することができる。このために、上述のステップS12からステップS14までの時間が短くなるように、制御部Cは、投影部Qと撮像部Aとを制御してもよい。
ステップS16において、ステップS15で生成した差分画像情報に基づいて、パターンが照射された複数の領域R’における皮膚の透明度を測定する。ここで、透明度を測定する具体例について説明する。図4は、皮膚表面に入射した投影光Jが皮膚の表面下で拡散する様子を模式的に示す断面図である。皮膚に入射した光は波長が長いほど皮膚の内部にまで拡散する。図4に示すように、B(青)、G(緑)、R(赤)、NIR(近赤外)の波長の順で遠くまで拡散する。このため、波長が長いほど拡散の度合いがわかりやすくなる。また、皮膚の透明度が高いほど、入射光は遠くまで拡散する。拡散した光の一部は、再び皮膚表面から出射する。
このような原理を確認するため、赤色光によるストライプパターンを皮膚に投影する実験を行った。図5(a1)、(b1)は、図2のステップS11からS15のフローによって取得した第3の画像情報(差分画像情報)であり、それぞれ官能的に透明感が高い皮膚の部位における画像情報と、官能的に透明感が低い皮膚の部位における画像情報である。図5(a1)の画像と図5(b1)の画像を比較すると、図5(a1)の画像の方が、ストライプの幅が広くなっており、拡散の度合いが高いことがわかる。図5(a2)、(b2)は、それぞれ図5(a1)、(b1)を2値化した画像である。図5(a2)の方が白いパターンの幅が太くなっている。したがって、透明度は白いパターンの幅、あるいは白いパターンの幅と黒いパターンの幅との比から求めることができる。
透明度の測定値の計測精度を高めるには、各ストライプの延びる方向に沿って複数個所で、ストライプの幅を求め、平均値を求めたり、同じ領域R’内にある複数のストライプの幅を測定し、平均値を求めればよい。図1(c)に示す被写体OBの場合、顔の4箇所にストライプパターンを投影しているため、4つの領域R’の透明度を計測することができる。ストライプ状のサブパターンの像pt’を投影する領域R’の数を増やしてもよい。
このようにして求めたストライプの幅あるいは複数求めた幅の平均値を透明度の測定値としてもよい。この場合、一般的には、幅の値が大きいほど、投影部Qから投射されたストライプパターンの光が皮膚の内部にまで拡散しているので、透明度が高いことを意味する。あるいは、ストライプの幅とストライプの間隔との比(デューティー比)を求め、透明度の測定値としてもよい。この場合、被写体OBの皮膚上に投影される像PT’が、投影部Qと被写体OBとの距離に依存して、拡大あるいは縮小されても、像PT’の大きさの影響を抑制して、透明度の測定値を求めることができる。また、予め、複数の被写体を用い、ストライプの幅を求め、ストライプの幅と、透明度を示す指標とを対応させたテーブルあるいは対応関係を求める関数を作成し、演算部Gに記憶させておいてもよい。この場合、求めたストライプの幅から、テーブルあるいは関数を用いて透明度の測定値を決定する。
ステップS17において、測定した透明度の測定値に基づいて、ステップS14で取得した第2の画像情報を変調する。具体的には、第1の画像情報の像PT’が投影された領域R’において、第2の画像情報を透明度の測定値に応じて変調する。より具体的には、画像情報の変調とは、例えば透明度の計測値に応じて青色、緑色、赤色等の色調になるように画像情報を変調する。例えば、青色の色調になるように変調するには、カラー画像情報の青色成分のゲインを上げるか、緑色成分と赤色成分のゲインを下げればよい。図3(d)は、変調された第2の画像情報の一例を示している。領域R’内の矩形の領域部分内において第2の画像情報が変調されており、ハッチングの差異が色の差異を示している。
ステップS18において、ステップS17で生成した変調された第2の画像情報を液晶ディスプレイ等の表示部Zに表示する。
このように本実施の形態の測定装置APによれば、被写体の皮膚の複数の領域の透明度を同時に測定することができる。また、被写体の皮膚の画像情報を透明度の測定値に基づいて変調し、表示部に表示することにより、皮膚の透明感の状態を、被写体である被験者や、操作者等が直感的に捉えることが可能となる。
本実施の形態では、投影部Qは、赤色光によるストライプパターンを投影しているが、その他の色の光を用いてもよい。例えば近赤外の光を用いてもよい。
また、画像情報の変調方法は色調以外の変調でもよい。例えば画像情報全体の明るさによって変調してもよいし、画像情報のガンマ補正値によって変調してもよい。また、透明度の測定値を表示部Zに表示してもよい。ステップS17における変調領域は矩形以外の円形や楕円形の領域であってもよい。
また、本実施の形態では、室内照明下で測定装置APを使用するものとして説明したが、測定装置APは被写体を照らす照明装置をさらに備えていてもよい。
また、投影部Qは、第1の偏光軸の方向に振動する光のパターンを投影し、撮像部Aは、第1の偏光軸と異なる第2の偏光軸の方向に振動する光の画像情報を取得してもよい。このような構成を実現するには、投影部Qの光路に第1の偏光軸の方向に振動する偏光光を透過する偏光フィルタを配置し、撮像部Aの光路に第2の偏光軸の方向に振動する偏光光を透過する偏光フィルタを配置すればよい。所定の偏光軸の方向に振動する光を皮膚に照射する場合、皮膚表面での反射光は、偏光成分が維持された鏡面反射光となる。一方、皮膚表面下での反射光は、偏光成分が乱れた散乱反射光となる。したがって、この構成を用い、第2の偏光軸の方向に振動する偏光光によって第1および第2の画像情報を取得すれば、皮膚表面での鏡面反射光が取り除かれ、皮膚表面下での拡散光のみを抽出することができ、透明度の測定精度を向上させることができる。第1の偏光軸と第2の偏光軸とが直交する場合、最も効率よく皮膚表面での鏡面反射光を除外することができる。
なお、投影部QのレンズLpは、1枚構成として図示しているが、複数枚構成であってもよい。また、光源EとマスクUの間に、光を効率よくレンズLpへ導くよう、正のパワーを持つフレネルレンズや回折レンズ等を挿入してもよい。
(実施の形態2)
本実施の形態の測定装置は、投影部Qから投影されるパターンの光が近赤外光である点と、撮像部Aがカラー画像情報と近赤外光画像情報とを同時に取得する点で実施の形態1の測定装置と異なる。以下、実施の形態1の測定装置と異なる点を主として説明する。
図6(a)は、本実施の形態の測定装置APの撮像部Aを示す模式図である。撮像部Aは、レンズL1、近赤外光カットフィルタ(または可視光透過フィルタ)F1およびカラー撮像素子N1を含む第1の撮像光学系H1と、レンズL2、可視光カットフィルタ(または近赤外光透過フィルタ)F2およびモノクロ撮像素子N2を含む第2の撮像光学系H2とによって構成されている。
次に本実施の形態の測定装置APの動作および被写体OBの透明度の測定フローを説明する。図7は、本実施の形態の測定装置APにおける透明度測定の手順を示すフローチャートである。
まず、ステップS21において、投影部Qにより、近赤外光による所定パターンを被写体の皮膚に投影する。これにより、被写体OB上に近赤外光による像PT’が投影される。
ステップS22において、撮像部Aの第1の撮像光学系H1および第2の撮像光学系H2によって、それぞれ像PT’が投影された被写体OBの皮膚のカラー画像およびモノクロ画像を撮影する。第1の撮像光学系H1には、近赤外光カットフィルタF1が光路に配置されているため、第1の撮像光学系H1は、像PT’が形成されていない被写体OBを選択的に含むカラー画像、つまり第2の画像を取得できる。また、第2の撮像光学系H2には、可視光カットフィルタF2が光路に配置されているため、第2の撮像光学系H2は、近赤外光による被写体に投影された像PT’を選択的に含む画像を取得できる。この画像は被写体OBの像を含まず、実施の形態1における差分画像である第3の画像に相当する。カラーの第2の画像およびモノクロの第3の画像は、被写体を同時に撮影することによって取得できる。
ステップS23において、測定装置APは、実施の形態1のステップS16と同様にして、4箇所の透明度の計測値を求める。
ステップS24において、測定装置APは、実施の形態1のステップS17と同様にして、透明度の測定値に基づいて、カラー画像の領域R’を変調する。
ステップS25において、ステップS24で生成した画像情報を液晶ディスプレイ等の表示部Zに表示する。
本実施の形態の測定装置も、実施の形態1と同様に被写体の複数の領域の透明度を同時に測定することができる。また、本実施の形態では、被写体OBのカラー画像と、投影像PT’のみが形成されたモノクロ画像とを同時に取得できるため、時間差に起因する変調画像の位置ずれが生じることがない。
なお、第1の撮像光学系H1および第2の撮像光学系H2は、所定の距離だけ離れて配置されているため、被写体OBのカラー画像と、像PT’のみによって構成されるモノクロ画像との間には、視差が生じる。しかし、測定装置を用いて透明度を測定する場合、被写体が予め決められた場所に位置して撮影されるため、被写体と測定装置との距離は概ね予定されたある一定の範囲にある。このため第1の撮像光学系H1と第2の撮像光学系H2との視差量も予め定められた範囲内にある。よって、想定される被写体距離に対応した視差分だけずらした位置に領域R’を設定し、位置をずらした領域R’における被写体OBのカラー画像を変調すればよい。また、差分画像はこのような視差の影響を受けずに取得できるため、透明度の測定値は視差の影響を受けない。
また、撮像部Aは他の構造によって構成されてもよい。図6(b)は、ハーフミラーHMを用いた撮像部Aの構成を示している。図6(b)に示す撮像部Aにおいて、被写体OBから入射する光の光路はハーフミラーHMによって分離され、ハーフミラーHMを透過した光が第1の撮像光学系H1に入射し、ハーフミラーHMで反射された光が第2の撮像光学系H2に入射する。第1の撮像光学系H1および第2の撮像光学系H2は、上述したようにそれぞれ被写体OBのカラー画像および被写体OBに投影された像PT’のモノクロ画像を撮影する。このような構成では、図6(a)に示す構成のように視差が発生しないため、視差を補正する必要がない。
また、図6(b)に示すハーフミラーHMを、可視光を透過し近赤外光を反射するダイクロイックミラーに置き換えてもよい。この場合、近赤外光カットフィルタF1、および可視光カットフィルタF2は不要となり、被写体からの光を効率的に取り込むことができる。
また、実施の形態1と同様に、投影部Qは、第1の偏光軸の方向に振動する光のパターンを投影し、撮像部Aは、第1の偏光軸と異なる第2の偏光軸の方向に振動する光の画像を取得してもよい。この場合、撮像部Aの第2の撮像光学系H2の光路に、第2の偏光軸の方向に振動する光を透過する偏光フィルタを配置すればよい。このような構成により、皮膚表面での鏡面反射光が取り除かれ、皮膚表面下での拡散光のみを抽出することができ、透明度の測定精度を向上させることができる。
(実施の形態3)
本実施の形態の測定装置は、撮像部Aの構成が異なる点で、実施の形態2の測定装置と異なる。以下、実施の形態2の測定装置と異なる点を主として説明する。
図8は、本実施の形態の測定装置の撮像部Aを示す模式図である。本実施の形態の測定装置APの撮像部Aは、複眼レンズLLと、赤色の波長帯域の光を主に透過するバンドパスフィルタFaと、緑色の波長帯域の光を主に透過するバンドパスフィルタFbと、青色の波長帯域の光を主に透過するバンドパスフィルタFcと、近赤外の波長帯域の光を主に透過するバンドパスフィルタFdと、第2の偏光軸の方向に振動する光を主に透過する第2の偏光フィルタP2と、撮像素子Ncとを含む。
複眼レンズLLには、同一平面上にレンズLa1、La2、La3、およびLa4が配列されている。また、撮像素子Nc上の撮像面Niには、レンズLa1、La2、La3、およびLa4にそれぞれ一対一で対応する撮像領域Ni1、Ni2、Ni3、およびNi4が設けられている。
また、レンズLa1、La2、La3、およびLa4を透過した光が、バンドパスフィルタFa、Fb、FcおよびFdをそれぞれ透過し、撮像領域Ni1、Ni2、Ni3、およびNi4に入射するようにバンドパスフィルタFa、Fb、FcおよびFdが配置されている。
撮像部Aは、4つの光路によって被写体(図示せず)を撮影する。具体的には、レンズLa1と赤色の波長帯域の光を主に透過するバンドパスフィルタFaを介して撮像領域Ni1に到達する光路、レンズLa2と緑色の波長帯域の光を主に透過するバンドパスフィルタFbを介して撮像領域Ni2に到達する光路、レンズLa3と青色の波長帯域の光を主に透過するバンドパスフィルタFcを介して撮像領域Ni3に到達する光路、および、レンズLa4と近赤外の波長帯域の光を主に透過するバンドパスフィルタFdと第2の偏光フィルタP2を介して撮像領域Ni4に到達する光路によって4つの像を取得する。
このような構成により、撮像領域Ni1、Ni2、Ni3およびNi4から、それぞれ赤色の波長帯域の光の情報を有する第1の画像情報S101、緑色の波長帯域の光の情報を有する第2の画像情報S102、青色の波長帯域の光の情報を有する第3の画像情報S103、および近赤外光の波長帯域の光の情報を有しかつ第2の偏光軸の方向に振動する光の情報を有する第4の画像情報S104を取得する。
また、本実施の形態では、レンズLa1、La2、La3およびLa4が互いに離間して配列されているため、撮像領域Ni1、Ni2、Ni3およびNi4で取得した画像は、互いに被写体距離に対応した視差が発生している。したがって、カラー画像やカラー画像を透明度の測定値に基づいて変調した画像を生成する場合は、演算部Gにおいてそれぞれの視差を補正した後に合成してもよい。具体的には、第1の画像情報S101を基準画像とし、第2の画像情報S102の視差補正画像、第3の画像情報S103の視差補正画像、第4の画像情報S104の視差補正画像をそれぞれ生成した後、合成処理を行えばよい。視差補正を行うには、各画像の微小ブロック毎にパターンマッチングにより抽出し、微小ブロック毎に抽出した視差の分だけ画像をずらすことにより生成することができる。
このような構成により、第1の画像情報S101、第2の画像情報S102、第3の画像情報S103からカラー画像を合成する。また、第4の画像情報S104から被写体の皮膚の透明度を測定し、透明度の測定値に基づいて実施の形態2と同様に、カラー画像を変調する。
本実施の形態によれば、実施の形態1と同様に被写体の複数の領域の透明度を同時に測定することができる。また、本実施の形態では、実施の形態2と同様に被写体OBのカラー画像と、像PT’のみが含まれるモノクロ画像を同時に取得できるため、時間差に起因する変調画像の位置ずれが生じることがない。
また、本実施の形態3では、1つの撮像素子Nc上に複眼レンズLLを配置する構成であるため、実施の形態1および2の構成よりも撮像部Aの容積を小さくすることができるので、測定装置を小型化することができる。
(実施の形態4)
本実施の形態の測定装置は、撮像部Aの構成が異なる点で、実施の形態2および3の測定装置と異なる。以下、実施の形態2および3の測定装置と異なる点を主として説明する。
図9(a)は、本実施の形態の測定装置の撮像部Aを示す模式図である。本実施の形態の測定装置APの撮像部Aは、レンズLと、撮像素子Ndによって構成されている。図9(b)は、撮像素子Nd上の画素の配列を示す図である。図9(b)に示すように、本実施の形態の撮像素子Ndにおいて、画素Pa1には、赤色の波長帯域の光を主として選択的に透過するバンドパスフィルタが備えられており、画素Pa2には、緑色の波長帯域の光を主として選択的に透過するバンドパスフィルタが備えられており、画素Pa3には、青色の波長帯域の光を主として選択的に透過するバンドパスフィルタが備えられており、画素Pa4には、近赤外の波長帯域の光を主として選択的に透過するバンドパスフィルタと第2の偏光軸の方向に振動する光を主として選択的に透過する偏光フィルタとが備えられている。各画素のバンドパスフィルタは、例えば、吸収型のフィルタや誘電体多層膜によって構成されたフィルタによって構成されており、偏光フィルタは、ワイヤーグリッド偏光子によって構成されている。画素Pa1、Pa2、Pa3およびPa4は、例えば、2行2列に配列されており、これら4つの画素が、撮像素子Ndにおいて、行方向および列方向に繰り返し配列されている。
被写体(図示せず)を撮像する場合、被写体からの光線は、レンズLを通過した後、撮像素子Ndに到達する。画素Pa1には、赤色の波長帯域の光を主に透過するバンドパスフィルタが備えられているため、画素Pa1によって生成した電気信号のみ抽出することにより、赤色の波長帯域の光の情報を有する第1の画像情報S101を生成することができる。同様に、画素Pa2および画素Pa3によって生成した電気信号をそれぞれ抽出することにより、緑色の波長帯域の光の情報を有する第2の画像情報S102、および青色の波長帯域の光の情報を有する第3の画像情報S103を生成することができる。また、画素Pa4には、近赤外の波長帯域の光を主に透過するバンドパスフィルタと第2の偏光軸の方向に振動する光を主に透過する偏光フィルタが備えられているため、画素Pa4によって生成した電気信号のみを抽出することにより、第2の偏光軸の方向に振動し、かつ近赤外の波長帯域の光の情報を有する第4の画像情報S104を生成することができる。
このような構成によって得られた第1の画像情報S101、第2の画像情報S102および第3の画像情報S103からカラー画像情報を合成する。また、第4の画像情報S104から透明度を測定し、透明度の測定値に基づいて実施の形態2と同様に、カラー画像情報を変調する。
以上のような構成により、実施の形態1と同様に被写体の複数の領域の透明度を同時に測定することができる。また、本実施の形態では、実施の形態2および実施の形態3と同様に被写体OBのカラー画像と、像PT’のみを含むモノクロ画像を同時に取得できるため、時間差に起因する変調画像の位置ずれが生じない。
本実施の形態では、1つの撮像素子Nd上にレンズLを配置する構成であるため、実施の形態2の構成よりも撮像部Aの容積を小さくすることができ、測定装置を小型化することができる。
(実施の形態5)
本実施の形態の測定装置は、撮像部Aの構成が異なる点で、実施の形態2、3、および4の測定装置と異なる。以下、実施の形態2の測定装置と異なる点を主として説明する。
図10は、本実施の形態の測定装置の撮像部Aを示す模式図である。本実施の形態の撮像部Aは、Vを光軸とするレンズ光学系Lxと、レンズ光学系Lxの焦点近傍に配置されたアレイ状光学素子Kと、モノクロの撮像素子Nとを備える。
レンズ光学系Lxは、被写体(図示せず)からの光が入射する絞りSと、絞りSを通過した光が入射する光学素子L1s、L1pと、光学素子L1s、L1pを通過した光が入射するレンズL1mとから構成されている。以下において詳細に説明するように、レンズ光学系Lxは、光学領域D1、D2、D3およびD4を有する。
レンズL1mは、1枚のレンズで構成されていてもよいし、複数枚のレンズで構成されていてもよい。また、絞りSの前後に複数枚に分かれて配置された構成であってもよい。図10では、1枚構成として図示している。
図11(a)は、光学素子L1sを被写体側から見た正面図である。光学素子L1sは、光学領域D1、D2、D3、およびD4に配置されている。光学領域D1、D2、D3、およびD4は、本実施の形態では、光軸Vに平行であり、光軸Vを通る互いに直交する2つの平面によって分割される4つの領域である。光学素子L1sのうち、光学領域D1、D2、D3およびD4に位置する部分の分光透過率特性は互いに異なる。光学素子L1sは、絞りSと光学素子L1pの間に配置されている。光学素子L1sの光学領域D1、D2、D3およびD4に対応する領域には、それぞれ赤色の波長帯域の光を主に透過する領域、緑色の波長帯域の光を主に透過する領域、青色の波長帯域の光を主に透過する領域、および近赤外の波長帯域の光を主に透過する領域が配置されている。
図11(b)は、光学素子L1pを被写体側から見た正面図である。光学素子L1pのうち、光学領域D4に位置する部分のみに、第2の偏光軸の方向に振動する光を主に透過する偏光フィルタPL2が配置され、その他の領域に位置する部分には、全ての方向に振動する光を透過するガラス板が配置されている。ガラス板はなくてもよい。
図12は、アレイ状光学素子Kの斜視図である。アレイ状光学素子Kにおける撮像素子N側の面には、光学要素Mが格子状に配置されている。それぞれの光学要素Mの断面(図のxおよびy方向それぞれの断面)は曲面であり、それぞれの光学要素Mは、撮像素子N側に突出している。このように、光学要素Mはマイクロレンズであり、アレイ状光学素子Kは、マイクロレンズアレイとなっている。
図13(a)は、アレイ状光学素子Kおよび撮像素子Nの断面を拡大して示す図であり、図13(b)は、アレイ状光学素子Kと撮像素子N上の画素との位置関係を示す図である。アレイ状光学素子Kは、光学要素Mが形成された面が撮像面Ni側に向かうように配置されている。撮像面Niには、画素Pが行列状に配置されている。画素Pは、画素Pa1、画素Pa2、画素Pa3および画素Pa4に区別できる。
アレイ状光学素子Kは、レンズ光学系Lxの焦点近傍に配置されており、かつ撮像面Niから所定の距離だけ離れた位置に配置されている。また、撮像面Ni上には、画素Pa1、Pa2、Pa3、Pa4の表面を覆うようにマイクロレンズMsが設けられている。
アレイ状光学素子Kは、光学素子L1s、およびL1pで構成される光学領域D1、D2、D3およびD4を通過した光束の大部分がそれぞれ撮像面Ni上の画素Pa1、画素Pa2、画素Pa3、および画素Pa4に到達するように設計されている。具体的にはアレイ状光学素子Kの屈折率、撮像面Niからの距離および光学要素M表面の曲率半径等のパラメータを適切に設定することで、上記構成が実現する。
したがって、画素Pa1には、光学領域D1を透過することにより分光された赤色の波長帯域の光が主に入射する。画素Pa1の電気信号のみを抽出することにより、赤色の波長帯域の光の情報を有する第1の画像情報S101を生成することができる。同様に、画素Pa2および画素Pa3の電気信号をそれぞれ抽出することにより、緑色の波長帯域の光の情報を有する第2の画像情報S102および赤色の波長帯域の光の情報を有する第3の画像情報S103を生成することができる。また、画素Pa4には、光学領域D4を透過することにより分光された、近赤外の波長帯域において第2の偏光軸の方向に振動する光が主に入射する。このため、画素P4の電気信号のみ抽出することにより、第2の偏光軸の方向に振動し、かつ近赤外の波長帯域の光の情報を有する第4の画像情報S104を生成することができる。
このような構成により生成した第1の画像情報S101、第2の画像情報S102、第3の画像情報S103から、カラー画像情報を合成する。また、第4の画像情報S104から被写体の皮膚の透明度を測定し、透明度の測定値に基づいて実施の形態2と同様に、カラー画像情報を変調する。
本実施の形態によれば、実施の形態1と同様に被写体の複数の箇所の透明度を同時に測定することができる。また、本実施の形態では、実施の形態2、実施の形態3、および実施の形態4と同様に被写体OBのカラー画像と、像PT’のみが含まれるモノクロ画像を同時に取得できるため、時間差に起因する変調画像の位置ずれが生じることがない。
(実施の形態6)
図14(a)は、測定装置APを示す図である。本実施の形態の測定装置APは、投影部Q、撮像部A、制御部C、演算部G、表示部Zおよび筐体Wを備える。投影部Q、撮像部A、制御部Cおよび演算部Gは、実施の形態1から5のいずれかの測定装置APの対応する構成要素と同様の構成を備えている。
筐体Wは、平面wpに開口を有する空間を備え、例えば、使用者が手で保持できるタブレット端末等の大きさを有する。筐体Wの空間内に投影部Q、撮像部A、制御部C、演算部Gおよび表示部Zが収納される。また、図14(a)に示すように、平面Wpに投影部Q、撮像部Aおよび表示部Zが配置される。演算部Gは、実施の形態1から5とは異なり、撮像部Aで所得した画像がミラー反転状態で表示部Zに表示されるように、画像データを変換する。
本実施の形態の測定装置APによれば、撮影された画像がミラー反転し、表示部Zに表示される。このため、被写体である利用者自身が通常の鏡のような感覚で利用者自身の鏡像を確認することができる。さらには、透明度測定機能によって利用者自身が自分の皮膚の透明度を直感的に認識することが可能となる。
本実施の形態の測定装置APは、さらに被写体を照らす照明装置Tを備えていてもよい。例えば、図14(b)に示すように、照明装置Tは、平面wp上であって、表示部Zに隣接して配置されていてもよい。測定装置APは、例えば、表示部Zを挟むように位置する2つ照明装置Tを備えていてもよいし、1つあるいは3つ以上の照明装置を備えていてもよい。
また、本実施の形態の測定装置APは、投影部Qが筐体Wの外部に設けられていてもよい。具体的には、測定装置APは、例えば、カメラおよび表示部を備えたスマートフォンやタブレット型端末などの携帯情報機器(PDA)であってもよい。この場合、投影部Qは、携帯情報機器の入出力端子等に接続され、携帯情報機器から供給される電力および制御信号に基づき、被写体の複数の領域に光による所定のパターンの像を投影する。携帯情報機器の撮像部Aは、皮膚の複数の領域に、光による所定のパターンの像が投影された被写体を撮影する。演算部Gは、撮像部Aによって取得した被写体の皮膚画像情報に基づいて被写体の皮膚の複数の領域における皮膚の透明度の測定値を算出し、出力する。表示部Zは、上述したように撮像部によって撮影された画像をミラー反転し表示する。
(その他の実施の形態)
以上の実施の形態では、投影部のマスクUの所定のパターンPTは、図1(b)に示すようにマスクUの上下左右の4つの領域に位置するストライプ状のサブパターンを有していたが、投影されるパターンの形状はこれに限られない。
図15(a)から(f)は被写体OBの領域R’に投影さるパターンの像の他の例を示している。例えば、図15(a)に示すように、各領域R’に投影されるサブパターンはストライプ形状有しているが、被写体OBの上下に位置する領域R’に投影するストライプパターンと左右の位置する領域R’とにおいてストライプの延びる方向が90°異なっている。具体的には、被写体OBの額および顎の領域R’に投影されるストライプ状のサブパターンは、垂直方向に伸びており、頬の領域R’に投影されるサブパターンは水平方向に伸びている。図1(c)に示す投影パターンの場合、投影光学系のレンズLに単レンズのように非点収差が比較的大きなレンズを用いると、非点収差の影響で上下の位置に投影するストライプパターンと左右の位置に投影するストライプパターンの解像度が互いに異なり、透明度の測定結果が異なる可能性がある。これに対し図15(a)に示す投影パターンを用いれば、非点収差に起因する透明度の測定結果の変動を抑制することができる。このような投影パターンを用いることにより、投影部のレンズLに単レンズを用いることができ、投影部のコストを抑えることができる。
また、図15(b)、(c)および(d)に示すように、複数の領域R’にサブパターンターンが投影される限り、サブパターンは分離していなくてもよく、サブパターンは連続した一体的なパターンを構成していてもよい。この場合、投影部Qから被写体OBの全体にパターンが統制され、像を形成する。図15(b)は被写体OBに投影されるパターンがストライプ形状を有する例を示している。この場合、実施の形態1と同様に皮膚の透明度の測定値を求めることができる。また、図15(c)に示す格子状のパターンや、図15(d)に示す四角形状のパターンの場合、実施の形態1と同様に差分画像情報の取得と画像情報の2値化を行った後、画像情報の黒色領域(四角形状の領域)の面積から透明度の測定値を求めることができる。このような投影パターンにすることにより、顔全体の透明度を測定することができる。
また、図15(e)に示すように、顔の両目に相当する領域には投影部から光が照射されないパターンを投影部Qは投影してもよい。このような投影パターンにすることにより、被験者が眩しくない状態で皮膚の透明度の測定を行うことができる。また、図15(f)のように、顔のTゾーンおよびUゾーンの領域に投影し、顔の両目に相当する領域にはパターンが投影されないような投影パターンであってもよい。
また、図15(e)および(f)のようなパターンを用いて、顔の両目に相当する位置にパターンが投影されないようにするには、予め顔の位置を決められた位置に移動させる必要がある。これを実現するには、例えば、図16(a)に示すように、測定時の目の位置を示すガイドパターンNvを表示部Zに表示しておき、図16(b)に示すようにガイドパターンNvの位置に両目が入るように顔を移動させた段階でパターンを投影する。これにより、図16(c)に示すように、顔の両目に相当する位置にパターンが投影されないようにすることができる。このような構成により、毎回ほぼ同じ位置で透明度を測定することができるため、過去の測定データとの照合が正しくできるようになる。
また、被写体と投影部Qとの距離が測定のたびに変化し、被写体に投影されるパターンの大きさが変化する場合には、被写体を撮影した画像情報を用いて被写体に投影されるパターンの大きさを調整してもよい。具体的には、人の目の間隔は概ね一定であることを利用し取得した画像情報における被写体の両目の間隔を測定する。測定値から被写体と撮像部Aとの距離が推定できるので、推定した距離を用いて、投影部Qの位置を調節し、被写体に投影されるパターンの大きさを調整してもよい。
また、被写体と撮像部Aとの距離を推定するために、撮像部Aと投影部Qを所定の距離だけ離間して配置し、撮像部Aによって撮像したサブパターンの変位量に基づいて被写体までの距離を測定する構成にしてもよい。図17(a)、(b)、および(c)は、撮像部Aによって撮像したサブパターンの変位量に基づいて被写体までの距離を測定する方法について説明する図である。図17(a)は、撮像部A、投影部Q、被写体OBとの位置関係について説明する図である。撮像部Aと投影部Qは距離bだけ離間して配置されており、被写体OBが撮像部Aから距離Dの位置にあるとき、正規の計測位置となるように設定している。このとき、図17(b)に示すような画像が得られる。
被写体OBが正規の計測位置からずれ、撮像部Aから距離zの位置にある場合、図17(c)に示すような画像が得られる。サブパターンは、中心が図17(b)の位置に対して、δだけずれた状態で撮像される。δは、画像をパターンマッチングすることによって求めることが出来る。ここで、撮像部Aのレンズの焦点距離をfとすると、三角測量の式から(数1)の関係が得られる。
Figure 0005807192

従って、(数1)の関係から被写体までの距離zを導出することができる。
図18(a)に示すように、測定装置は、以上のような手順によって距離を推定したり、導出する距離測定部Sと、測定した距離に基づき、被写体が正規の計測位置に配置されるよう、被写体の移動方向、移動距離など、被写体を移動させるための情報を出力する報知部Tとを備え、被写体自身に移動を促すように構成してもよい。報知部Tの代わりに、被写体の移動方向、移動距離などの情報を、文字、数字、矢印などの図記号などによって、表示部Zに表示してもよい。また、音声情報によって被写体の移動方向、移動距離などの情報を出力してもよい。以上の説明では、便宜上被写体までの距離に基づいて被写体を移動させるための情報を出力するとしているが、両目の間隔やδの値から直接的に被写体を移動させるための情報を報知部Tが出力してもよい。
また、測定した距離に基づき、投影部Qは、被写体OBに投影された所定のパターンの像PT’の大きさを変化させてもよい。このために、例えば、図18(b)に示すように、投影部Qは、レンズLpを駆動する駆動ユニットDUをさらに備えていてもよい。距離測定部Sは、被写体までの距離zを導出し、距離zを制御部Cへ出力する。制御部Cは、距離zに基づき、被写体OBに投影された所定のパターンの像PT’の大きさが、例えば、距離zにおいて、透明度の測定に適した大きさとなるように、駆動ユニットDUに駆動信号を出力し、レンズLpの位置を移動させる。
また、測定した距離に基づき、投影部Qは、被写体OBに投影された所定のパターンの像PT’の合焦度を変化させてもよい。この場合、上記と同様に、投影部QはレンズLpを駆動する駆動ユニットDUをさらに備えていてもよい。距離測定部Sは、被写体までの距離zを導出し、距離zを制御部Cへ出力する。制御部Cは、距離zに基づき、被写体OBに投影された所定のパターンの像PT’が合焦するように、駆動ユニットDUに駆動信号を出力し、レンズLpの位置を移動させる。
また、前述の構成では透明度を測定するためのサブパターンと被写体までの距離を測定するためのサブパターンを共用しているが、被写体までの距離を測定するための専用のサブパターンを別途設けた構成でもよい。
また、2値化した画像情報のパターン幅や面積から透明度を測定する方法について説明したが、例えばストライプパターンの画像情報の所定領域をフーリエ変換して、所定の周波数に対応する応答値を透明度として測定してもよい。
また、上記実施の形態1から6では、測定装置の演算部Gは、測定装置の撮像部Aに近接して設けられているように示しているが、演算部Gは、測定を行っている場所から離れて設けられていてもよい。例えば、撮像部Aから得られた画像情報のデータを、測定装置から離れて位置し、通信回線に接続されたサーバやホストコンピュータによって機能する演算部Gに、インターネット等の通信回線を介して、送信してもよい。また、演算部Gが求めた透明度の測定値のデータや変調された画像情報が、通信回線を介して測定を行っている場所に送信され、そこに設置された表示部Zが、変調された画像情報等を表示してもよい。
本発明の一態様にかかる測定装置は、肌診断システムなどに応用することができる。
AP 測定装置
A 撮像部
Q 投影部
Z 表示部
L 投影レンズ
M マスク
E 光源
OB 被写体
PT、PT’ マスクパターン、投影パターン
C 制御部
G 演算部

Claims (18)

  1. 被写体の複数の領域内に、光による所定のパターンの像を投影するように構成された投影部と、
    前記複数の領域を含む前記被写体を撮影するように構成された撮像部と、
    前記撮像部によって取得した前記被写体の画像情報に基づいて前記被写体の複数の領域における光伝播度を算出し、出力するように構成された演算部と、
    を有し、
    前記撮像部は、前記像が投影された前記被写体の第1の画像情報と、前記像が投影されていない前記被写体の第2の画像情報とを取得し、
    前記演算部は、前記第1の画像情報と前記第2の画像情報との差分から第3の画像情報を生成し、前記第3の画像情報から前記複数の領域または前記所定の領域における前記被写体の光伝播度を算出する測定装置。
  2. 被写体の所定の領域内に、光による複数のサブパターンからなる所定のパターンの像を投影するように構成された投影部と、
    前記所定の領域を含む前記被写体を撮影するように構成された撮像部と、
    前記撮像部によって取得した前記被写体の画像情報に基づいて前記所定の領域における光伝播度を算出するように構成された演算部と、
    を有し、
    前記撮像部は、前記像が投影された前記被写体の第1の画像情報と、前記像が投影されていない前記被写体の第2の画像情報とを取得し、
    前記演算部は、前記第1の画像情報と前記第2の画像情報との差分から第3の画像情報を生成し、前記第3の画像情報から前記複数の領域または前記所定の領域における前記被写体の光伝播度を算出する測定装置。
  3. 前記光は赤色光であり、
    前記第1の画像情報および前記第2の画像情報はカラー画像情報である請求項1または2に記載の測定装置。
  4. 前記撮像部は、前記像が投影された前記被写体を撮影することにより、前記被写体を選択的に含む第2の画像情報と、前記被写体に投影された前記像を選択的に含む第3の画像情報とを取得し、
    前記演算部は、前記第3の画像情報から前記複数の領域または前記所定の領域における前記被写体の光伝播度を算出する、請求項1または2に記載の測定装置。
  5. 前記光は近赤外光であり、
    前記第2の画像情報はカラー画像情報であり、
    前記第3の画像情報は近赤外光画像情報である請求項に記載の測定装置。
  6. 前記第2の画像情報および前記第3の画像情報は、前記像が投影された前記被写体を同時に撮影することにより得られる請求項に記載の測定装置。
  7. 前記演算部は、前記複数の領域または前記所定の領域の光伝播度に基づいて、前記第2の画像情報の前記複数の領域または前記所定の領域の部分を変調し、変調された第2の画像情報を出力する、請求項およびのいずれかに記載の測定装置。
  8. 前記演算部は、前記第2の画像情報の前記複数の領域または前記所定の領域の部分の色調を変化させる請求項に記載の測定装置。
  9. 前記第2の画像情報表示する表示部をさらに備える、請求項からのいずれかに記載の測定装置。
  10. 前記変調された第2の画像情報を表示する表示部をさらに備える、請求項7または8に記載の測定装置。
  11. 前記撮像部と、前記投影部と、前記表示部とは略同一平面に配置されている請求項9または10に記載の測定装置。
  12. 前記所定のパターンは、複数のストライプ状のサブパターンを含む請求項1に記載の測定装置。
  13. 前記演算部は、前記表示部に表示するための、前記被写体の両目の位置を示すガイドパターンを生成し、
    前記演算部は、前記第1の画像情報または前記第2の画像情報における前記被写体の目の位置を検出し、
    前記ガイドパターンの位置と前記目の位置とが一致した場合、前記光伝播度を算出する、請求項9または10に記載の測定装置。
  14. 前記撮像部によって取得した画像情報における前記被写体の両目の間隔に基づいて前記被写体を所定の計測位置に移動させる行動を促す情報を出力する報知部をさらに備える、請求項1から13のいずれかに記載の測定装置。
  15. 前記投影部と前記撮像部を所定の距離だけ離間して配置し、
    前記撮像部によって取得した画像情報における前記所定のパターンの位置に基づいて前記被写体を所定の計測位置に移動させる行動を促す情報を出力する報知部をさらに備える、請求項1から13のいずれかに記載の測定装置。
  16. 前記撮像部によって取得した画像情報に基づいて前記被写体までの距離を測定する距離測定部と、前記測定した前記被写体までの距離に基づいて前記被写体を所定の計測位置に移動させる行動を促す情報を出力する報知部とをさらに備える、請求項1から13のいずれかに記載の測定装置。
  17. 皮膚の複数の領域に光による所定のパターンの像が投影された被写体を撮影するように構成された撮像部と、
    前記撮像部によって取得した前記被写体の皮膚の画像情報に基づいて前記被写体の複数の領域における皮膚の光伝播度を算出し、出力するように構成された演算部と、
    前記撮像部によって撮影された画像情報を表示する表示部と
    を備え
    前記撮像部は、前記像が投影された前記被写体の第1の画像情報と、前記像が投影されていない前記被写体の第2の画像情報とを取得し、
    前記演算部は、前記第1の画像情報と前記第2の画像情報との差分から第3の画像情報を生成し、前記第3の画像情報から前記複数の領域または前記所定の領域における前記被写体の光伝播度を算出する携帯情報端末。
  18. 所定のパターンの像を被写体に投影する第1のステップと、
    前記被写体を撮像する第2のステップと、
    前記第2のステップによって取得した前記被写体の画像情報に基づいて前記被写体の複数の位置の光伝播度を出力する第3のステップと
    を包含し、
    前記第2のステップは、前記像が投影された前記被写体の第1の画像情報と、前記像が投影されていない前記被写体の第2の画像情報とを取得し、
    前記第3のステップは、前記第1の画像情報と前記第2の画像情報との差分から第3の画像情報を生成し、前記第3の画像情報から前記複数の位置における前記被写体の光伝播度を算出する測定方法。
JP2014528728A 2013-01-21 2014-01-20 測定装置および測定方法 Active JP5807192B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014528728A JP5807192B2 (ja) 2013-01-21 2014-01-20 測定装置および測定方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013008053 2013-01-21
JP2013008053 2013-01-21
JP2014528728A JP5807192B2 (ja) 2013-01-21 2014-01-20 測定装置および測定方法
PCT/JP2014/000250 WO2014112393A1 (ja) 2013-01-21 2014-01-20 測定装置および測定方法

Publications (2)

Publication Number Publication Date
JP5807192B2 true JP5807192B2 (ja) 2015-11-10
JPWO2014112393A1 JPWO2014112393A1 (ja) 2017-01-19

Family

ID=51209487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014528728A Active JP5807192B2 (ja) 2013-01-21 2014-01-20 測定装置および測定方法

Country Status (3)

Country Link
US (1) US20150029321A1 (ja)
JP (1) JP5807192B2 (ja)
WO (1) WO2014112393A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140276104A1 (en) * 2013-03-14 2014-09-18 Nongjian Tao System and method for non-contact monitoring of physiological parameters
JP6570852B2 (ja) * 2015-03-20 2019-09-04 株式会社東芝 生体成分推定装置、生体成分推定方法、およびプログラム
JP6697681B2 (ja) * 2016-08-17 2020-05-27 ソニー株式会社 検査装置、検査方法、およびプログラム
DE102017104662A1 (de) 2017-03-06 2018-09-06 Rheinmetall Waffe Munition Gmbh Waffensystem mit wenigstens zwei HEL-Effektoren
EP3384831A1 (en) * 2017-04-05 2018-10-10 Koninklijke Philips N.V. Skin gloss measurement using brewster's angle
CA3092639A1 (en) * 2018-02-12 2019-08-15 Midmark Corporation Projected texture pattern for intra-oral 3d imaging
US11474209B2 (en) * 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6464625A (en) * 1987-09-07 1989-03-10 Toshiba Corp Endoscopic apparatus
US6289107B1 (en) * 1996-05-23 2001-09-11 Nike, Inc. Apparatus and method of measuring human extremities using peripheral illumination techniques
US6806903B1 (en) * 1997-01-27 2004-10-19 Minolta Co., Ltd. Image capturing apparatus having a γ-characteristic corrector and/or image geometric distortion correction
US7068825B2 (en) * 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US6648640B2 (en) * 1999-11-30 2003-11-18 Ora Metrix, Inc. Interactive orthodontic care system based on intra-oral scanning of teeth
US8078263B2 (en) * 2000-01-19 2011-12-13 Christie Medical Holdings, Inc. Projection of subsurface structure onto an object's surface
JP2003190120A (ja) * 2001-12-27 2003-07-08 Kao Corp 肌の見え方の評価方法
US7024037B2 (en) * 2002-03-22 2006-04-04 Unilever Home & Personal Care Usa, A Division Of Conopco, Inc. Cross-polarized imaging method for measuring skin ashing
US7146036B2 (en) * 2003-02-03 2006-12-05 Hewlett-Packard Development Company, L.P. Multiframe correspondence estimation
US7970455B2 (en) * 2004-05-20 2011-06-28 Spectrum Dynamics Llc Ingestible device platform for the colon
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
CN101083940B (zh) * 2004-10-22 2010-06-16 株式会社资生堂 皮肤状况诊断***和美容咨询***
AU2007300379A1 (en) * 2006-09-27 2008-04-03 Georgia Tech Research Corporation Systems and methods for the measurement of surfaces
US20120035469A1 (en) * 2006-09-27 2012-02-09 Whelan Thomas J Systems and methods for the measurement of surfaces
WO2008101129A1 (en) * 2007-02-14 2008-08-21 Luminetx Corporation System and method for projection of subsurface structure onto an object's surface
US8636363B2 (en) * 2007-05-15 2014-01-28 Mark Costin Roser Interactive home vision monitoring systems
US8206754B2 (en) * 2007-05-30 2012-06-26 Conopco, Inc. Personal care composition with cocoa butter and dihydroxypropyl ammonium salts
JP2009000410A (ja) * 2007-06-25 2009-01-08 Noritsu Koki Co Ltd 画像処理装置及び画像処理方法
US8269692B2 (en) * 2007-11-20 2012-09-18 Panasonic Corporation Image display apparatus, display method thereof, program, integrated circuit, goggle-type head-mounted display, vehicle, binoculars, and desktop display
JP2009240644A (ja) * 2008-03-31 2009-10-22 Shiseido Co Ltd 透明度測定装置
JP5404078B2 (ja) * 2009-02-03 2014-01-29 株式会社トプコン 光画像計測装置
CA2760905C (en) * 2009-05-06 2017-12-19 Real Imaging Ltd. System and methods for providing information related to a tissue region of a subject
JP5638234B2 (ja) * 2009-12-22 2014-12-10 ショットモリテックス株式会社 透明感測定装置および透明感測定方法
US8315461B2 (en) * 2010-01-25 2012-11-20 Apple Inc. Light source detection from synthesized objects
EP2539759A1 (en) * 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
JP2012119738A (ja) * 2010-11-29 2012-06-21 Sony Corp 情報処理装置、情報処理方法およびプログラム
EP2521097B1 (en) * 2011-04-15 2020-01-22 Sony Interactive Entertainment Europe Limited System and Method of Input Processing for Augmented Reality
EP2512141B1 (en) * 2011-04-15 2019-07-17 Sony Interactive Entertainment Europe Limited System and method of user interaction in augmented reality

Also Published As

Publication number Publication date
WO2014112393A1 (ja) 2014-07-24
US20150029321A1 (en) 2015-01-29
JPWO2014112393A1 (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
JP5807192B2 (ja) 測定装置および測定方法
JP6260006B2 (ja) 撮像装置、並びにそれを用いた撮像システム、電子ミラーシステムおよび測距装置
US9092671B2 (en) Visual line detection device and visual line detection method
US7926947B2 (en) Ophthalmic examination system
US9528878B2 (en) Imaging apparatus and microscope system having the same
US9300931B2 (en) Image pickup system
JP2011169701A (ja) 物体検出装置および情報取得装置
JP5873983B2 (ja) 撮像システム
TWI585504B (zh) 投影機
JP2010538685A (ja) 光学投影方法及びシステム
US10558301B2 (en) Projection display unit
JPWO2014141718A1 (ja) 光学システムおよび光学システムを有する装置
JP2012181296A (ja) 投写型表示装置
JP2014185917A (ja) 撮像装置
JP7005175B2 (ja) 距離測定装置、距離測定方法及び撮像装置
JP6152938B2 (ja) 電子ミラー装置
JP5550111B2 (ja) 撮像装置、撮像方法、及びプログラム
JP6740614B2 (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
JP2018159835A (ja) 投影装置
JP7362071B2 (ja) 携帯型読取装置、読取システム、及びユニット
JP2015201771A (ja) 投射型表示装置および制御方法
JP7420081B2 (ja) 表示装置
JP2019007826A (ja) 測距カメラおよび測距方法
US20200233294A1 (en) Beam irradiation apparatus, and projector with detection function
US20200019277A1 (en) Projector with detection function

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

R151 Written notification of patent or utility model registration

Ref document number: 5807192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151