CN101505659A - 用于对毛囊单位进行计数的***和方法 - Google Patents

用于对毛囊单位进行计数的***和方法 Download PDF

Info

Publication number
CN101505659A
CN101505659A CNA2007800310595A CN200780031059A CN101505659A CN 101505659 A CN101505659 A CN 101505659A CN A2007800310595 A CNA2007800310595 A CN A2007800310595A CN 200780031059 A CN200780031059 A CN 200780031059A CN 101505659 A CN101505659 A CN 101505659A
Authority
CN
China
Prior art keywords
image
hair
filter
remove
follicular unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007800310595A
Other languages
English (en)
Other versions
CN101505659B (zh
Inventor
谢赫尔扎德·A·库雷希
莫汉·博杜卢里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Weiss Concept Co
Original Assignee
Restoration Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Restoration Robotics Inc filed Critical Restoration Robotics Inc
Publication of CN101505659A publication Critical patent/CN101505659A/zh
Application granted granted Critical
Publication of CN101505659B publication Critical patent/CN101505659B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M1/00Design features of general application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00747Dermatology
    • A61B2017/00752Hair removal or transplantation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/10Hair or skin implants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Surgical Instruments (AREA)

Abstract

一种使用自动化***对毛囊单位进行计数的***和方法,其包括:获取具有皮肤和毛囊单位的身体表面的图像、过滤所述图像以移除所述图像中的皮肤成分、处理所述所得的图像以将其分段,以及过滤噪音以消除所关注毛囊之外的所有元素,使得可对关注区域中的毛囊进行计数。所述***可包括用于执行所述方法的图像获取装置和图像处理器。在另一方面中,所述***和方法还基于所述毛囊单位中的毛发的数目将所述毛囊单位分类。

Description

用于对毛囊单位进行计数的***和方法
技术领域
本发明大体上涉及毛发移植程序,且更特定来说,涉及一种用于使用用于毛发移植程序中的数字成像和处理技术对毛囊单位进行计数的***和方法。
背景技术
毛发移植程序是众所周知的,且通常涉及(在具有男性模式脱发症的患者身上)从患者头皮的侧部和后部边缘区域(供体区域)采集供体毛发移植物,且将其植入在脱发区域(接收区域)中。历史上,所采集的移植物相对较大(3-5mm),但最近,供体移植物可为单一毛囊单位。具体来说,“毛囊单位”(本文中也称为FU)是自然发生的总计为1-3个(和不大常见的4-5个)随机分布在头皮表面上的紧密间隔的毛囊。
可基于所述单位中的毛发的数目来分类或“定型”毛囊单位,且对于具有3-5根毛发的毛囊单位,单一毛发毛囊单位简写为“F1”,两个毛囊单位简写为“F2”,依此类推,而进行识别。在多个毛发毛囊单位的一些情况下,所述毛发可能看似从皮肤中的单一小囊或点发散。在其它情况下,毛发可在略微间隔开的位置处离开皮肤表面,但集中于皮肤下方的单一毛囊单位中。参看图1,展示具有多种类型毛囊单位的人类头皮11的示范性区段的数字图像的印刷品。举例来说,毛囊单位17具有两根毛发,且因此为F2,而毛囊单位13为F1,因为其仅具有单一毛发。
对身体表面上的关注区中的毛囊单位进行计数和分类是重要且合乎需要的有若干原因。一个原因是,毛囊单位的数目可用于移植程序的规划过程中。举例来说,在此数目对所述区域中可经采集以用于移植的毛囊单位的数目设置限制的情况下。然而,在许多情况下,医生可能想要仅植入可用毛囊单位的某一百分比,进而留下区域中被采集的某一覆盖区域。另外,在许多毛发修复移植程序中,某些类别的毛囊单位是优选的。
至于分类,基于毛囊单位中的毛发的数目来识别并分类毛囊单位是重要且合乎需要的有若干原因。可能需要利用多种类别(也称为“类型”)的毛囊单位来提供经移植毛发的外观的所需属性。此类属性可尤其包含毛发密度、毛发的方向或定向、若干类型的毛囊单位的特定混合,和/或随机性的外观等可能的属性。各种类型的毛囊单位的使用的实例如下。优选将某些类别的毛囊单位移植到头皮的特定区中。举例来说,通常沿着构成脸面框架的发线来植入单一毛发毛囊单位(F1)。通常将具有一根以上毛发的毛囊单位(F2、F3等)植入在中间头皮和顶部中。毛囊单位分布的此布置被认为产生更自然的外观美学结果。
先前已揭示毛发移植的各种程序,包含手动和机械化达到某些自动化程度。在一种众所周知的手动工艺中,通过使用解剖刀向下解剖进入脂肪皮下组织而从供体区域移除头皮的线性部分。条带经解剖(在显微镜下)进入组件毛囊单位,其然后被植入到由针制成的相应刺孔中的接收区域中。通常使用镊子抓取毛囊单位移植物,并将其放置到针刺位置中,但已知用于完成此操作的其它仪器和方法。
在“雄激素性脱发症”(斯普灵格(Springer),1996)中,M.稻叶(M.Inaba)和Y.稻叶揭示并描述一种用于通过定位具有切割边缘和具有1mm直径的内腔的中空打孔针来采集单数个毛囊单位的手动方法,所述内腔的直径约等于毛囊单位的关键解剖部分的直径。针孔与将要提取的毛囊单位的轴轴向对准,且然后前进到头皮中以围绕选定毛囊单位的圆周切割头皮。其后,例如使用镊子,容易地移除毛囊单位,以用于随后使用专门设计的插针植入到接收部位中。
第6,585,746号美国专利揭示一种利用机器人的自动化毛发移植***,所述机器人包含机械手和与所述机械手相关联的毛囊导引器。视频***用于产生患者头皮的三维虚拟图像,其用于规划将要接收在机械手的控制下由小囊导引器植入的毛发移植物的头皮位置。第6,585,746号美国专利的全部揭示内容以引用的方式并入本文中。
在2005年9月30日申请的第60/722,521号美国临时专利申请案、2005年12月22日申请的第60/753,602号美国临时专利申请案、2006年1月31日申请的第60/764,173号美国临时专利申请案,和2006年4月28日申请的第11/380,903号美国专利申请案(现公开为美国2007/0078466),以及2006年4月28日申请的第11/380,907号美国专利申请案(现公开为美国2007/0106306)中还揭示用于移植的自动化***和方法。上述所有申请案的全部内容在此以引用的方式并入本申请案中。
举例来说,在上文参考的第11/380,907号美国专利申请案中,所揭示的***包括机械手,所述机械手具有安装在所述手上的采集和/或植入工具。一个或一个以上相机也安装在所述手上,并用于将工作空间(例如,身体表面)成像。处理器经配置以接收并处理由相机获取的图像。控制器操作地耦合到所述处理器和所述机械手。所述控制器至少部分基于由所述相机和所述处理器获取的经处理图像来控制所述机械手的移动。所述手可以可控制地移动以相对于所述身体表面将工具定位在所需的定向和位置处以执行毛发的移植。
在利用用于毛发移植的这些***和方法中的任一者的过程中,需要首先规划移植以选择将要采集和移植的毛囊单位,并确定将要植入毛发的精确位置。因此,在规划毛发移植程序的过程中,可选择来自身体表面上的特定位置的特定毛囊单位以用于采集和移植到身体表面的不同部分中。可基于某一标准(例如,毛囊单位的类型(即,F1、F2等)、毛发在毛囊单位中的定向、毛发的密度等)来选择将要移植的毛囊单位。然而,计数并表征每一毛囊单位的过程可为繁琐和耗时的。因此,需要一种用于使用自动化***对毛囊单位进行计数和/或分类的***和方法。在2006年8月25日或大约2006年8月25日申请的题为“用于将毛囊单位分类的***和方法(SYSTEM AND METHOD FORCLASSIFYING FOLLICULAR UNITS)”的第11,467,268号美国专利申请案中描述了用于将毛囊单位分类的***和方法,所述专利申请案的内容全文以引用的方式并入本文中。
发明内容
根据本文所揭示的本发明的一般方面,提供一种用于使用自动化***对毛囊单位进行计数的***和方法。木发明的***和方法可与用于在身体表面上移植毛发毛囊单位的***和方法一起利用。当在用于毛发移植的自动化***上实施或与其整合时,本发明的***和方法尤其有用。
在本发明的一个方面中,对毛囊单位进行计数的方法包括:获取具有皮肤和毛囊单位的身体表面的图像;过滤所述图像以移除所述图像中的背景成分(例如,皮肤,且视情况为某些其它较小背景成分);处理所述所得的图像以产生经分段图像;以及过滤噪音以移除不对应于所关注毛囊单位的对象。因此,可对剩余的所关注毛囊单位进行计数。在一个优选实施例中,所述获取的图像为数字图像,但其并非必要且可使用模拟图像。可使用所属领域的一般技术人员已知的技术将模拟图像转换为数字图像。根据本发明,可实现移除所述获取的图像中的皮肤成分(和/或其它背景成分)的步骤,而不受任何适当技术和方法限制。
在一个示范性实施例中,使用背景减除技术来实现过滤以移除背景成分,其中皮肤表面是背景。示范性背景减除技术的一者包含从输入图像减除等值(leveled)图像(或输入图像的模糊版本)。其它技术涉及方差过滤器、基于边缘检测的技术,或使用彩色数据切断肤色。在另一示范性实施例中,使用带通过滤器来实现移除背景(皮肤)成分的步骤。可通过任何众所周知的技术来实现处理图像以产生经分段图像。在本发明的方法的一个示范性实施例中,经分段图像是二进制图像;然而,多模态图像(例如,由两种以上不同图像代码表示的皮肤、痣、血液和/或其它特征)也在本发明的范围内。在必要时,所述经分段图像进一步经受噪音过滤以移除除所关注毛囊之外的任何物。需要被过滤的噪音类型的实例包含(但不限于)图像噪音、头皮屑、血液斑点、痣、较长的未切毛发等。可同时完成所有的噪音过滤,或可将其分为若干单独步骤:举例来说,首先过滤对应于较小对象(例如,较小的头皮屑)的“小噪音”,且然后过滤对应于较大对象(例如,较长毛发、较大血液斑点)的“较大噪音”。
通过从经分段图像移除此类对象的对此“较小噪音”的过滤被称为形态学开放操作,其是所属领域的一般技术人员已知的标准图像处理技术。然后对从形态学开放操作产生的图像执行噪音过滤的剩余部分。噪音过滤移除不符合对应于毛囊单位的标准的对象。举例来说,图像中的对象的面积、位置或定向可为其面积、位置或定向不对应于实际毛囊单位的对象(例如,其可为碰巧遗留在头皮上的经切割毛发)。可通过与选定图像中的已知为毛发的对象的图像的相同特征的综合性质进行统计比较,来确定对象的图像的特征是否对应于毛发,或者,可基于患者取样或其它数据(例如,如果患者以某一方式分开毛发,则我们知道毛发应大多数指向给定方向)将所述特征与预定标准进行比较。
在噪音过滤后遗留在图像中的对象中的每一者被计为毛囊单位。因此,所述方法可用于对毛囊单位进行计数。
在对毛囊单位进行计数的方法的另一方面中,使用带通过滤器来过滤以移除图像的皮肤成分可包括:第一过滤步骤,其使用具有第一内核的低通过滤器;和第二过滤步骤,其使用具有第二内核的低通过滤器。在本发明的另一特征中,低通内核可为高斯内核。所属领域的一般技术人员熟悉且了解如何实施此类低通过滤器和高斯过滤器。
在本发明的方法的又一实施例中,通过使用(例如)多个成像来细化毛囊单位的计数。其还可包含用于追踪所关注FU并对准***以获得图像的方法。在一个示范性实施例中,第一和第二相机用于提供立体图像。所述立体图像可用于追踪第一和第二相机的图像内的所关注FU以调整身体表面的移动和/或相机的移动。另外,将第一和第二相机与FU的毛发的大体定向对准,使得所获得的图像提供用于执行本发明的方法的剩余步骤的良好质量数据。还可使用立体图像或多个图像来计算毛发的坐标位置。然后,还可过滤掉具有与所述身体表面上的毛发不一致的所计算坐标位置的图像。或者,本发明的***和方法可使用多个相机(或其它图像获取装置)或仅使用一个相机来从各个角度拍摄多个图像(包含全景图像)。可手动地移动相机,或如果所使用的***为机器人***,则可在机器人的辅助下移动相机。可在需要时使用此可选的计数细化步骤。
在本发明的另一实施例中,可结合将毛囊单位分类的方法(例如,第11/467,268号美国专利申请案中所描述的方法)而使用对毛囊单位进行计数的方法。以此方式,可对所关注毛囊单位进行计数和分类两者。将毛囊单位(FU)分类的方法(如第11/467,268号中所描述)包括:获取存在毛囊单位(FU)的身体表面的图像,以及处理此图像以产生FU的经分段图像。在一个优选实施例中,所述经分段图像为二进制图像,但其可为如上所述的多模态图像。从FU的经分段图像,可计算出围绕FU的毛发的外周边的轮廓。举例来说,对于F1,所述轮廓将通常为遵循单一毛发的外表面的线或表面。所述经分段图像还允许计算FU的侧视轮廓图。所述侧视轮廓图忽视图像的轮廓中的凹面。
然后将侧视轮廓图与所述轮廓进行比较以确定侧视轮廓图中的“缺陷”的数目。可将所述侧视轮廓图中的缺陷界定为(例如)所述侧视轮廓图中的偏离所述轮廓的凹面中的每一者。在F2实例中,在侧视轮廓图中存在一个由形成为“V”形的凹面表示的缺陷。在F3中,所述轮廓将大体上成形为如同共用共同顶点的两个V,且其中一个线形成两个V的一边。F3的侧视轮廓图将也具有大体三角形形状(但其可能为比F2宽的三角形)。因此,F3将具有两个缺陷。因此,可见,缺陷的数目与毛囊单位的类型具有直接关系。在此情况下,FU的毛发的数目等于缺陷数目减去1。
在将毛囊单位分类的方法的一个实施例中,可通过依照众所周知的图像处理技术来计算凸面体轮廓,而确定侧视轮廓图。用于确定侧视轮廓图的其它适当的技术也在所揭示的本发明的范围内。
在将毛囊单位分类的方法的另一实施例中,提供用于追踪所关注FU以调整图像获取装置与FU之间的相对移动的程序。可对准多个图像获取装置(例如,相机)以获得图像。在一个示范性实施例中,第一和第二相机提供立体图像。所述立体图像可用于追踪第一和第二相机的图像内的所关注FU以调整身体表面的移动和/或相机的移动。另外,将第一和第二相机与FU的毛发的大体定向对准。以此方式,获得一图像,其提供用于执行将FU分类的方法的剩余步骤的良好质量数据。
另外,将毛囊单位分类的方法还可调整具有集中于皮肤表面下方的毛发的毛囊单位。在此情况下,所述图像将含有并非为所关注FU的轮廓的邻接部分的毛发的图像。为了考虑到此情形,确定单独的毛发是否处于距界定所关注FU的邻接轮廓的毛发的最大距离内。所述最大距离被设置为一距离,在所述距离内看似为来自单独FU的毛发最可能为与所关注FU相同的FU的一部分。将所关注FU进行分类然后考虑处于距所关注FU的毛发最大距离内的任何额外毛发。
此外,将毛囊单位分类的方法还可调整看似为单一毛发但实际上为多根毛发的毛发图像。因此,确定缺陷的数目将不提供准确的分类,因为经合并的毛发将导致侧视轮廓图中的比所关注FU中实际上存在的缺陷少的缺陷(且因此较少的毛发)。为了考虑到此情形,所述方法使用图像来确定表示所关注FU中的一根毛发的每一对象的宽度(或口径)。然后确定表示一根毛发的每一对象的宽度是否超过单一毛发的最大预期宽度,并对其进行比较。将FU分类的步骤还可基于以上比较和确定表示毛发的对象的宽度是否超过最大预期宽度以及超过多少的结果。举例来说,如果所述宽度在预期宽度的1-1/2与2倍之间,则分类步骤将把此对象近似为两根毛发。可针对3、4或5根毛发进行类似近似。
在结合将FU分类的方法而使用对FU进行计数的方法的情况下,可在分类方法之前、之后或与其同时执行计数方法。
在本发明的另一方面中,提供一种用于对毛囊单位进行计数(且在某些实施例中,还进行分类)的***。在本发明的一个示范性实施例中,用于使用自动化***对FU进行计数的***包括图像获取装置和图像处理器。图像获取装置的一个实例是一个或一个以上相机,例如任何市售相机。替代于相机,其可为视频记录装置(例如,摄像机)或任何其它图像获取装置。虽然立体成像装置在本发明中良好工作,但并没有必要具有立体成像。类似地,虽然图像获取装置优选为数字装置,但这并没有必要。举例来说,其可为获取初始图像的模拟TV相机,所述初始图像接着可经数字化以进一步用于本发明的方法中。图像处理器可包括经编程并经配置以执行根据本发明的对FU进行计数(且视情况进行分类)的方法的任何装置。合适的图像处理器的一个非限制性实例是任何类型的个人计算机(“PC”)。或者,图像处理器可包括专用集成电路(ASIC)或现场可编程门阵列(FPGA)。
根据本发明的另一方面,提供经编程并经配置以执行根据本发明的对FU进行计数(且视情况进行分类)的方法的图像处理器。任何合适的图像处理器均在本发明的范围内。在一个示范性实施例中,用于对毛囊单位进行计数的图像处理器经配置以用于:接收包括皮肤和毛囊单位的身体表面的图像;过滤所述图像以移除背景成分;处理所述图像以产生经分段图像;以及执行噪音过滤以移除不对应于所关注毛囊单位的对象。可结合用于毛发处理、用于采集和/或植入毛囊单位(手动、半自动、自动或机器人)的各种***,以及结合用于对毛囊单位进行计数或分类的各种***而使用根据本发明的此类图像处理器;或者,其可并入在此类***中的任一者中。
一种用于使用自动化***对毛囊单位进行计数的***可与上文背景技术中所描述的移植***中的任一者结合使用或可包括所述移植***中的任一者。举例来说,第11/380,907号美国专利申请案中所描述的***可经编程并经配置以执行根据本发明的对毛囊单位进行计数的方法。***上的相机可提供立体数字图像,且机械手可正确地对相机进行定位和定向。可由操作者在***(例如,具有监视器和输入装置的计算机)的用户界面处执行关注区的选择,或可通过对计算机和/或控制器的编程而使所述选择自动化。
因此,提供一种用于对毛囊单位进行计数(且在某些实施例中,还进行分类)的***和方法。当鉴于附图进行阅读时从以下详细描述中将明白本发明的其它和进一步的实施例、目的及优点。
附图说明
在附图的图式中以实例而非限制的方式说明本发明,附图中相同的参考指示相似的元件,且附图中:
图1是展示具有多个毛囊单位的人类头皮的示范性区段的数字图像的印刷品。
图2是在图1的数字图像已被过滤以移除皮肤成分后的所述数字图像的印刷品。
图3是在图像已被分段后的图2的数字图像的印刷品。
图4是在已对所述经分段图像执行形态学开放操作后的图3的数字图像的印刷品。
图5是在已对图4的数字图像执行所有噪音过滤后的所述图像的印刷品。
图6是根据本发明的一个示范性实施例的对毛囊单位进行计数的方法的示范性流程图。
具体实施方式
首先参看图1,根据本发明的用于对毛囊单位进行计数的***和方法一般开始于使用任何适当的图像获取装置来获取身体表面11的图像10。在一个示范性实施例中,此类图像获取装置是一个或一个以上数码相机。或者,可利用任何其它合适的成像装置。所述图像获取装置可产生数字图像,例如由数码相机产生的数字图像,或其可产生模拟图像(其在过程中的任何点处可或不可被转换为数字图像)。虽然在示范性实施例的此描述中图像10为由数码相机拍摄的数字图像,但本发明并不限于由数码相机拍摄的数字图像。代替于相机,其可为视频记录装置(例如,摄像机)或任何其它图像获取装置。虽然立体成像装置在当前是优选的,但并没有必要具有立体成像。类似地,虽然图像获取装置优选为数字装置,但这并没有必要。其可为(例如)获取初始图像的模拟TV相机,所述初始图像接着经处理为数字图像以进一步用于本发明的方法中。身体表面11具有皮肤12和多个毛囊单位14,每一毛囊单位14具有一根或一根以上毛发13(在图中仅标记了数个毛囊单位14和毛发13)。图1的照片是人类头皮11的一区段的图像,但应理解,身体表面11可为具有毛发的任何身体的任何区域。数字图像10展示头皮11上的多种类型的毛囊单位14(FU)。
可使用自动化毛发移植***的一个或一个以上相机来获取图像10,例如第11/380,907号美国专利申请案的毛发移植***中所描述的相机,所述申请案的全文以引用的方式并入本文中。来自所述相机中的仅一者的图像可用于产生数字图像10。或者,可由对准所述相机以改进用于对所关注毛囊单位进行计数的图像的更复杂过程来获取用于获得数字图像10的过程。在此示范性过程中,使用第一相机和第二相机。所述相机经布置并经配置以获得相机被导向其处的身体表面的立体图像。所述相机首先经定位以被导向已知具有毛发的区域中的身体表面。从第一相机获取第一图像,且从所述第一图像内选择所关注毛囊单位(FU)。从第二相机获取与第一相机大致相同的身体表面区的第二图像(由立体相机提供的略微不同角度除外),且从第二图像内选择相同的所关注FU。可由***的操作者在图像中选择所关注FU,或由***使用选择算法自动选择。移植***现在能够追踪来自第一和第二相机的第一和第二图像内的所关注FU。所述追踪程序可用于在身体表面和相机经对准以获取用于对FU进行计数的图像时调整身体表面的移动和相机的移动。
接下来,第一和第二相机移动且定向为与FU的毛发的大体定向对准。随着相机移动,可由***获取并处理额外图像以便追踪所关注FU。通过使相机与FU的毛发对准,可获取用于对FU进行计数的更好图像。在相机处于所需对准的情况下,相机获取将用于对毛囊单位进行计数的方法的接下来的步骤中的图像。严格以实例而非限制的方式提供以上描述。可能使用各种多个图像获取装置(例如,多个相机)或单一相机以不同角度拍摄多个图像(包含全景图像)以追踪所关注FU。如先前所阐释,所述图像获取装置不必是数字图像获取装置,且初始获得的图像无需是数字图像。可由机器人***,或手动地控制相机的移动,其取决于所使用的***的种类。
在获取图像10之后,关注区19可为整个图像10,或整个图像10的选定子区域。在本文所描述的实例中,选定关注区19与图像10共同延伸。然而,选定关注区19可以是图像10的任何子组区域。可由操作者选择关注区19,或所述选择可由***自动化。图像内的此关注区可被称为选定图像19。因此,对关注区19或选定图像19的进一步参考可涉及整个图像10,或涉及可经选择的任何子区域或仅仅是所获取图像10的固有结果。
已确定首先从所获取图像移除背景成分是有益的,以便改进用于对所关注毛囊单位进行计数的全部过程中的准确度和效率。一般来说,此类背景成分对应于皮肤。除皮肤之外,这些背景成分还可包含某些额外较小对象,例如头皮屑或较小血液斑点。因此,对皮肤(或皮肤成分)的过滤或移除的进一步参考不仅限于皮肤,而是可包含某些额外较小背景成分或对象;且任何此类参考应意指对背景成分的过滤或移除。用于从图像过滤背景成分(例如,皮肤)的任何合适的方法处于本发明的范围内。
在一个示范性实施例中,在皮肤表面为背景的情况下,使用背景减除技术来实现皮肤12的过滤。示范性背景减除技术中的一者包含从输入图像减除等值图像(或输入图像的模糊版本)。通过从输入图像减除输入图像的模糊版本,可同时针对非均匀照明和肤色进行校正。可通过计算选定图像19(输入图像)的局部平均值来形成模糊图像。通过将输入图像与高斯内核进行卷积而有效地计算出局部平均值。通过调整在模糊化过程期间所采用的高斯内核的特征,可针对特定患者、环境照明,或其它临床情形来调谐此过滤程序。总之,上述实例的背景减除技术为如下:
(1)模糊图像=与高斯进行卷积的输入图像(注意:可由任何其它合适的内核来取代高斯)
(2)不具有背景的图像=(输入图像)—(模糊图像)
可用于本发明中的其它示范性背景减除技术包含方差过滤器、基于边缘检测的技术,或使用彩色数据切断肤色。
可用于从选定图像19过滤皮肤12的过滤步骤的另一示范性实施例是带通过滤。图2中说明一种示范性方法,图2展示在已使用带通过滤器过滤原始选定图像19之后数字图像的印刷品。带通过滤器可包括所属领域的一般技术人员已知的任何合适的过滤器。可通过两次低通过滤选定图像且然后减除两个所得的经过滤图像,而实现带通过滤。带通过滤器可包括:第一过滤步骤,其使用具有第一内核的低通过滤器;和第二过滤步骤,其使用具有第二内核的低通过滤器。第一内核优选不同于第二内核。在本发明的一个实施例中,低通过滤器的内核可为高斯内核。第一高斯内核可具有大致以下特征:支持21个像素,δ为1.0。第二高斯内核可具有大致以下特征:支持21个像素,δ为0.075。
接下来,在移除皮肤12(其可包含对上文所提及的其它较小背景成分的移除)之后,使用众所周知的图像处理技术来处理所得图像以产生经分段图像。经分段图像的一个实例为二进制图像。图3是在二进制图像已经分段之后的所述图像的打印品。如上文所论述,所述经分段图像不限于创建二进制图像,而是也可为多模态的,即区分为对应于特征(例如痣、血液、毛发和/或其它特征)的两个以上不同图像代码。经分段图像提供FU的经改进和更清楚的图像,然而,其仍可能含有需要进一步过滤的某一“噪音”(例如,不对应于毛发或指定毛发的对象和人造物)。已观察到,在获得含有FU的经分段图像之前移除背景成分(如上所述)不仅减少了经分段图像中的剩余噪音的量,而且简化了过滤不对应于所关注毛发的所有其它对象的剩余步骤,并使其更有效。
可同时过滤仍遗留在经分段图像中的所有噪音,或其可分为若干单独步骤:举例来说,首先可过滤对应于较小对象(例如,某些遗留的较小的血液斑点,或遗留的较大片的头皮屑)的“较小噪音”,且接着可过滤对应于较大对象(例如,较长未切毛发,或仍遗留在头皮上的先前切割的毛发)的“较大噪音”,或反之亦然。遗留在头皮上且出现在图像中的经切割毛囊的实例将不被视为“所关注FU”,因此,需要将其作为噪音过滤。从经分段图像中过滤“较小噪音”在此处被称作形态学开放操作。可通过使用所属领域的一般技术人员已知的标准图像处理技术来实现形态学开放操作。图4展示在形态学开放操作之后的所得示范性图像。如图4中可见,图像可仍含有不对应于毛囊单位14的毛发13的某些对象。仍有对象看起来过长、过大,随机定向,和/或处于可能不含有毛发的位置中。
因此,可对从形态学开放操作产生的图像执行额外噪音过滤。所述额外噪音过滤移除不符合对应于毛囊单位14的标准的较大对象。返回参看图4,对象22看起来过长且具有比图像19中的其它对象大得多的面积。因此,可假定此对象可能不是毛发13,且因此应从图像中过滤掉。现在转向在图5的噪音过滤步骤之后的图像的印刷品,可见,已从图像过滤掉对象22。噪音过滤步骤可基于图像中的对象的较广范围的特征进行过滤,所述特征包含(但不限于)长度、面积、定向和/或位置。可通过与选定图像中的已知为毛发的对象的图像的相同特征的综合性质进行统计比较,来确定对象的图像的特征是否对应于毛发,或者,可基于患者取样或其它数据将所述特征与预定标准进行比较。举例来说,噪音过滤过滤器可基于特定患者身体表面上的其它毛发的取样的特征,或患者的样本上的毛发的取样的特征,或基于基于学习或研究的已知预定数据。
总之,可基于各种标准且在需要时同时或以若干步骤实现从经分段图像中进行所有噪音过滤。噪音过滤后遗留在图像中的对象中的每一者被计为所关注毛囊单位。因此,所述方法可用于对毛囊单位进行计数。
在图6的流程图中概括了对毛囊单位进行计数的上述示范性方法的基本步骤。图6仅是上述方法的流程图表示。在步骤100中,获取含有毛囊单位的图像。在步骤110中,过滤所获取的图像以移除背景成分,如上文所阐释。在步骤120中,处理不具有背景成分的图像以产生经分段图像。在步骤130中,执行噪音过滤程序以移除不对应于所关注毛发的人造物和对象。作为上述步骤的结果,可对剩余对象的数目进行计数以确定图像(或图像的选定子区域)中的毛囊单位的数目。如果需要,还可标记FU。图6展示额外的计数和标记步骤140。
在本发明的另一实施例中,可结合将毛囊单位分类的方法(例如,第11/467,268号美国专利申请案中所描述的方法)而使用对毛囊单位进行计数的方法。以此方式,可对所关注毛囊单位进行计数和分类两者。将毛囊单位(FU)分类的方法包括:获取存在毛囊单位(FU)的身体表面的图像,以及处理此图像以产生FU的经分段图像。在一个优选实施例中,所述经分段图像为二进制图像,但其可为如上所述的多模态图像。从FU的经分段图像,可计算出围绕FU的毛发的外周边的轮廓。举例来说,对于F1,所述轮廓将通常为遵循单一毛发的外表面的线或表面。对于相对直的毛发,所述轮廓将看似为矩形。对于F2,所述毛发通常形成“V”形,使得所述轮廓看似为印刷体字母“V”。
所述经分段图像还允许计算FU的侧视轮廓图。所述侧视轮廓图忽视图像的轮廓中的凹面。举例来说,对于F2,存在通过从“V”的顶部的一侧到“V”的顶点,且倒退到“V”的顶部的另一侧的轮廓中的下降而形成的所述轮廓中的凹面或“内弯”部分。所计算的外形忽视此凹面,使得所得的侧视轮廓图看似为一三角形,其中所述三角形的顶点中的一者大体上跟踪所述FU的轮廓的“V”的顶点。
然后将侧视轮廓图与所述轮廓进行比较以确定侧视轮廓图中的“缺陷”的数目。可将所述侧视轮廓图中的缺陷界定为(例如)所述侧视轮廓图中的偏离所述轮廓的凹面中的每一者。在F2实例中,在侧视轮廓图中存在一个由形成为“V”形的凹面表示的缺陷。在F3中,所述轮廓将大体上成形为如同共用共同顶点的两个V,且其中一个线形成两个V的一边。F3的侧视轮廓图将也具有大体三角形形状(但其可能为比F2宽的三角形)。因此,F3将具有两个缺陷。因此,可见,缺陷的数目与毛囊单位的类型具有直接关系。在此情况下,FU的毛发的数目等于缺陷数目减去1。
在将毛囊单位分类的方法的一个非限制性示范性实施例中,可通过依照众所周知的图像处理技术来计算凸面体轮廓,而确定侧视轮廓图。用于确定侧视轮廓图的其它适当技术也在所揭示的本发明的范围内。
在将毛囊单位分类的方法的另一非限制性示范性实施例中,提供用于追踪所关注FU以调整图像获取装置与FU之间的相对移动的程序。可对准两个或两个以上相机,或其它图像获取装置以获得一图像或多个图像。在一个示范性实施例中,立体图像可用于追踪第一和第二相机的图像内的所关注FU以调整身体表面的移动和/或相机的移动。另外,将第一和第二相机与FU的毛发的大体定向对准。以此方式,获得一图像,其提供用于执行将FU分类的方法的剩余步骤的良好质量数据。以实例而非限制的方式提供以上描述。因此,没有必要使用两个相机或立体成像,且可使用多个图像获取装置(例如,多个相机)来执行追踪程序,以及使用可从各个角度拍摄多个图像(包含全景图像)的单一相机来执行追踪程序。可手动地移动相机,或如果所使用的***为机器人***,则在机器人的辅助下移动相机。
将毛囊单位分类的方法还可调整具有集中于皮肤表面下方的毛发的毛囊单位。在此情况下,所述图像将含有并非为所关注FU的轮廓的邻接部分的毛发的图像。为了考虑到此情形,确定单独的毛发是否处于距界定所关注FU的邻接轮廓的毛发的最大距离内。所述最大距离被设置为一距离,在所述距离内看似为来自单独FU的毛发最可能为与所关注FU相同的FU的一部分。将所关注FU进行分类然后考虑处于距所关注FU的毛发最大距离内的任何额外毛发。
将毛囊单位分类的方法还可调整看似为单一毛发但实际上为多根毛发的毛发图像。如果以与FU的毛发成某一角度来拍摄图像,则所述毛发的图像可合并且看似为一根毛发。因此,确定缺陷的数目将不提供准确的分类,因为经合并的毛发将导致侧视轮廓图中的比所关注FU中实际上存在的缺陷少的缺陷(且因此更少的毛发)。为了考虑到此情形,所述方法使用图像来确定表示所关注FU中的一根毛发的每一对象的宽度(或口径)。然后确定表示一根毛发的每一对象的宽度是否超过单一毛发的最大预期宽度,并对其进行比较。将FU分类的步骤还基于确定表示毛发的对象的宽度是否超过最大预期宽度以及超过多少。举例来说,如果所述宽度在预期宽度的1-1/2与2倍之间,则分类步骤将把此对象近似为两根毛发。可针对3、4或5根毛发进行类似近似。
应了解,可在分类方法之前、之后或与其同时执行对FU进行计数的方法。
在本发明的又一方面中,提供一种用于对毛囊单位进行计数(且将FU分类,视情况而定)的***。作为示范性实施例,所述***可包括图像获取装置和图像处理器。图像获取装置的一些非限制性实例包含一个或一个以上相机,例如任何市售相机。所述图像获取装置可拍摄静态图像,或其可为视频记录装置(例如,摄像机),或任何其它图像获取装置。立体成像装置是当前优选的,但没有必要具有立体成像,且本发明不受如此限制。同样,虽然图像获取装置优选为数字装置,但这并非必要。举例来说,图像获取装置可为获取初始图像的模拟TV相机,所述初始图像接着被处理为数字图像以进一步用于本发明的方法中。以上***中使用的图像处理器可包括经编程并经配置以执行根据本发明的对FU进行计数(和任选地,分类)的方法的任何装置。以实例而非限制的方式,合适的图像处理器可为任何类型的个人计算机(“PC”)。或者,图像处理器可包括专用集成电路(ASIC)或现场可编程门阵列(FPGA)。在一个示范性实施例中,一种用于对毛囊单位(FU)进行计数的***包括:图像获取装置和图像处理器,所述图像处理器经配置以用于:过滤从图像获取装置获得的包括皮肤和FU的图像,以移除背景成分;处理所述图像以产生经分段图像;以及执行经分段图像的噪音过滤以移除不对应于所关注FU的对象。
根据本发明的另一方面,提供一种用于对毛囊单位进行计数的图像处理器。其可包括上文所描述的任何适当的装置。可使用经配置以执行对毛囊单位进行计数(且视情况进行分类)的方法的软件来编程图像处理器。在一个示范性实施例中,用于对毛囊单位进行计数的图像处理器经配置以用于:接收包括皮肤和毛囊单位的身体表面的图像;过滤所述图像以移除背景成分;处理所述图像以产生经分段图像;以及执行噪音过滤以移除不对应于所关注毛囊单位的对象。可单独提供根据本发明的此类图像处理器,且其与毛发处理的规划结合使用,或与用于采集和/或植入毛囊单位(手动、半自动、自动或机器人)的各种***结合使用,以及与用于对毛囊单位进行计数或分类的各种***结合使用;或者,其可并入在以上***和装置中的任一者中。
图像获取装置可独立地提供,或其可安装在固定位置中,或其可安装到机械手或其它可控制运动装置。机械手或运动装置可操作地耦合到经配置以控制机械手或运动装置的运动的控制器。所述控制器可接收并处理来自图像处理器的图像或数据,其中所述控制器经配置以基于由所述图像获取装置获取的图像或数据来控制机械手或运动装置的运动。另外,所述***可包括毛发采集和/或植入工具。
本文中所描述的用于对毛囊单位进行计数(和分类)的***和方法的任一者可与第11/380,903号美国专利申请案和第11/380,907号美国专利申请案中所描述的采集并移植毛发的***和方法结合而使用。
本发明的以上说明和描述的实施例容许各种修改和替代形式,且应理解,本发明(大体来说)以及本文所描述的特定实施例不限于所揭示的特定形式或方法,而是相反,涵盖处于所附权利要求书的范围内的所有修改、等效物和替代方案。以非限制性实例的方式,所属领域的技术人员将了解,本发明不限于包含机械手的机器人***的使用,且可利用其它自动化和半自动化***。另外,本发明的对毛囊单位进行计数的***和方法可以是与单独的自动化移植***或甚至与手动移植程序一起使用的单独***。

Claims (31)

1.一种对毛囊单位(FU)进行计数的方法,其包括:
获取包括皮肤和FU的身体表面的图像;
过滤所述图像以移除背景成分;
处理所述图像以产生经分段图像;以及
执行所述经分段图像的噪音过滤以移除不对应于所关注FU的对象。
2.根据权利要求1所述的方法,其中所述图像是数字图像。
3.根据权利要求1所述的方法,其中使用背景减除技术来实现移除背景成分。
4.根据权利要求3所述的方法,其中所述背景减除技术包括:计算模糊图像并从所述获取的图像中减除所述模糊图像。
5.根据权利要求4所述的方法,其中通过将所述获取的图像与高斯内核进行卷积来计算所述模糊图像。
6.根据权利要求5所述的方法,其中针对以下中的一者或一者以上来调谐所述高斯内核:
特定患者,
环境照明条件,以及
其它临床条件。
7.根据权利要求3所述的方法,其中所述背景减除技术包括方差过滤。
8.根据权利要求3所述的方法,其中所述背景减除技术包括基于边缘检测的过程。
9.根据权利要求1所述的方法,其中使用带通过滤器来实现移除背景成分。
10.根据权利要求1所述的方法,其中移除背景成分包括:从所述获取的图像中移除对应于所述皮肤和其它较小对象的成分。
11.根据权利要求1所述的方法,其中所述过滤以移除背景成分包括:两次低通过滤选定图像且然后从所述获取的图像中减除所述两个所得的经过滤图像。
12.根据权利要求1所述的方法,其中所述过滤以移除背景成分包括:第一过滤器步骤,其中使用具有第一内核的低通过滤器来过滤所述图像;和第二过滤器步骤,其中使用具有第二内核的低通过滤器来过滤所述图像。
13.根据权利要求12所述的方法,其中所述第一内核为高斯内核,所述高斯内核大致具有以下特征:支持21个像素,且δ为1.0。
14.根据权利要求12所述的方法,其中所述第二内核为高斯内核,所述高斯内核大致具有以下特征:支持21个像素,且δ为0.75。
15.根据权利要求1所述的方法,其进一步包括:
获取几何学上对应于所述第一获取的图像的至少一个额外图像;
使用所述第一和至少一个额外图像来计算毛发的坐标位置;以及
过滤掉具有与所述身体表面上的毛发不一致的所计算坐标位置的毛囊单位。
16.根据权利要求1所述的方法,其进一步包括对所述所关注FU进行计数。
17.根据权利要求1所述的方法,其中所述噪音过滤的步骤包括:过滤掉具有不同于所述获取的图像内的平均对象大小的面积的任何对象。
18.根据权利要求1所述的方法,其中所述特征包含面积、位置和定向中的一者或一者以上。
19.根据权利要求1所述的方法,其中所述噪音过滤的步骤包括:过滤掉其特征不对应于毛发的基于所述身体表面上的毛发的取样的特征的对象。
20.根据权利要求1所述的方法,其中所述噪音过滤的步骤包括:过滤掉其特征不对应于毛发的基于预定数据的预期特征的对象。
21.根据权利要求1所述的方法,其进一步包括通过以下操作追踪正被计数的FU:
获取所述FU的第一图像;
从所述第一图像确定所述FU的位置;
获取所述FU的第二图像;以及
从所述第二图像确定所述FU的位置。
22.根据权利要求1所述的方法,其进一步包括基于从所述FU发散的毛发的数目将FU分类。
23.一种用于对身体表面上的毛囊单位(FU)进行计数的***,其包括:
图像获取装置;以及
图像处理器,所述图像处理器经配置以用于
过滤从所述图像获取装置获得的包括皮肤和FU的图像,以移除背景成分;
处理所述图像以产生经分段图像;以及
执行所述经分段图像的噪音过滤以移除不对应于所关注FU的对象。
24.根据权利要求23所述的***,其中所述***是机器人***。
25.根据权利要求24所述的***,其进一步包括上面安装有所述图像获取装置的机械手。
26.根据权利要求25所述的***,其进一步包括操作地耦合到所述机械手和所述图像处理器的控制器。
27.根据权利要求23所述的***,其中所述图像处理器是个人计算机。
28.根据权利要求23所述的***,其中图像获取装置包括一个或一个以上相机。
29.一种用于对毛囊单位(FU)进行计数的图像处理器,所述图像处理器经配置以用于:
接收包括皮肤和FU的身体表面的图像;
过滤所述图像以移除背景成分;
处理所述图像以产生经分段图像;以及
执行噪音过滤以移除不对应于所关注FU的对象。
30.根据权利要求29所述的图像处理器,其进一步经配置以用于基于从FU发散的毛发的数目来将所述FU分类。
31.一种对毛囊单位(FU)进行计数和分类的方法,其包括:
获取身体表面的图像;
过滤所述图像以移除对应于皮肤的成分;
处理所述图像以产生经分段图像;
执行噪音过滤以移除不对应于所关注FU的对象;
计算将要分类的每一FU的所述经分段图像的轮廓;
计算所述经分段图像的忽视将要分类的所述FU的所述经分段图像的所述轮廓中的凹面的侧视轮廓图;
确定将要分类的所述FU的所述侧视轮廓图中的缺陷的数目;以及
至少部分基于所确定的缺陷的所述数目将所述FU分类。
CN2007800310595A 2006-08-25 2007-08-24 用于对毛囊单位进行计数的***和方法 Active CN101505659B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/467,283 US20080049993A1 (en) 2006-08-25 2006-08-25 System and method for counting follicular units
US11/467,283 2006-08-25
PCT/US2007/076728 WO2008024955A2 (en) 2006-08-25 2007-08-24 System and method for counting follicular units

Publications (2)

Publication Number Publication Date
CN101505659A true CN101505659A (zh) 2009-08-12
CN101505659B CN101505659B (zh) 2011-09-28

Family

ID=39107713

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800310595A Active CN101505659B (zh) 2006-08-25 2007-08-24 用于对毛囊单位进行计数的***和方法

Country Status (9)

Country Link
US (3) US20080049993A1 (zh)
EP (1) EP2053973A4 (zh)
JP (1) JP4988847B2 (zh)
KR (1) KR101030853B1 (zh)
CN (1) CN101505659B (zh)
AU (1) AU2007286606B2 (zh)
BR (1) BRPI0715630A2 (zh)
CA (1) CA2661660C (zh)
WO (1) WO2008024955A2 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103269657A (zh) * 2011-01-07 2013-08-28 修复型机器人公司 用于修改自动化过程的参数的方法和***
CN103517687A (zh) * 2011-05-18 2014-01-15 修复型机器人公司 用于选择所需数量的毛囊单位的***和方法
CN109310320A (zh) * 2016-03-23 2019-02-05 宝洁公司 用于确定杂散纤维的成像方法
CN112419355A (zh) * 2020-11-25 2021-02-26 复旦大学 基于角点检测的毛发图像中毛发计数方法

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8121361B2 (en) 2006-05-19 2012-02-21 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
US7477782B2 (en) * 2006-08-25 2009-01-13 Restoration Robotics, Inc. System and method for classifying follicular units
US8211134B2 (en) * 2007-09-29 2012-07-03 Restoration Robotics, Inc. Systems and methods for harvesting, storing, and implanting hair grafts
US8152827B2 (en) 2008-01-11 2012-04-10 Restoration Robotics, Inc. Systems and methods for harvesting, storing, and implanting hair grafts
US9107697B2 (en) * 2008-06-04 2015-08-18 Restoration Robotics, Inc. System and method for selecting follicular units for harvesting
US8652186B2 (en) 2008-06-04 2014-02-18 Restoration Robotics, Inc. System and method for selecting follicular units for harvesting
US8545517B2 (en) * 2008-06-06 2013-10-01 Restoration Robotics, Inc. Systems and methods for improving follicular unit harvesting
US8848974B2 (en) * 2008-09-29 2014-09-30 Restoration Robotics, Inc. Object-tracking systems and methods
US9693799B2 (en) 2009-09-17 2017-07-04 Pilofocus, Inc. System and method for aligning hair follicle
US9314082B2 (en) 2009-09-17 2016-04-19 Pilofocus, Inc. System and method for extraction of hair follicle
EP2477532A1 (en) 2009-09-17 2012-07-25 Carlos K. Wesley Hair restoration surgery
US9498289B2 (en) 2010-12-21 2016-11-22 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US8911453B2 (en) 2010-12-21 2014-12-16 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
KR101194773B1 (ko) * 2011-03-29 2012-10-26 강진수 탈모진행정도의 측정 방법
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
BR112014009498A2 (pt) 2011-10-17 2017-04-18 Pilofocus Inc sistema
US8897522B2 (en) * 2012-05-30 2014-11-25 Xerox Corporation Processing a video for vascular pattern detection and cardiac function analysis
US20140028822A1 (en) * 2012-07-30 2014-01-30 Alex A. Khadavi Hair loss monitor
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
WO2014120734A1 (en) 2013-02-01 2014-08-07 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
US8983157B2 (en) * 2013-03-13 2015-03-17 Restoration Robotics, Inc. System and method for determining the position of a hair tail on a body surface
US9576359B2 (en) * 2013-11-01 2017-02-21 The Florida International University Board Of Trustees Context based algorithmic framework for identifying and classifying embedded images of follicle units
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的***、设备和方法
US10387021B2 (en) 2014-07-31 2019-08-20 Restoration Robotics, Inc. Robotic hair transplantation system with touchscreen interface for controlling movement of tool
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10013642B2 (en) 2015-07-30 2018-07-03 Restoration Robotics, Inc. Systems and methods for hair loss management
US10568564B2 (en) 2015-07-30 2020-02-25 Restoration Robotics, Inc. Systems and methods for hair loss management
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US20180189976A1 (en) * 2016-12-29 2018-07-05 Michal Kasprzak Analysis unit and system for assessment of hair condition
US9980649B1 (en) 2017-02-15 2018-05-29 International Business Machines Corporation Skin scanning device with hair orientation and view angle changes
KR101800365B1 (ko) * 2017-08-09 2017-11-22 김태희 자동 모낭분리장치
KR102004724B1 (ko) * 2017-11-30 2019-07-29 (주)인트인 정자 검출 방법 및 이를 구현하기 위한 프로그램을 기록한 기록매체
KR102234006B1 (ko) * 2018-11-27 2021-03-31 김태희 모낭 정보 측정 및 수집 방법
KR102324240B1 (ko) * 2019-01-28 2021-11-11 주식회사 아프스 모발 식별 장치 및 이를 구비하는 자동 모낭 분리 장치
KR102329641B1 (ko) * 2020-04-21 2021-11-22 (주)에임즈 모발 상태를 분석하는 방법 및 이를 이용한 모발 정보 제공 장치 및 시스템
WO2021215749A1 (ko) * 2020-04-21 2021-10-28 (주)에임즈 모발 정보 제공 방법 및 장치와 이를 위한 모근 분석 모델 생성 방법
US11741600B2 (en) 2021-04-21 2023-08-29 Santosh Sharad Katekari Identifying follicular units
CA3237420A1 (en) * 2021-11-08 2023-05-11 Zaher Andraus System and methods for performing a remote hair analysis

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4807163A (en) 1985-07-30 1989-02-21 Gibbons Robert D Method and apparatus for digital analysis of multiple component visible fields
JPH03218735A (ja) * 1989-10-27 1991-09-26 Kanebo Ltd 毛成長測定方法
JP2783033B2 (ja) * 1992-01-13 1998-08-06 日本電気株式会社 カラー画像の領域抽出方法および装置
US5331472A (en) 1992-09-14 1994-07-19 Rassman William R Method and apparatus for measuring hair density
US5782851A (en) 1996-04-10 1998-07-21 Rassman; William R. Hair transplantation system
US6517004B2 (en) 1995-12-18 2003-02-11 Metrologic Instruments, Inc. Automated system for identifying and dimensioning packages transported through a laser scanning tunnel using laser scanning beam indexing techniques
IT1292287B1 (it) 1997-04-24 1999-01-29 Roberto Luigi Costanzo Strumento chirurgico per il trapianto di capelli autologhi.
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US5895403A (en) 1997-10-17 1999-04-20 Collinsworth; Lonnie Rae Surgical cutting tool
US6973931B1 (en) 1997-10-30 2005-12-13 King Christopher R Automated hair isolation and processing system
US6720988B1 (en) 1998-12-08 2004-04-13 Intuitive Surgical, Inc. Stereo imaging system and method for use in telerobotic systems
JP2002541973A (ja) * 1999-04-23 2002-12-10 ギルデンバーグ,フイリツプ・エル 毛髪移植法および装置
FR2802678B1 (fr) 1999-12-21 2002-02-08 Oreal Systeme et procede d'analyse et de simulation previsionnelle de l'evolution temporelle d'une zone pileuse, et plus particulierement du cuir chevelu humain
US6585746B2 (en) 2000-04-20 2003-07-01 Philip L. Gildenberg Hair transplantation method and apparatus
US7127081B1 (en) 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
KR20030022094A (ko) 2001-05-24 2003-03-15 (주)휴먼디엔에이테크놀로지 모낭에 존재하는 새로운 제 2 케라티노사이트 성장인자유사체
US7217266B2 (en) 2001-05-30 2007-05-15 Anderson R Rox Apparatus and method for laser treatment with spectroscopic feedback
US20030095707A1 (en) 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Computer vision method and system for blob-based analysis using a probabilistic pramework
US6949115B2 (en) 2003-10-14 2005-09-27 Southland Instruments, Inc. Polarized light analyzer
JP2006051210A (ja) * 2004-08-12 2006-02-23 Japan Research Institute Ltd 毛髪密度予測装置、毛髪密度予測方法、及びプロラム
WO2006047502A2 (en) 2004-10-25 2006-05-04 Brigham And Women's Hospital Automated segmentation, classification and tracking of cell nuclei in time-lapse microscopy
EP1653219A1 (en) * 2004-10-26 2006-05-03 The Procter & Gamble Company Method and apparatus for examining human hairs
KR20050050061A (ko) * 2005-04-30 2005-05-27 조동욱 망진을 위한 얼굴내 특징 요소 추출
US20070078466A1 (en) 2005-09-30 2007-04-05 Restoration Robotics, Inc. Methods for harvesting follicular units using an automated system
US7962192B2 (en) 2005-09-30 2011-06-14 Restoration Robotics, Inc. Systems and methods for aligning a tool with a desired location or object
JP2007260038A (ja) * 2006-03-28 2007-10-11 Taisho Pharmaceut Co Ltd 毛髪数の計測方法および発毛剤の効果の評価方法
CA2651784C (en) 2006-05-19 2015-01-27 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US7620144B2 (en) 2006-06-28 2009-11-17 Accuray Incorporated Parallel stereovision geometry in image-guided radiosurgery
US20080033455A1 (en) 2006-08-03 2008-02-07 Rassman William R Hair extraction device and method for its use
US7477782B2 (en) 2006-08-25 2009-01-13 Restoration Robotics, Inc. System and method for classifying follicular units
US8115807B2 (en) 2007-03-06 2012-02-14 William Rassman Apparatus and method for mapping hair metric

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103269657A (zh) * 2011-01-07 2013-08-28 修复型机器人公司 用于修改自动化过程的参数的方法和***
CN103269657B (zh) * 2011-01-07 2016-08-24 修复型机器人公司 用于修改自动化过程的参数的方法和***
US9486290B2 (en) 2011-01-07 2016-11-08 Restoration Robotics, Inc. Methods and systems for modifying a parameter of an automated procedure
US9707045B2 (en) 2011-01-07 2017-07-18 Restoration Robotics, Inc. Methods and systems for modifying a parameter of an automated procedure
US10537396B2 (en) 2011-01-07 2020-01-21 Restoration Robotics, Inc. Methods and systems for modifying a parameter of an automated procedure
CN103517687A (zh) * 2011-05-18 2014-01-15 修复型机器人公司 用于选择所需数量的毛囊单位的***和方法
CN103517687B (zh) * 2011-05-18 2016-04-20 修复型机器人公司 用于选择所需数量的毛囊单位的***和方法
US9913610B2 (en) 2011-05-18 2018-03-13 Restoration Robotics, Inc. Systems and methods for selecting a desired quantity of follicular units
CN109310320A (zh) * 2016-03-23 2019-02-05 宝洁公司 用于确定杂散纤维的成像方法
CN109310320B (zh) * 2016-03-23 2022-09-06 宝洁公司 用于确定杂散纤维的成像方法
CN112419355A (zh) * 2020-11-25 2021-02-26 复旦大学 基于角点检测的毛发图像中毛发计数方法

Also Published As

Publication number Publication date
US8199983B2 (en) 2012-06-12
WO2008024955A9 (en) 2008-04-10
US20080049993A1 (en) 2008-02-28
US8290229B2 (en) 2012-10-16
WO2008024955A2 (en) 2008-02-28
US20090052738A1 (en) 2009-02-26
JP4988847B2 (ja) 2012-08-01
KR20090040336A (ko) 2009-04-23
CA2661660C (en) 2013-07-16
KR101030853B1 (ko) 2011-04-22
JP2010501288A (ja) 2010-01-21
US20120230561A1 (en) 2012-09-13
AU2007286606B2 (en) 2010-07-29
WO2008024955A3 (en) 2008-06-12
AU2007286606A1 (en) 2008-02-28
EP2053973A4 (en) 2012-08-01
CA2661660A1 (en) 2008-02-28
EP2053973A2 (en) 2009-05-06
CN101505659B (zh) 2011-09-28
BRPI0715630A2 (pt) 2013-07-02

Similar Documents

Publication Publication Date Title
CN101505659B (zh) 用于对毛囊单位进行计数的***和方法
CN101506825B (zh) 用于将毛囊单位分类的***和方法
US9107697B2 (en) System and method for selecting follicular units for harvesting
EP3968288A2 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE112015001656T5 (de) Bildverarbeitungsverfahren und -vorrichtung
CN106530294A (zh) 一种对睑板腺图像进行处理以获得腺体参数的信息的方法
Shaikha et al. Optic Disc Detection and Segmentation in Retinal Fundus Image
Sarve et al. Quantification of bone remodeling in the proximity of implants
CN117173490A (zh) 基于分离提取的图像数据进行海产品检测分类方法及***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: California, USA

Patentee after: Weiss concept Co.

Address before: California, USA

Patentee before: RESTORATION ROBOTICS, Inc.