JP2021524768A - リアルタイムでの拡張可視化によりシミュレートされる歯科矯正治療 - Google Patents

リアルタイムでの拡張可視化によりシミュレートされる歯科矯正治療 Download PDF

Info

Publication number
JP2021524768A
JP2021524768A JP2020563722A JP2020563722A JP2021524768A JP 2021524768 A JP2021524768 A JP 2021524768A JP 2020563722 A JP2020563722 A JP 2020563722A JP 2020563722 A JP2020563722 A JP 2020563722A JP 2021524768 A JP2021524768 A JP 2021524768A
Authority
JP
Japan
Prior art keywords
image
user
face
electronic
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020563722A
Other languages
English (en)
Other versions
JPWO2019215550A5 (ja
Inventor
アンクルベイ,エイミー
ジェイ. オルソン,コディー
ジェイ. オルソン,コディー
イー. レイビー,リチャード
イー. レイビー,リチャード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3M Innovative Properties Co
Original Assignee
3M Innovative Properties Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3M Innovative Properties Co filed Critical 3M Innovative Properties Co
Publication of JP2021524768A publication Critical patent/JP2021524768A/ja
Publication of JPWO2019215550A5 publication Critical patent/JPWO2019215550A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/12Brackets; Arch wires; Combinations thereof; Accessories therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/12Brackets; Arch wires; Combinations thereof; Accessories therefor
    • A61C7/14Brackets; Fixing brackets to teeth

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

拡張現実を用いて歯科矯正治療をシミュレートするためのシステム及び方法。ユーザの顔の電子画像がデジタルカメラから受信され、ユーザの歯を含む、画像中の関心領域が特定される。仮想的な歯科矯正装具が、画像中のユーザの歯に配置され、仮想的な歯科矯正装具を伴うユーザの画像が、電子ディスプレイデバイスに表示される。方法は、ユーザの画像が受信されたとき又はその直後に、治療をシミュレートする拡張画像をユーザに提供するように、リアルタイムで行われる。システム及び方法は、仮想的な装具によって拡張されたユーザの顔の3D表示を表示することができる。ユーザの拡張画像又は3D表示にはまた、X線画像又はコーンビームコンピュータ断層撮影画像などの、ユーザの顔の解剖学的構造の画像又はモデルを表示のために追加することもできる。

Description

SNAPCHAT又はINSTAGRAM製品などの拡張現実フェイスフィルタの使用が、ますます普及しつつある。しかし、今日、これらのフィルタは主に、ビデオ拡張において対象となるヒトの顔又は頭に髪、メークアップ、眼鏡、髭、及び帽子の描写をリアルタイムで視覚的に適用するためなどの、娯楽のみを目的とする大衆文化として使用されている。この技術を医療用途又は歯科用途での使用に拡張するニーズがある。
本発明のある実施形態の歯科矯正治療をシミュレートするための方法が、ユーザの顔の電子画像を受信することと、ユーザの歯を含む、画像中の関心領域を特定することと、を含む。仮想的な歯科矯正装具が、画像中のユーザの歯に配置され又は検出された装具が除去され、仮想的な歯科矯正装具を伴う又は検出された装具を伴わないユーザの画像が、電子ディスプレイデバイスに表示される。方法は、ユーザの画像が受信されたとき又はその直後に、治療をシミュレートする拡張画像をユーザに提供するように、リアルタイムで行われる。
本発明のある実施形態の歯科矯正治療をシミュレートするためのシステムが、電子デジタル画像又はビデオを提供するカメラと、電子ディスプレイデバイスと、プロセッサと、を含む。プロセッサは、カメラからユーザの顔の電子画像を受信することと、ユーザの歯を含む、画像中の関心領域を特定することと、画像中のユーザの歯に仮想的な歯科矯正装具を配置する又は検出された装具を除去することと、仮想的な歯科矯正装具を伴う又は検出された装具を伴わないユーザの画像を電子ディスプレイデバイスに表示することと、を行うように構成されている。プロセッサは、ユーザの画像がカメラから受信されたとき又はその直後に、治療をシミュレートする拡張画像をユーザに提供するように、リアルタイムで動作する。
本発明のある実施形態の歯科矯正治療をシミュレートするための別の方法が、ユーザの顔の電子画像を受信することと、ユーザの顔の解剖学的構造の電子画像又はモデルを取得することと、を含む。方法はまた、ユーザの歯を含む、画像中の関心領域を特定することと、画像中のユーザの歯に仮想的な歯科矯正装具を配置することと、を含む。仮想的な歯科矯正装具及びユーザの顔の解剖学的構造の画像又はモデルを伴うユーザの画像が、電子ディスプレイデバイスに表示される。方法は、ユーザの画像が受信されたとき又はその直後に、治療をシミュレートする拡張画像をユーザに提供するように、リアルタイムで行われる。
本発明のある実施形態の歯科矯正治療をシミュレートするための別のシステムが、電子デジタル画像又はビデオを提供するカメラと、電子ディスプレイデバイスと、プロセッサと、を含む。プロセッサは、ユーザの顔の電子画像を受信することと、ユーザの顔の解剖学的構造の電子画像又はモデルを取得することと、ユーザの歯を含む、画像中の関心領域を特定することと、画像中のユーザの歯に仮想的な歯科矯正装具を配置することと、仮想的な歯科矯正装具及びユーザの顔の解剖学的構造の画像又はモデルを伴うユーザの画像を電子ディスプレイデバイスに表示することと、を行うように構成されている。プロセッサは、ユーザの画像がカメラから受信されたとき又はその直後に、治療をシミュレートする拡張画像をユーザに提供するように、リアルタイムで動作する。
添付の図面は、本明細書に組み込まれ、本明細書の一部を構成し、説明と共に本発明の利点及び原理を説明する。図面は以下のとおりである。
歯科矯正治療をシミュレートするためのシステムの図である。 歯科矯正治療をシミュレートするための方法のフローチャートである。 検出された顔の例を示す画像の表示である。 顔のランドマーキングを示す画像の表示である。 顔ポーズの推定を示す画像の表示である。 トリミングされた関心領域を示す。 反転チャネルに適用された適応的閾値処理を示す。 反転チャネルに適用された適応的閾値処理を示す。 反転チャネルに適用された適応的閾値処理を示す。 輝度チャネルに適用された適応的閾値処理を示す。 輝度チャネルに適用された適応的閾値処理を示す。 輝度チャネルに適用された適応的閾値処理を示す。 関心領域のオープニング及びクロージングを示す。 関心領域のオープニング及びクロージングを示す。 検出されたエッジを示す。 検出されたエッジによる閉じた輪郭を示す。 治療の仮想レンダリングを示す。 治療の拡張を示す。 単一画像の表示内の治療拡張を示すユーザインターフェースである。 3D装具によって拡張された3Dモデルを表すユーザインターフェースである。 装具及び解剖学的構造によって拡張された2D画像を表すユーザインターフェースである。 3D装具及び解剖学的構造によって拡張された3Dモデルを表すユーザインターフェースである。
本発明の実施形態は、コンピュータビジョン及び拡張現実技術を使用して、コンピュータ生成画像を現実世界のユーザのビューに重ねて、以下のうちの1つ又は組み合わせのビューを提供することを含む。
1.舌側ブラケット、唇側ブラケット、アライナ、クラス矯正具、又は保持具などの歯科矯正装具の加減。
2.クラウン、ブリッジ、インレー、オンレー、ベニア、義歯、又は歯肉などの歯科修復物の加減又は改変。
3.歯漂白剤の使用、咬頭先端若しくは切縁の低減若しくは強化、又は子供における萌出(恐らくは異所萌出を含む)後の歯の外観の予測などによる、天然歯の解剖学的構造の加減又は改変。
4.歯槽手術、歯及び顎顔面インプラント、美容手術、及び下顎手術などの口腔又は顎顔面手術による、頭蓋顔面構造の改変。
5.顎顔面、眼、又は頭蓋顔面プロテーゼの加減又は改変。
6.歯科解剖学的構造、すなわち歯及び歯肉の計画された位置及び形状を含めるための、歯科矯正及び/又は修復治療の結果。
7.恐らくは、不正咬合、歯摩耗、歯肉退縮、歯周病、骨欠損、齲蝕、又は歯欠損などの有害な結果を示す、歯科矯正及び/又は修復治療を受けないことにより予測される結果。
8.ボツリヌス毒素注入による、又は例えば、造鼻術、顎強調、頬強調、しわ取り、まぶたの持ち上げ、首の持ち上げ、眉の持ち上げ、口蓋裂修復、火傷修復、及び傷跡修復などの、より侵襲的な美容及び整形手術などによる顔の軟組織の改変。
9.治療のスケジュールされた進捗と実際の進捗とを比較するための、段階的治療の不透明度可変オーバーレイ。
この技術は、医療/歯科専門家による治療計画のためのツール、及び患者に対する症例提示のためのツールの両方として使用することができる。他の意図される用途としては、治療中又は治療後の顔の外観を視覚化することを望む患者による治療オプションの探索、恐らくは、比較のために前後の外観を切り替えたり、移行したりすることが挙げられる。場合によっては、患者が、最初に医療又は歯科従事者を訪問せずに、表層的な画像データのみを用いて治療シナリオを考慮することが可能となり得る。他の場合では、拡張は、治療後の患者をより正確に描写する治療計画を生成するために、X線又はコーンビームコンピュータ断層撮影(cone beam computed tomography;CBCT)スキャンデータ、咬合位置合わせデータ、3次元(three-dimensional;3D)口腔スキャンデータ、仮想関節データ、又は較正された測定値などの追加データを必要とする場合がある。それゆえ、治療結果の確実な描写を患者に示すことができるようになる前に、データセットを整理及び統合し、治療オプションを探索し、測定及び解析を行い、かつ治療ステップを計画するために、追加の時間及び作業が必要となる場合がある。場合によっては、2つ以上の治療シナリオが生成され、患者に提示され、それによって治療結果の幾分現実的な見込みを患者に与え得る。このことは、一連の行為を決定する際に患者(又は医師)を助けるのに役立てることができる。場合によっては、治療のコストが、結果の品質に対して重み付けされ得る。例えば、患者は、より安価な治療に勝る外観のわずかな向上により、高価な治療を控える場合がある。時間をコストのように取り扱う場合には、同様のルールが治療の継続時間に当てはまり得る。
システム及び方法
図1は、歯科矯正治療をシミュレートするためのシステム10の図である。システム10は、カメラ12、ディスプレイデバイス14、出力デバイス18、記憶デバイス19、入力デバイス20、及びそれらと電子的に接続されたプロセッサ16を含む。カメラ12は、例えば、電子デジタル画像又はビデオを提供するデジタル画像センサによって実現することができる。ディスプレイデバイス14は、任意の電子ディスプレイによって、例えば、陰極管(Cathode Ray Tube;CRT)、液晶ディスプレイ(liquid crystal display;LCD)、発光ダイオード(light emitting diode;LED)ディスプレイ、又は有機発光ダイオード(organic light emitting diode;OLED)ディスプレイによって実現することができる。出力デバイス18は、情報を出力するための任意のデバイスによって、例えば、スピーカ、LEDインジケータ、又は補助LCD表示モジュールによって実現することができる。入力デバイス20は、情報又はコマンドを入力するための任意のデバイスによって、例えば、キーボード、マイクロフォン、カーソル制御デバイス、又はタッチスクリーンによって実現することができる。記憶デバイス19は、ハードドライブ、ソリッドステートドライブ、又はフラッシュドライブなど、情報を記憶するための任意の電子デバイスによって実現することができる。記憶デバイス19は任意選択的に、システム10の外部に配置され、ネットワーク接続を介してアクセスされることができる。システム10は、例えば、デスクトップコンピュータ、ノートブックコンピュータ、若しくはタブレットコンピュータ、又は携帯電話によって実現することができる。
図2は、歯科矯正治療をシミュレートするための方法22のフローチャートである。この方法は、プロセッサ16などのプロセッサによる実行のためにソフトウェア又はファームウェアで実現することができる。この方法は、拡張によって、すなわち、恐らくは、1つ以上のビデオフレームにキャプチャされた顔の推定3D表示をリアルタイムで操作することを伴う、キャプチャされた現実世界の画像への仮想オーバーレイによって、歯科矯正治療のシミュレーションを可視化するために使用される。
以下でより詳細に説明される方法22の以下のステップ、すなわち、顔の検出(ステップ24)、顔全体のランドマーキング(ステップ26)、顔ポーズの推定(ステップ28)、顔ランドマークを用いた関心領域のトリミング(ステップ30)、顔又は関心領域の任意選択的な3D表示(ステップ32)、シミュレーション(ステップ34)、顔の画像又は3D表示の任意選択的な追加(ステップ35)、及び視覚化(ステップ36)が、単一のビデオフレーム(画像)から始まる、例示的な拡張歯科矯正装具シミュレーションを生成するために使用される。
顔の検出(24)
このステップは、Viola−Jonesモデル、LBPH(Local Binary Pattern Histogram)カスケード、又は深層学習によって訓練されたモデルなどの、事前訓練モデルを用いてカメラ12からのビデオフレーム内で顔を見つける。顔が検出されると、この顔を複数のフレームにわたって追跡し続けるために、顔コンテキストが作成され得る。この顔コンテキストは、再投影に用いられた重要な特徴、又は以前の複数のフレームにわたって得られたポイントクラウドなどの、以前のフレームデータを含み得る。図3は、カメラ12から受信され検出された顔の例を示す画像の表示であり、画像中のボックスが、検出エリアを示している。図3の画像は任意選択的に、装具を仮想的に追加するのではなく、装具を仮想的に除去するために、歯科矯正装具を伴うユーザの画像とすることができる。
顔全体のランドマーキング(26)
ランドマークは、顔の重要な構造を記述する関心点であり、SVM(サポートベクタマシン)、PCA(主成分分析)、又は、深層学習、及びランダムフォレストのような他の機械学習アルゴリズムを使用し得る、形状予測モデルを用いて見つけることができる。これらのランドマークは、顔又は関心領域を背景からトリミングするために使用され、この例では、一般化された3Dランドマークモデルを用いて顔ポーズを大まかに推定するために使用されることになる。これらはまた、一般化された顔メッシュをモーフィングして、ビデオ中で検出された顔をより正確に表すために、以下のステップで使用することもできる。図4は、顔ランドマーキングを示す画像の表示であり、図3の画像の検出エリアが、ランドマーキングのためのドット又は他の印を含む。
顔ポーズの推定(28)
検出された顔ランドマーク及び一般化された3Dランドマークモデルを使用して、一般的なPNP(Perspective N−Point)問題を解決することにより、カメラ外因性推定モデル(変換)を求めることができる。PNP問題の解決は、検出されたランドマークが、カメラレンズの歪み(径方向/接線方向のレンズ歪み)の影響を受けていないこと、又は歪んでいないことを想定している。代わりに、より正確なカメラ外因性モデルを得るために、以下の特徴マッチングステップが複数の連続フレームについて完了した時点で、SfM(Structure from Motion)技術を顔の静的(動かない)部分に適用することができる。カメラ外因性を知ることで、ランドマークそれぞれの良好な3Dポイント表示がもたらされ、これを、ポーズを指摘するのに役立てるとともに、更により正確な拡張現実のために使用することができる。このことは、拡張現実を行うための関心領域のより正確なトリミングを可能にするが、必須のステップではない。図5は、図3の画像上の2つのボックスによって示されるような顔ポーズの推定を示す画像の表示である。
顔ランドマークを用いた関心領域のトリミング(30)
この例は、口領域をトリミングすることになり、唇の内側エッジが、トリミングされた領域の境界を表している。これは、シミュレーションが、顎など、顔の大きなエリア又は異なるエリアを含む場合に、顔全体又は顔の別のエリアとすることができる。図6は、図3〜図5の画像からトリミングされた関心領域を示す。
顔又は関心領域の3D表示(32)
これは、任意選択的なステップであり、構造的な操作又は拡張精度の向上など、顔又は顔領域の3Dモデルを必要とするシミュレーションのためにのみ必要とされる。2つの方法又は両方の組み合わせを使用することができる。
方法1.採用できる第1の方法は、再投影及びメッシュ再構成を用いて、複数のビデオフレームにわたって3Dメッシュを生成することである。再投影は、1つの画像の特徴の深さを求め、特徴を3Dポイントクラウドに変えるプロセスである。メッシュ再構成は、そのポイントクラウドから三角形メッシュを生成するために使用される技術である。これは、同じ顔の2つ以上の画像を想定しており、画像は、わずかに異なる角度及び位置から撮影されている。以下は、この方法1のステップである。
i.特徴/キーポイントの検出.これらは、画像中の他の画素から際立つ画像上の点(コーナー)であり、同じシーンの異なる角度での別の画像中に存在する可能性が高い。
ii.特徴フィルタリング.これは、検出された特徴のリストが大きすぎる場合に、行う必要があり得る任意選択的なステップである。特徴のリストを簡潔にして、最も強い特徴(最も顕著な特徴)のより小さなリストを得るための様々な技術が存在する。
iii.特徴対応付け.各フレームは、上記のステップを経たはずであり、それら独自の特徴のリストを有していたはずである。これは、ある画像による特徴が他の画像中の特徴と一致する箇所である。全ての特徴が一致するわけではなく、一致しなかった特徴は棄却される。特徴が一致すると、第2の画像中の特徴のリストは、第1の画像による特徴と同じ順序でソートされるはずである。
iv.修正.各画像中の特徴を、同じ平面上で行整列されるように、カメラ外因性モデルを用いて調整する。このことは、ある画像による特徴が、他の画像中の同じ特徴と同じx軸行にあることを意味する。
v.視差マップの計算.視差マップは、一致点間におけるx軸上の視差(距離)のリストである。距離は、画素単位で測定される。
vi.三角形分割.カメラの幾何学的関係を用いて、方法は、エピポーラ形状と、1つの画像中の各特徴の深さを計算するために必要とされる基本行列及び基礎行列と、を計算することができる。
vii.メッシュの再構築.3Dポイントクラウドをシミュレーションステップのための3Dメッシュに変える。これはまた、カメラパラメータ(例えば、カメラ位置)に基づくレイトレーシングによってテクスチャ座標を見つけることも含み得る。
方法2.この方法は、顔若しくは関心領域(例えば、NURBS表面若しくはBeazier表面)のパラメータ表示、又は汎用多角形メッシュ(すなわち、三角形若しくは四辺形)を含み、これは、モーフィング、拡大、又は伸張されて、顔のポイントクラウド(方法1を参照)又は先に得られた一連のランドマークのいずれかを最良に適合させることになる。顔又は関心領域の汎用メッシュを用いる場合、メッシュ内の頂点に、ランドマークに対する重みを割り当てることができる。ランドマークが画像中に見つかると、汎用メッシュの頂点は、頂点の所与の重み及び顔ポーズに基づいて、それらのランドマークに引き寄せられるであろう。あるいは、表面トポロジは、ランドマーク間の、又はランドマーク間の線によって輪郭を描かれた領域間のグラフ理論的関係などによって、アブストラクトにのみ予め定義することができる。特徴認識(ランドマーク特定)及び写真測量三角形分割によって3Dの点が得られると、ランドマークが表面パッチのコーナーと一致するように、NURBS表面又はメッシュを生成することができる。もちろん、ランドマーク間の領域において追加の点を必然的にキャプチャしてもよく、これらの点は、表面のパラメータを、すなわち、NURBSの場合の制御点及び多項式係数、又はモザイク状メッシュ表面の場合の中間頂点を、より正確に定義する役割を果たすことができる。顔の区別できる特徴が、メッシュ又はパラメータモデルのランドマーク又は制御点として機能することができる。それゆえ、これらの微細な特徴が可視かつ認識可能となる程度までビデオ画像の解像度を高めることにより、モデルの精度を向上させることができる。
シミュレーション(34)
上記のステップが完了すると、拡張又は3D形状操作のいずれかにより、仮想的な治療を適用することができる。これは、シミュレーションを適用する位置又はエリアを正確に特定することを含み得る。この例では、拡張が実施され、装具を設置すべき関心領域上の位置を推定した後に、レンダリングされた歯科矯正装具が関心領域にオーバーレイされ、又は検出された装具が関心領域から仮想的に除去される。3D形状操作を含む治療の場合、3D形状をモーフィングすることによって生じる画像中の穴を埋めるなど、追加のステップを行うことが必要となり得る。レンダリングされた歯科矯正装具は、2D画像又は3Dモデルによって表すことができる。
この例では、関心領域の拡大、ノイズ低減、平均シフトセグメンテーションなどのセグメンテーションアルゴリズムの適用、ヒストグラム等化、複数の色空間の特定チャネルに関する適応的閾値処理、収縮及び膨張(オープニング/クロージング)、エッジ検出、及び輪郭の探索を含む、歯をセグメント化及び特定する様々な画像処理技術が、関心領域上で使用される。
関心領域は、最初に拡大され、異なる色空間に変換され、歯が歯以外から最も区別される適応的閾値がチャネルに適用される。図7A〜図7Cは、関心領域のlab色空間の反転された緑色−赤色チャネルに適用された適応的閾値処理、すなわち、lab色空間の反転チャネル「a」(緑色−赤色)(図7A)、適応的閾値処理が適用された後のマスク(図7B)、及びマスクが適用された関心領域の色画像(図7C)を示す。図8A〜図8Cは、関心領域のYUV色空間の輝度チャネルに適用された適応的閾値処理、すなわち、YUV色空間のチャネル「Y」(輝度)(図8A)、Lab色空間の適応的閾値によるマスクと組み合わせた適応的閾値処理が適用された後のマスク(図8B)、及びマスクの組み合わせが適用された関心領域の最終色画像(図8C)を示す。
上記の色空間チャネルの適応的閾値処理によってマスクが作成されると、オープニング(収縮及び後の膨張)及びクロージング(膨張及び後の収縮)を使用して、歯を更にセグメント化し、ノイズを除去することができる。図9A及び図9Bはそれぞれ、色空間閾値処理後の関心領域マスクのオープニング及びクロージングを示す。
Canny Edge Detectionなどの技術を用いて、マスクからエッジが検出される。図10は、canny edge detectionにより検出されたエッジを示す。
検出されたエッジから輪郭を生成することができ、個々の歯又は歯群を単独の物体として解析する又は取り扱うことができる。図11は、検出されたエッジから求められ、色関心領域にオーバーレイされた閉じた輪郭を示す。
輪郭の解析及び大まかな顔ポーズから、治療は、正しい向き及びスケールでレンダリングされ、関心領域にそのままオーバーレイされる。元の画像を解析して、レンダリングされた治療に適用するための大まかな照明モデルを求めることができ、これにより、治療拡張がシーンにより自然に適合するであろう。図12は、この例ではブラケット及びアーチワイヤである治療の仮想レンダリングを示す。任意選択的に、仮想レンダリングは、ブラケット及びアーチワイヤなどの検出された装具を除去することを含むことができる。
レンダリングされた治療は、関心領域に拡張される。拡張された治療を元の画像とブレンドし、拡張された治療が元の画像の一部であるかのように最終画像をより自然に見せるために、ガウスぼかしなどの後処理を行うことができる。図13は、治療の拡張を示し、仮想的なブラケット及びアーチワイヤは、関心領域内の歯にオーバーレイされている。任意選択的に、拡張は、検出された装具を除去し、その結果を表示することを含むことができる。拡張は、個々の歯及び輪郭を明確にセグメント化することなしに、歯の端点と口の端点とを直接的に位置合わせすることにより、達成することができる。しかし、各歯の中心を近似的にでも特定することで、より正確な/現実的な結果がもたらされる。
画像又は3Dモデルの追加(35)
装具、復元物、又は改変された解剖学的構造によって顔の画像を拡張する別のアプローチが、3Dモデリングの別の態様を含む。上記のアプローチは、3Dモデリングを使用して顔の位置、向き、及びスケールを決定するものであり、このモデリングは、仮想ユニバースにおける3Dアフィン変換によって数学的に記述され得る。次いで、ある程度現実的な位置及び向きで歯科装具の位置が患者の歯に合うように、対応する変換が歯科装具に適用されるが、ブラケットを配置することになる歯の顔軸(FA)点を見つけるために、2D画像解析を最終的に使用してもよい。
この他のアプローチでは、ビデオカメラは、ある種の3Dスキャナとして使用され、それにより、異なる観点(すなわち、視点及び視点ベクトル、これらは、画像平面と共に一連の別個の視錘台を形成する)から人の顔の複数の2D画像をキャプチャし得る。3D写真測量を用いて、人の顔(及び頭)の3Dモデルが、最初はポイントクラウドの形態で生成され、後に三角形メッシュの形態で生成され得る。これらの技術に付随するのが、2D画像中の画素の色値をメッシュ内の3D頂点又は三角形に適用するUVマッピング(又はテクスチャマッピング)である。それゆえ、現実的に見えかつ合理的に正確な人の顔の3Dモデルが、仮想ユニバースに生成され得る。続いて、3Dモデルの画像が、視錐台に従って仮想ユニバースのどこかに配置される2D平面にレンダリングされ得る。好適なレンダリング方法としては、多角形レンダリング又はレイトレーシングが挙げられる。UVマップによる色値は、レンダリングにおいて適用されて、(視点及びシーン内の各光源の両方に対する三角形の向きのみによって影付けされる単色メッシュモデルとは対照的に)顔のより現実的な色描写を生成するであろう。
この時点で、顔の3Dモデルを、口腔内スキャナ、コーンビームCT(CBCT又は3D X線)スキャナ、MRIスキャナ、3D立体カメラなどの異なるスキャンソースから任意選択的に得られた他の3Dモデル又は画像と組み合わせる又は統合する(又は単に位置合わせする)ことができる。そのようなデータは、以前に得られ、治療計画に使用されている可能性が高いであろう。そのような他のモデル又は画像は、例えば、データストレージ19に記憶され、そこから取得することができる。
場合によっては、ビデオイメージは、表層3D画像の唯一のソースとして機能し、したがって、顔の軟組織をキャプチャし得、どのような歯科解剖学的構造も視認可能となり得る。他の場合では、軟組織データが、CBCTスキャン(色情報なし)又は3D立体画像においてキャプチャされ得る。それにもかかわらず、軟組織データは、下顎手術、(前後方向の歯の移動による)咬合クラス矯正、歯の前突への有意な変化、並びに美容及び整形手術を含む治療計画などの、特定の治療計画のモデリングにおける重要な要素である。したがって、本発明の実施形態は、治療中若しくは治療後、又は治療中と治療後の両方に、治療により得られる予想される外観に関する視覚的フィードバックを患者に提供することができる。
患者の頭蓋顔面の解剖学的構造の複数の3Dデータソースをキャプチャすることにより、医師は、構造解剖学の現実の根拠によって1つ以上の治療計画を念入りに考案することが可能となり得る。これらの計画は、患者の存在なしに医師自身のスケジュールで、恐らくは他の医師、技術者、又はサービス提供者と連携して、考案され得る。装具又はプロテーゼを作成し、患者の生来の解剖学的構造に適用し得、患者の生来の解剖学的構造を治療計画の一部として拡張又は改変することができる。そのような装具及びプロテーゼの3D仮想モデルを、例えば、第三者のラボ又はサービス提供者によって作成し、医師によって提供されるデータセットと組み合わることができる。治療により得られる改変された解剖学的構造は、医師によって、第三者によって、又はリモートのソフトウェア協働ツールを用いた協働作業として、生成することができる。治療計画は、確認、可能な改変、及び承認のために、患者に提示することができる。いくつかのシナリオでは、医師は、確認者となり得、第三者のラボ又は製造者が、提案される治療計画の供給元となる。
治療計画を患者に提示する際に、計画を含む3Dモデルに自身の顔を位置合わせするのに十分な患者の顔の3Dモデルを生成するために、ビデオカメラを使用して十分なフレームがキャプチャされ、このことは、新たにキャプチャされたデータと共通する少なくともいくつかの解剖学的特徴を有する他のデータソースに基づいてもよい。詳細な治療計画の作成を容易にするために完全なスキャンが以前に既に行われているので、患者の顔の完全な再スキャンが必要とされないであろう。したがって、ビデオカメラに対する限られた動作のみで、患者の現在の解剖学的構造の部分的な3Dモデルを作成することができ、任意選択的に、計画によって改変された解剖学的構造の部分をトリミングして除去することができ、計画モデルに最良に適合することができる。各ビデオフレームの視錐台が3Dの写真測量によって既知であるため、同じ視錘台を使用して仮想カメラを表し得、3Dモデルの2Dレンダリングをこのカメラのビュー平面に作成し得る。次いで、この2Dレンダリングは、カメラに対して患者が動くときに、リアルタイムで患者(又は他の観察者)に提示することができる。事実上、物理世界と仮想世界が、互いに同期を保たれる。
何をレンダリングして患者に提示するかを決定するに際してのオプションがある。例えば、患者が存在する状態でリアルタイムでのみ計画を提示する場合、計画モデルにテクスチャマップを記憶する必要がない場合がある。このシナリオでは、個々のビデオフレームと計画モデルとの間の位置合わせを、テクスチャマップを使用せずに行うことができ、患者に提示されるビデオ画像中の各画素の色値は、ビデオカメラによってキャプチャされた値から単にスルーすることができる。装具が患者の歯(又は顔の他の部位)に取り付けられている場合、装具は仮想世界でレンダリングされるであろうし、それらの2D描写は、ビデオフレームの対応するエリアにオーバーレイし、下層の解剖学的構造を事実上隠すことになるであろう。解剖学的構造が改変された場合には、計画モデルのメッシュ上にUVマッピングされた以前にキャプチャされた値を用いて、これらの解剖学的構造の画素に着色する必要があり得る点を除いて、同じ方法を使用することができる。あるいは、色値は、現在のビデオフレームから得ることができるが、次いで、治療計画に従って3D解剖学的構造に対するモーフによって決定されるような異なる位置に変換することができる。例えば、下顎手術が、下顎骨を数ミリメートル前進させることを規定する場合がある。前進によって影響を受ける患者の軟組織(皮膚及び唇)をレンダリングするために使用される画素の色値は、結果として異なりにくいであろうし、仮想世界におけるそれらの位置のみが変化し、したがってレンダリングが変化する。それゆえ、2Dビデオ画像中の影響を受ける画素は、ビュー平面に投影される3Dアフィン変換に従って、画像平面において単純に平行移動される場合がある。更に他のシナリオでは、物理的なビデオカメラの仮想カメラとの位置合わせが確立されると、3D仮想シーン全体が、リアルタイムでレンダリングされ、頭の動きと同期して患者に提示され得る。
上記のシナリオのいくつかでは、治療計画を患者に提示する目的でビデオをキャプチャしている間に、計画モデルを連続的に拡張又は更新する技術を採用することができる。いくつかのシナリオでは、最小限のビデオカバレッジのみを使用して、患者の3Dモデルを生成している場合があるので、穴、島、又はノイズの多い領域が、モデルを構成するメッシュに存在する可能性が高い。キャプチャの主要な目的が、物理世界と仮想世界を位置合わせし、患者のための既存の計画モデルをレンダリングすることである場合でも、新しいビデオ画像が受信されると、新しい画像を使用して、穴を埋め、島を除去又は接合し、ノイズを低減することにより、既存のモデルを拡張又は更新することができる。そのようにすることで、計画モデルの品質が、リアルタイムで(又は短い処理遅延の末に)向上され得る。いくつかの例では、スキャンデータの大きな一体型パッチによって、累積誤差を伴ってまとめられたより小さなパッチの位置及び向きを調節することにより、モデルの寸法精度が向上され得る。この技術はまた、現在の皮膚及び照明条件に対してテクスチャマップを更新することにより、アバタースタイルのレンダリングの現実感を向上させるために使用することもできる。そうでなければ、アバターに使用されるテクスチャマップは、以前にキャプチャされた、恐らくは異なる設定の、以前のスキャンに由来するであろう。
画像又はモデルが追加される場合、ユーザの顔の画像又は3D表示は任意選択的に、例えば、PCA又は他の技術を用いて、ユーザの顔の解剖学的構造の画像又はモデルと位置合わせすることができる。位置合わせされると、画像又はモデルは、1つの画像又は表示の操作が、他の画像又は表示の対応する操作を引き起こすように同期される。例えば、ユーザの顔画像が回転される場合、ユーザの顔の解剖学的構造の位置合わせされた画像又はモデルが対応して回転される。
可視化(36)
このステップは、関心領域を元のフレーム(図3)にオーバーレイし、2D画像の最終画像をユーザに対して表示すること(38)を含む。図14Aは、例えば、ディスプレイデバイス14によってユーザインターフェース内でユーザに対して表示された単一画像の表示内の治療拡張の結果を示す。任意選択的に、図14Aの単一画像は、ユーザによって装着された検出された装具を仮想的に除去した結果を表示することができる。
任意選択的なステップ32を用いて、ユーザの顔の3D表示が生成された場合、そのような3D表示を、図14Bのユーザインターフェースによって表されるように、ディスプレイデバイス14に表示するために仮想的な治療(40)によって拡張して表示することができる。任意選択的なステップ35を用いて、追加された2D画像又は3D表示が生成された場合、そのような追加された2D画像又は3D表示を、図14C及び図14Dのユーザインターフェースによって表されるように、ディスプレイデバイス14に表示するために仮想的な治療(42)によって拡張して表示することができる。
方法22は、カメラ12によってユーザの画像が検出されたとき又はその直後にリアルタイムで、拡張がディスプレイデバイス14上でユーザに対して示されるように、プロセッサ16によって実行することができる。「リアルタイム」という用語は、毎秒少なくとも1フレームの速度、より好ましくは毎秒15〜60フレームの速度を意味する。

Claims (28)

  1. 歯科矯正治療をシミュレートするための方法であって、
    ユーザの顔の電子画像を受信するステップと、
    前記ユーザの歯を含む、前記画像中の関心領域を特定するステップと、
    前記画像中の前記ユーザの歯に仮想的な歯科矯正装具を配置するステップと、
    前記仮想的な歯科矯正装具を伴う前記ユーザの画像を電子ディスプレイデバイスに表示するステップと、を含み、
    前記受信するステップ、前記特定するステップ、前記配置するステップ、及び前記表示するステップは、リアルタイムで行われる、方法。
  2. 前記ユーザの顔の前記電子画像をビデオフレーム内で検出することを更に含む、請求項1に記載の方法。
  3. 前記ユーザの顔の前記電子画像にランドマークを適用することを更に含む、請求項1に記載の方法。
  4. 前記ランドマークを使用して、前記電子画像中の前記ユーザの顔のポーズを推定することを更に含む、請求項3に記載の方法。
  5. 特定された前記関心領域を前記ランドマークを用いてトリミングすることを更に含む、請求項3に記載の方法。
  6. 前記配置するステップは、前記画像中の前記ユーザの歯に仮想的なブラケット及びアーチワイヤを配置することを含む、請求項1に記載の方法。
  7. 前記ユーザの顔の3次元電子表示を生成することと、前記仮想的な歯科矯正装具を伴う前記ユーザの顔の前記3次元表示を電子ディスプレイデバイスに表示することと、を更に含む、請求項1に記載の方法。
  8. 歯科矯正治療をシミュレートするためのシステムであって、
    電子デジタル画像又はビデオを提供するカメラと、
    電子ディスプレイデバイスと、
    前記カメラ及び前記電子ディスプレイデバイスに電子的に接続されたプロセッサであって、
    前記カメラからユーザの顔の電子画像を受信することと、
    前記ユーザの歯を含む、前記画像中の関心領域を特定することと、
    前記画像中の前記ユーザの歯に仮想的な歯科矯正装具を配置することと、
    前記仮想的な歯科矯正装具を伴う前記ユーザの画像を電子ディスプレイデバイスに表
    示することと、を行うように構成されており、
    前記受信すること、前記特定すること、前記配置すること、及び前記表示することは、リアルタイムで行われる、プロセッサと、を備えるシステム。
  9. 前記プロセッサは、前記ユーザの顔の前記電子画像を前記カメラからのビデオフレーム内で検出するように更に構成されている、請求項8に記載のシステム。
  10. 前記プロセッサは、前記ユーザの顔の前記電子画像にランドマークを適用するように更に構成されている、請求項8に記載のシステム。
  11. 前記プロセッサは、前記ランドマークを使用して、前記電子画像中の前記ユーザの顔のポーズを推定するように更に構成されている、請求項10に記載のシステム。
  12. 前記プロセッサは、特定された前記関心領域を、前記ランドマークを用いてトリミングするように更に構成されている、請求項10に記載のシステム。
  13. 前記プロセッサは、前記画像中の前記ユーザの歯に仮想的なブラケット及びアーチワイヤを配置するように更に構成されている、請求項8に記載のシステム。
  14. 前記プロセッサは、前記ユーザの顔の3次元電子表示を生成し、前記仮想的な歯科矯正装具を伴う前記ユーザの顔の前記3次元表示を電子ディスプレイデバイスに表示するように更に構成されている、請求項8に記載のシステム。
  15. 歯科矯正治療をシミュレートするための方法であって、
    ユーザの顔の電子画像を受信するステップと、
    前記ユーザの歯を含む、前記画像中の関心領域を特定するステップと、
    検出された装具を除去するステップと、
    検出された前記装具を伴わない前記ユーザの画像を電子ディスプレイデバイスに表示するステップと、を含み、
    前記受信するステップ、前記特定するステップ、前記配置又は除去するステップ、及び前記表示するステップは、リアルタイムで行われる、方法。
  16. 歯科矯正治療をシミュレートするためのシステムであって、
    電子デジタル画像又はビデオを提供するカメラと、
    電子ディスプレイデバイスと、
    前記カメラ及び前記電子ディスプレイデバイスに電子的に接続されたプロセッサであって、
    前記カメラからユーザの顔の電子画像を受信することと、
    前記ユーザの歯を含む、前記画像中の関心領域を特定することと、
    検出された装具を除去することと、
    検出された前記装具を伴わない前記ユーザの画像を電子ディスプレイデバイスに表示することと、を行うように構成されており、
    前記受信すること、前記特定すること、前記配置又は除去すること、及び前記表示することは、リアルタイムで行われる、プロセッサと、を備えるシステム。
  17. 歯科矯正治療をシミュレートするための方法であって、
    ユーザの顔の電子画像を受信するステップと、
    ユーザの顔の解剖学的構造の電子画像又はモデルを取得するステップと、
    前記ユーザの歯を含む、前記画像中の関心領域を特定するステップと、
    前記画像中の前記ユーザの歯に仮想的な歯科矯正装具を配置するステップと、
    前記仮想的な歯科矯正装具及び前記ユーザの顔の解剖学的構造の前記画像又はモデルを伴う前記ユーザの画像を電子ディスプレイデバイスに表示するステップと、を含み、
    前記受信するステップ、前記特定するステップ、前記配置するステップ、及び前記表示するステップは、リアルタイムで行われる、方法。
  18. 前記取得するステップは、X線画像を取得することを含む、請求項17に記載の方法。
  19. 前記取得するステップは、コーンビームコンピュータ断層撮影(CBCT)画像を取得することを含む、請求項17に記載の方法。
  20. 前記ユーザの画像を前記ユーザの顔の解剖学的構造の画像又はモデルと位置合わせすることを更に含む、請求項17に記載の方法。
  21. 前記ユーザの顔の3次元電子表示を生成することと、前記仮想的な歯科矯正装具及び前記ユーザの顔の解剖学的構造の前記画像又はモデルを伴う前記ユーザの顔の前記3次元表示を電子ディスプレイデバイスに表示することと、を更に含む、請求項17に記載の方法。
  22. 前記3次元表現を前記ユーザの顔の解剖学的構造の画像又はモデルと位置合わせすることを更に含む、請求項21に記載の方法。
  23. 歯科矯正治療をシミュレートするためのシステムであって、
    電子デジタル画像又はビデオを提供するカメラと、
    電子ディスプレイデバイスと、
    前記カメラ及び前記電子ディスプレイデバイスに電子的に接続されたプロセッサであって、
    ユーザの顔の電子画像を受信することと、
    ユーザの顔の解剖学的構造の電子画像又はモデルを取得することと、
    前記ユーザの歯を含む、前記画像中の関心領域を特定することと、
    前記画像中の前記ユーザの歯に仮想的な歯科矯正装具を配置することと、
    前記仮想的な歯科矯正装具及び前記ユーザの顔の解剖学的構造の前記画像又はモデルを伴う前記ユーザの画像を電子ディスプレイデバイスに表示することと、を行うように構成されており、
    前記受信すること、前記特定すること、前記配置すること、及び前記表示することは、リアルタイムで行われる、プロセッサと、を備えるシステム。
  24. 前記プロセッサは、前記ユーザの顔の解剖学的構造の画像についてX線画像を取得するように更に構成されている、請求項23に記載のシステム。
  25. 前記プロセッサは、前記ユーザの顔の解剖学的構造の画像について、コーンビームコンピュータ断層撮影(CBCT)画像を取得するように更に構成されている、請求項23に記載のシステム。
  26. 前記プロセッサは、前記ユーザの画像をユーザの顔の解剖学的構造の画像又はモデルと位置合わせするように更に構成されている、請求項23に記載のシステム。
  27. 前記プロセッサは、前記ユーザの顔の3次元電子表示を生成し、前記仮想的な歯科矯正装具及び前記ユーザの顔の解剖学的構造の前記画像又はモデルを伴う前記ユーザの顔の前記3次元表示を電子ディスプレイデバイスに表示するように更に構成されている、請求項23に記載のシステム。
  28. 前記プロセッサは、前記3次元表示を前記ユーザの顔の解剖学的構造の画像又はモデルと位置合わせするように更に構成されている、請求項27に記載のシステム。
JP2020563722A 2018-05-10 2019-05-02 リアルタイムでの拡張可視化によりシミュレートされる歯科矯正治療 Pending JP2021524768A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862669628P 2018-05-10 2018-05-10
US62/669,628 2018-05-10
US201962809806P 2019-02-25 2019-02-25
US62/809,806 2019-02-25
PCT/IB2019/053599 WO2019215550A1 (en) 2018-05-10 2019-05-02 Simulated orthodontic treatment via augmented visualization in real-time

Publications (2)

Publication Number Publication Date
JP2021524768A true JP2021524768A (ja) 2021-09-16
JPWO2019215550A5 JPWO2019215550A5 (ja) 2022-05-19

Family

ID=68467593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020563722A Pending JP2021524768A (ja) 2018-05-10 2019-05-02 リアルタイムでの拡張可視化によりシミュレートされる歯科矯正治療

Country Status (5)

Country Link
US (1) US11517272B2 (ja)
EP (1) EP3790495A4 (ja)
JP (1) JP2021524768A (ja)
CN (1) CN112087985B (ja)
WO (1) WO2019215550A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102448169B1 (ko) * 2021-10-05 2022-09-28 세종대학교산학협력단 딥러닝 기반 치아 교정치료 결과 예측 방법 및 장치

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115024842A (zh) 2017-01-31 2022-09-09 斯威夫特健康***有限公司 混合正畸弓丝
EP3572030B1 (fr) 2018-05-22 2022-11-02 Dental Monitoring Procede d'analyse d'une situation dentaire
KR20210051141A (ko) 2019-10-30 2021-05-10 주식회사 스키아 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
US11937996B2 (en) * 2019-11-05 2024-03-26 Align Technology, Inc. Face capture and intraoral scanner and methods of use
US11842484B2 (en) 2021-01-04 2023-12-12 James R. Glidewell Dental Ceramics, Inc. Teeth segmentation using neural networks
US11574468B2 (en) * 2020-03-31 2023-02-07 Toyota Research Institute, Inc. Simulation-based learning of driver interactions through a vehicle window
FR3111066A1 (fr) * 2020-06-06 2021-12-10 Olivier Querbes Procédé et dispositif de reconstruction tridimensionnelle d’un visage avec partie dentée à partir d’une seule image
US20220222814A1 (en) * 2021-01-14 2022-07-14 Motahare Amiri Kamalabad System and method for facial and dental photography, landmark detection and mouth design generation
US20220218438A1 (en) * 2021-01-14 2022-07-14 Orthosnap Corp. Creating three-dimensional (3d) animation
CN112967219B (zh) * 2021-03-17 2023-12-05 复旦大学附属华山医院 基于深度学习网络的二阶段牙体点云补全方法及***
GB2614025B (en) * 2021-09-07 2023-12-27 Neuronav Ltd Augmented reality surgical navigation system
CN114224528B (zh) * 2021-10-26 2023-07-18 上海交通大学医学院附属第九人民医院 基于虚拟现实交互的口腔数字孪生模型***及建立方法
CN117237506B (zh) * 2023-11-15 2024-02-02 中国科学院长春光学精密机械与物理研究所 航拍图像生成模拟激光点云图像的方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6632089B2 (en) 1999-11-30 2003-10-14 Orametrix, Inc. Orthodontic treatment planning with user-specified simulation of tooth movement
US7156655B2 (en) * 2001-04-13 2007-01-02 Orametrix, Inc. Method and system for comprehensive evaluation of orthodontic treatment using unified workstation
US8142187B2 (en) * 2005-09-23 2012-03-27 Orametrix, Inc. Method and apparatus for digitally evaluating insertion quality of customized orthodontic arch wire
US7613527B2 (en) 2006-03-16 2009-11-03 3M Innovative Properties Company Orthodontic prescription form, templates, and toolbar for digital orthodontics
US9326831B2 (en) 2006-10-20 2016-05-03 Align Technology, Inc. System and method for positioning three-dimensional brackets on teeth
US8504139B2 (en) * 2009-03-10 2013-08-06 Medtronic Xomed, Inc. Navigating a surgical instrument
FR2977469B1 (fr) 2011-07-08 2013-08-02 Francois Duret Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire
JP2013128694A (ja) * 2011-12-22 2013-07-04 Toshiaki Ko 歯列矯正シミュレーションプログラムおよび歯列矯正シミュレーション装置
US9345553B2 (en) * 2012-10-31 2016-05-24 Ormco Corporation Method, system, and computer program product to perform digital orthodontics at one or more sites
US9361510B2 (en) * 2013-12-13 2016-06-07 Intel Corporation Efficient facial landmark tracking using online shape regression method
US9510757B2 (en) 2014-05-07 2016-12-06 Align Technology, Inc. Identification of areas of interest during intraoral scans
EP3149653A4 (en) * 2014-05-29 2017-06-14 Beijing Kuangshi Technology Co., Ltd. Facial landmark localization using coarse-to-fine cascaded neural networks
KR20160004862A (ko) 2014-07-04 2016-01-13 주식회사 인스바이오 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법
US20160228214A1 (en) * 2014-10-07 2016-08-11 Orametrix, Inc. Customized orthodontic interface attachment method and device
US11642194B2 (en) * 2015-07-07 2023-05-09 Align Technology, Inc. Multi-material aligners
CN208942463U (zh) 2016-07-27 2019-06-07 阿莱恩技术有限公司 口内扫描***和口内扫描装置
US10467815B2 (en) * 2016-12-16 2019-11-05 Align Technology, Inc. Augmented reality planning and viewing of dental treatment outcomes
EP3462373A1 (en) * 2017-10-02 2019-04-03 Promaton Holding B.V. Automated classification and taxonomy of 3d teeth data using deep learning methods
US11033361B2 (en) * 2017-10-19 2021-06-15 Ormco Corporation Methods for orthodontic treatment planning with augmented visual analysis

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KEHLER JACOB: "Nerdy Glasses and Braces Snapchat lens", ON THE LINE SOCAL MEDIA, JPN6023025504, 1 July 2016 (2016-07-01), ISSN: 0005092099 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102448169B1 (ko) * 2021-10-05 2022-09-28 세종대학교산학협력단 딥러닝 기반 치아 교정치료 결과 예측 방법 및 장치
WO2023058994A1 (ko) * 2021-10-05 2023-04-13 세종대학교산학협력단 딥러닝 기반 치아 교정치료 결과 예측 방법 및 장치

Also Published As

Publication number Publication date
EP3790495A4 (en) 2022-02-09
WO2019215550A1 (en) 2019-11-14
CN112087985B (zh) 2023-05-02
CN112087985A (zh) 2020-12-15
US11517272B2 (en) 2022-12-06
EP3790495A1 (en) 2021-03-17
US20210045701A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
CN112087985B (zh) 经由实时增强可视化的模拟正畸处理
US11704876B2 (en) Mobile device for viewing of dental treatment outcomes
US11559377B2 (en) Augmented reality enhancements for dental practitioners
US10980621B2 (en) Dental design transfer
US20210236241A1 (en) Face tracking and reproduction with post-treatment smile
CA3140069A1 (en) Visual presentation of gingival line generated based on 3d tooth model
US11083552B2 (en) Rendering of dental models
KR20140015239A (ko) 2d 영상 장치
US20210338392A1 (en) Rendering a dental model in an image
BR112020023692A2 (pt) método de análise de uma situação dentária real de um paciente e uso deste
BR112020023700A2 (pt) método de análise de uma situação dentária real de um paciente, dispositivo para implementação deste e uso deste
EP3629337A1 (en) Rendering of dental models
EP3629301A1 (en) Rendering a dental model in an image
US20240225784A1 (en) Synthetic video generation showing modified face
US20240024076A1 (en) Combined face scanning and intraoral scanning

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20240216

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20240306