JP2017221329A - Method for matching organic lower jaw opening/closing axis with virtual articulator opening/closing axis using two-dimensional image - Google Patents

Method for matching organic lower jaw opening/closing axis with virtual articulator opening/closing axis using two-dimensional image Download PDF

Info

Publication number
JP2017221329A
JP2017221329A JP2016118072A JP2016118072A JP2017221329A JP 2017221329 A JP2017221329 A JP 2017221329A JP 2016118072 A JP2016118072 A JP 2016118072A JP 2016118072 A JP2016118072 A JP 2016118072A JP 2017221329 A JP2017221329 A JP 2017221329A
Authority
JP
Japan
Prior art keywords
dimensional
point
feature points
patient
dentition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016118072A
Other languages
Japanese (ja)
Inventor
信 岡本
Shin Okamoto
信 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iryouhoujin Shadan Shushinkai
Original Assignee
Iryouhoujin Shadan Shushinkai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iryouhoujin Shadan Shushinkai filed Critical Iryouhoujin Shadan Shushinkai
Priority to JP2016118072A priority Critical patent/JP2017221329A/en
Publication of JP2017221329A publication Critical patent/JP2017221329A/en
Pending legal-status Critical Current

Links

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Dental Prosthetics (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for simply matching an organic lower jaw opening/closing axis with a virtual articulator opening/closing axis using a two-dimensional image imaged by a digital camera, etc.SOLUTION: Two-dimensional images G1-G6 are imaged which are an occlusal state obtained by changing an angle, multiple occlusal states obtained by imaging a patient's skull of a mouth-opening state and the mouth-opening state. These two-dimensional images are displayed on a monitor 3, and an operator is urged to identify positions of multiple feature points commonly appearing on multiple two-dimensional images on a screen, and also the operator is urged to identify patient's occlusal contact points t1-t3 as feature points on the patient's upper dentition. The three-dimensional coordinates are calculated for the three-dimensional coordinates of a forward reference point and a rearward reference point, and the three-dimensional coordinates of the feature points in the patient's upper dentition, based on the identified feature points. The positions of the feature points on the upper dentition on data with the three-dimensional data of the patient's upper dentition are acquired separately, and the three-dimensional data of the upper dentition is synthesized using the acquired positions of the feature points in the upper dentition and the three-dimensional coordinates of the occlusal contact points obtained by calculating the three-dimensional coordinates.SELECTED DRAWING: Figure 2

Description

本発明は、フェイスボウに代わりデジタルカメラ等によって撮像された2次元画像を用いて、歯科において患者から上歯列及び顎関節の3次元的位置を取得し、生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法に関する。 The present invention acquires a three-dimensional position of an upper dentition and a temporomandibular joint from a patient in dentistry using a two-dimensional image captured by a digital camera or the like instead of a face bow, and forms a lower jaw opening / closing axis of a living body and a virtual articulator It is related with the method of making the opening-and-closing axis of the same.

フェイスボウを用いて患者の頭蓋、上顎及び顎関節の位置関係を取得し、咬合器の開閉軸に対し患者と同様の位置関係となるように上顎模型を咬合器に装着する。これをフェイスボウトランスファーという。フェイスボウトランスファーが行われることで、上顎歯列模型は患者における上顎及び顎関節に対する位置関係に近似した状態で咬合器上に装着され、患者の顎運動が咬合器に再現される。フェイスボウトランスファーは機能的な補綴物を作製するために有用な方法である。
歯科におけるCAD/CAM技術の浸透は凄まじいスピードで進んでいる。オープンシステムの口腔内スキャナーの普及に伴って、近い将来にはデジタルデータの送信による技工物の発注が当たり前の時代になることが予想される。例えば、特許文献1では、広い範囲の補綴修復物を作製するバーチャル咬合器の例が示されている。
Using the face bow, the positional relationship of the patient's skull, maxilla and temporomandibular joint is acquired, and the maxillary model is attached to the articulator so that the positional relationship is similar to that of the patient with respect to the open / close axis of the articulator. This is called face bow transfer. By performing face bow transfer, the maxillary dentition model is mounted on the articulator in a state that approximates the positional relationship with respect to the maxilla and temporomandibular joint in the patient, and the patient's jaw movement is reproduced on the articulator. Face bow transfer is a useful method for making functional prostheses.
The penetration of CAD / CAM technology in dentistry is proceeding at a tremendous speed. With the widespread use of open-system intraoral scanners, it is expected that in the near future, it will be natural to place orders for technical products by sending digital data. For example, Patent Literature 1 shows an example of a virtual articulator that produces a wide range of prosthetic restorations.

バーチャル咬合器において生体の下顎開閉軸を再現するには、患者個人の3次元情報データを計算機上に取り込むことが必要であるが、これには方法はいくつかある。その中で、例えば第一の方法は、通常通りフェイスボウを用いて普通の咬合器にフェイスボウトランスファーした状態をデジタルスキャナーで読み込む。咬合器上で測定した値をバーチャル咬合器の各パラメータに入力する方法である。第2の方法は、特殊な顎機能計測装置を利用して入力する方法(アルクスディグマ2(カボデンクルシステムズ))である。第3の方法は、CTを撮影し、歯の3次元CADデータとCTデータをコンピュータ上で重ね合わせることで顎関節との位置関係を再現する方法(例えば、シロナ社(SIRONA)のCAD/CAMシステム)である。 In order to reproduce the mandibular opening / closing axis of a living body in a virtual articulator, it is necessary to capture the individual three-dimensional information data of a patient on a computer, and there are several methods for this. Among them, for example, in the first method, the face bow transferred to an ordinary articulator using a face bow is read by a digital scanner as usual. This is a method of inputting values measured on the articulator into each parameter of the virtual articulator. The second method is a method of inputting using a special jaw function measuring device (Arcs digma 2 (Cabodencle Systems)). The third method is to take a CT image and reproduce the positional relationship with the temporomandibular joint by superimposing the 3D CAD data of the tooth and the CT data on a computer (for example, CAD / CAM of SIRONA). System).

尚、特許文献2には、2次元画像から物体の位置・角度を3点のマーカもしくは4点のマーカから推定する技術が示されている。特許文献3によると、基準点の入力は、少なくとも5点以上することが好ましく、また、道路など平面と近似できる面上に存在する点を少なくとも3点以上対応付けておくことが好ましいとしている。また、写真を3次元化してポリゴンを作成するソフトウエアとして、サーベイフロムフォト(SurveyFromPhoto)やソリッドフロムフォト(SolidFromPhoto)等が知られている。これらのソフトは、写真2枚若しくは写真3枚の組に(一定倍率、ズームにより異なる)、10点以上の共通の対応点があれば、操作者が画面上でその対応点を指定することにより、カメラの位置・姿勢を計算して対応点の3次元座標を自動で計算する。 Patent Document 2 discloses a technique for estimating the position and angle of an object from a two-dimensional image from three markers or four markers. According to Patent Document 3, it is preferable to input at least five reference points, and it is preferable to associate at least three points that exist on a plane that can be approximated with a plane such as a road. As software for creating a polygon by three-dimensionalizing a photograph, survey from photo (SurveyFromPhoto), solid from photo (SolidFromPhoto), and the like are known. These softwares can be used if two or three photo groups (depending on the zoom ratio and zoom) have 10 or more common corresponding points, and the operator designates the corresponding points on the screen. The camera's position and orientation are calculated to automatically calculate the 3D coordinates of the corresponding points.

特開2012−55680号公報JP 2012-55680 A 特開2003−254716号公報JP 2003-254716 A 特開2004−233198号公報JP 2004-233198 A

上記した患者個人の3次元情報データを計算機上に取り込む方法の問題点は、次の通りである。第1の方法では、従来のフェイスボウトランスファーの手順が必要であり、せっかくのデジタルシステムの利点が失われる。第2の方法は、理想的な手法だが、特殊な装置が必要である。第3の方法は、CT撮影が必要であることと、口腔内にメタルがあるとメタルアーチファクトによって精度が落ちる。
このように今後のバーチャル咬合器の発展と利用を考えるとフェイスボウトランスファーをどのようにするかは、大きな課題といえる。
The problems of the above-described method of taking the individual patient's three-dimensional information data into the computer are as follows. In the first method, the conventional face bow transfer procedure is required, and the advantages of the digital system are lost. The second method is an ideal method, but requires special equipment. In the third method, CT imaging is necessary, and if there is metal in the oral cavity, the accuracy is reduced due to metal artifacts.
Thus, considering the future development and use of virtual articulators, how to do face bow transfer is a major issue.

本発明はこれらの問題点を解決し、デジタルカメラ等により撮影された2次元画像を用いて簡便に生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法を提供することを目的としている。 An object of the present invention is to solve these problems and to provide a method for easily matching the opening / closing axis of a mandibular mandible with the opening / closing axis of a virtual articulator using a two-dimensional image taken by a digital camera or the like. .

上記課題を解決するため、本発明による生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法の特徴は、前方基準点として頭蓋の水平基準面を特定する眼窩下点や鼻下点などの特徴点と、後方基準点として左右平均的顆頭点を含む患者の顔表面の複数の特徴点と、上歯列表面形状の複数の特徴点とが1つの2次元画像内に撮影され、かつ他の2次元画像にも同じ特徴点が複数含まれるように角度を変えて咬合した患者の口腔を含む顔面を撮影して咬合状態の2次元画像を複数取得し、
顔の表面および上歯列上の特徴点を含み、かつ上歯列の咬合面を含むように角度を変えて開口状態の患者の口腔を含む顔面を撮影して開口状態の2次元画像を複数取得し、
モニタに前記複数の咬合状態の2次元画像と開口状態の2次元画像を表示して操作者に対して複数の2次元画像に共通して現れる複数の特徴点の位置を画面上で特定するように促し、
操作者により指定された前記特徴点に基づき、前記前方基準点と後方基準点の3次元座標と、前記患者の上歯列上の特徴点の3次元座標とを3次元座標計算し、
患者の上歯列の3次元データを取得し、
前記患者の上歯列の3次元データ上での上歯列上の特徴点の位置を取得し、
前記3次元座標計算した上歯列上の特徴点の3次元座標と前記取得した上歯列の3次元データ上の上歯列上の特徴点の位置とにより前記上歯列の3次元データを合成して、前記前方基準点と後方基準点の3次元座標に対応付けることである。
In order to solve the above-mentioned problem, the feature of the method for matching the opening / closing axis of the lower jaw of the living body and the opening / closing axis of the virtual articulator according to the present invention is the orbital point, the nose point, etc. A plurality of feature points of the patient's face surface including the left and right average condylar points as posterior reference points, and a plurality of feature points of the upper dentition surface shape are photographed in one two-dimensional image, In addition, a plurality of occlusal two-dimensional images are obtained by photographing the face including the oral cavity of a patient who has been occluded by changing the angle so that the same feature points are also included in other two-dimensional images,
A plurality of two-dimensional images of the open state are obtained by photographing the face including the mouth of the patient in the open state by changing the angle so as to include the feature points on the face surface and the upper dentition and including the occlusal surface of the upper dentition Acquired,
The plurality of occlusal two-dimensional images and the open two-dimensional image are displayed on a monitor, and the positions of a plurality of feature points appearing in common in the plurality of two-dimensional images are identified on the screen to the operator. Prompt
Based on the feature points designated by the operator, three-dimensional coordinates of the three-dimensional coordinates of the front reference point and the rear reference point and the three-dimensional coordinates of the feature points on the upper dentition of the patient are calculated,
Acquire 3D data of patient's upper dentition,
Obtaining the position of the feature point on the upper dentition on the three-dimensional data of the patient's upper dentition;
The three-dimensional data of the upper tooth row is obtained from the three-dimensional coordinates of the feature point on the upper tooth row calculated by the three-dimensional coordinate and the position of the feature point on the upper tooth row on the acquired three-dimensional data of the upper tooth row. Combining and associating with the three-dimensional coordinates of the front reference point and the rear reference point.

本発明による生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法の他の特徴は、頭蓋の水平基準面を特定する前方基準点として眼窩下点や鼻下点などの特徴点と、後方基準点として左右平均的顆頭点を含む複数の患者の顔表面の特徴点と、上歯列上の特徴点と、下顎表面に現れるオトガイ周囲の複数の特徴点とが1つの2次元画像内に撮影され、かつ他の2次元画像にも同じ特徴点が含まれるように角度を変えて咬合した患者の口腔を含む顔面を撮影して咬合状態の2次元画像を複数取得し、
顔の表面および上歯列上の特徴点を含み、かつ上歯列の咬合面を含むように角度を変えて患者の口腔を含む顔面を撮影して開口状態の2次元画像を複数撮影し、
開口状態のオトガイ周辺の複数の特徴点を含み、かつ下歯列の咬合面を含むように下顎の開口状態の2次元画像を撮影し、
モニタに前記複数の咬合状態の2次元画像と開口状態の上歯列2次元画像を表示して操作者に対して、複数の2次元画像に共通して現れる複数の特徴点の位置と上歯列咬合接触点を画面上で特定するように促し、前記表示された咬合状態の2次元画像に対しては、さらにオトガイ周囲の複数の特徴点を画面上で特定するように促し、
モニタに前記の開口状態の下歯列2次元画像を表示して、操作者にオトガイ周囲の複数の特徴点を特定し、あわせて上歯列咬合接触点を代替するものとして下歯列咬合接触点を前記上歯列上の特徴点として特定するように促し、
操作者により指定された前記特徴点に基づき前記前方基準点と後方基準点の3次元座標と、前記特定された上歯列上の複数の特徴点の3次元座標とを3次元座標計算し、
患者の上歯列の3次元データを取得し、
前記患者の上歯列の3次元データ上での患者の複数の上歯列上の特徴点の位置を取得し、
前記取得した上歯列上の複数の特徴点の3次元座標と前記3次元計算した上歯列上の複数の特徴点の3次元座標とを用いて前記上歯列の3次元データを合成して前記前方基準点と後方基準点の3次元座標に対応付けることである。
Other features of the method for matching the mandibular opening and closing axis of the living body and the opening and closing axis of the virtual articulator according to the present invention include feature points such as an orbital point and a nose point as an anterior reference point for specifying the horizontal reference plane of the skull, A two-dimensional image in which a plurality of feature points on the patient's face including left and right average condyle points as posterior reference points, a feature point on the upper dentition, and a plurality of feature points around the chin that appear on the mandibular surface A plurality of two-dimensional images of occlusion are obtained by photographing the face including the oral cavity of the patient who has been occluded at different angles so that the same feature points are included in other two-dimensional images,
Taking a plurality of two-dimensional images of the open state by photographing the face including the oral cavity of the patient by changing the angle so as to include the occlusal surface of the upper dentition, including feature points on the surface of the face and the upper dentition,
Taking a two-dimensional image of the open state of the lower jaw so as to include a plurality of feature points around the open mentalis and include the occlusal surface of the lower dentition,
The plurality of occlusal two-dimensional images and the open upper tooth row two-dimensional image are displayed on the monitor, and the positions of the plurality of feature points and upper teeth appearing in common in the plurality of two-dimensional images to the operator Prompt to identify the row occlusal contact point on the screen, and for the displayed two-dimensional image of the occlusal state, further prompt to identify a plurality of feature points around the chin
The lower dentition 2D image is displayed on the monitor, and the operator identifies a plurality of feature points around the genital area. In addition, the lower dentition occlusion contact is used as an alternative to the upper dentition occlusion contact point. Prompts the point to be identified as a feature point on the upper dentition,
Based on the feature points designated by the operator, the three-dimensional coordinates of the front reference point and the rear reference point and the three-dimensional coordinates of a plurality of feature points on the identified upper tooth row are calculated in three dimensions.
Acquire 3D data of patient's upper dentition,
Obtaining a position of a feature point on a plurality of upper dentitions of the patient on the three-dimensional data of the upper dentition of the patient;
Using the acquired three-dimensional coordinates of the plurality of feature points on the upper tooth row and the three-dimensional coordinates of the plurality of feature points on the upper tooth row calculated in three dimensions, the three-dimensional data of the upper tooth row is synthesized. The three-dimensional coordinates of the front reference point and the rear reference point are associated with each other.

本発明によれば、2次元画像から撮像装置の位置・角度を計算するのでチェアーサイドに特別な器具を必要としないし、コストがかからない。さらに撮影者に特別な訓練や能力、資格を必要としない。 According to the present invention, since the position / angle of the imaging device is calculated from the two-dimensional image, no special instrument is required on the chair side, and no cost is required. In addition, the photographer does not require special training, abilities or qualifications.

患者を3次元計測する様子を示す図である。It is a figure which shows a mode that a patient is measured three-dimensionally. デジタルカメラのデータを用いて生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法に用いる機器を示す図である。It is a figure which shows the apparatus used for the method of matching the mandibular opening-and-closing axis of a biological body with the opening-and-closing axis of a virtual articulator using the data of a digital camera. 処理装置の処理手順を示す図である。It is a figure which shows the process sequence of a processing apparatus. 2次元画像上で特徴点を特定している様子を示した図である。It is the figure which showed a mode that the feature point was specified on the two-dimensional image.

以下実施例に基づいて、デジタルカメラのデータを用いて生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法を説明する。図1は、患者(生体)を3次元計測する様子を示している。患者が咬合した状態で、角度を変えて上歯列及び鼻、耳、目、オトガイを含んだ顔(上顎)の咬合状態の2次元画像を撮像装置により複数取得する。咬合状態の2次元画像は、咬合正面の2次元画像G1、咬合左側面の2次元画像G2、咬合右側面の2次元画像G3である。これらの2次元画像には、左右外眼角、左右耳珠周囲の点、眼窩下点、鼻下点、左右鼻翼下縁、鼻尖、オトガイ周囲の点、平均的顆頭点(下顎の開閉軸が顔面の皮膚と交わる点)、上歯列表面形状の特徴点(上顎左右中切歯切端、上顎左右犬歯尖頭、上顎左右臼歯咬頭頂等)の点(以下、これらを総称して「特徴点」と称する)が1つの2次元画像にできるだけ多く含まれており、かつ共通な特徴点が他の2次元画像にもできるだけ多く含まれるように撮影されている。 Hereinafter, a method for matching the mandibular opening / closing axis of the living body with the opening / closing axis of the virtual articulator using the data of the digital camera will be described based on an embodiment. FIG. 1 shows how a patient (living body) is three-dimensionally measured. With the patient biting, a plurality of two-dimensional images of the occlusal state of the upper teeth and the face (maxillary jaw) including the nose, ears, eyes, and mentalis are acquired by changing the angle by the imaging device. The two-dimensional images in the occlusion state are a two-dimensional image G1 on the front side of the occlusion, a two-dimensional image G2 on the left side of the occlusion, and a two-dimensional image G3 on the right side of the occlusion. These two-dimensional images include the left and right extraocular angles, the points around the left and right tragus, the lower orbital point, the lower nose point, the lower left and right nose wings, the nasal apex, the point around the mentalis, the average condylar point (the opening and closing axis of the lower jaw) Points that intersect the skin of the face), features of the upper dentition surface shape (maxillary left and right central incisors, maxillary left and right canine cusps, maxillary left and right molar cusps, etc.) ")" Is included in one two-dimensional image as much as possible, and common feature points are captured as much as possible in other two-dimensional images.

次に、角度を変えて患者が開口した状態で開口状態の複数の2次元画像G4、G5を撮像装置(デジタルカメラ)1により取得する。2次元画像G4、G5は患者の上顎の2次元画像データである。上歯列と上顎咬合面及び鼻、左耳、左目を含んだ顔の開口左上側面の2次元画像G4を、左下側から撮像装置により取得する。同様に患者が開口した状態で、上歯列と咬合面及び鼻、右耳、右目を含んだ顔の開口右上側面の2次元画像G5を、右下側から撮像装置により取得する。そして、患者が開口した状態で開口状態の2次元画像G6を撮像装置1により取得する。2次元画像G6は患者の下顎の2次元画像データである。下歯列と下顎咬合面及びオトガイを含んだ顔の開口下正面の2次元画像G6を、上正面側から撮像装置により取得する。2次元画像G4、G5には、左右外眼角、左右耳珠、鼻下点、左右鼻翼下縁、鼻尖、平均的顆頭点、上歯列表面形状の特徴点を可能な限り多く1つの2次元画像の中に含まれるようにする。また、2次元画像G6には、オトガイ周囲の点が含まれるようにする。 Next, a plurality of two-dimensional images G <b> 4 and G <b> 5 in an opened state are acquired by the imaging device (digital camera) 1 with the patient opening at different angles. The two-dimensional images G4 and G5 are two-dimensional image data of the patient's upper jaw. A two-dimensional image G4 of the upper left side surface of the face including the upper dentition, the upper occlusal surface, the nose, the left ear, and the left eye is acquired by the imaging device from the lower left side. Similarly, with the patient open, a two-dimensional image G5 of the upper right side of the opening including the upper dentition, the occlusal surface, the nose, the right ear, and the right eye is acquired from the lower right side by the imaging device. And the two-dimensional image G6 of an open state is acquired with the imaging device 1 in the state which the patient opened. The 2D image G6 is 2D image data of the lower jaw of the patient. A two-dimensional image G6 of the lower front surface of the face including the lower teeth row, the lower jaw occlusal surface, and the chin is acquired by the imaging device from the upper front side. In the two-dimensional images G4 and G5, as many as possible feature points of the left and right outer eye angles, the right and left tragus, the lower nose point, the lower right and left nose wings, the nose tip, the average condylar point, and the upper dentition surface shape are one 2 Be included in the dimensional image. The two-dimensional image G6 includes points around the chin.

2次元画像から3次元形状を復元するには、一般的に、被写体の形状が変化しない状態で様々な角度から撮影し、その際の撮像装置の位置・角度が利用される。本実施例においては、咬合した状態と開口した状態とが撮影されており、角度を変えて形態の違う患者を撮影する。2次元画像G1、2次元画像G2、2次元画像G3に対して2次元画像G4、2次元画像G5、2次元画像G6は、患者の状態が違っている。 In order to restore a three-dimensional shape from a two-dimensional image, generally, photographing is performed from various angles without changing the shape of the subject, and the position and angle of the imaging device at that time are used. In this embodiment, the occluded state and the opened state are photographed, and patients with different forms are photographed by changing the angle. The two-dimensional image G4, the two-dimensional image G5, and the two-dimensional image G6 differ from the two-dimensional image G1, the two-dimensional image G2, and the two-dimensional image G3.

咬合した状態と開口した状態では、2次元画像G1、2次元画像G2、2次元画像G3及び2次元画像G4、2次元画像G5、2次元画像G6の間では、顔(上顎)の範囲に存在する上歯列及び鼻、耳、目の相対的な位置は同じである。2次元画像G1、2次元画像G2、2次元画像G3及び2次元画像G4、2次元画像G5、2次元画像G6の間では下顎の範囲に存在する下歯列及びオトガイの相対的な位置は同じである。よって、同じ範囲ならば、3次元座標計算には使用できる。 Between the two-dimensional image G1, the two-dimensional image G2, the two-dimensional image G3, the two-dimensional image G4, the two-dimensional image G5, and the two-dimensional image G6 in the occluded state and the opened state, the face (upper jaw) exists. The relative positions of the upper teeth and the nose, ears, and eyes are the same. Between the two-dimensional image G1, the two-dimensional image G2, the two-dimensional image G3, the two-dimensional image G4, the two-dimensional image G5, and the two-dimensional image G6, the relative positions of the lower dentition and the genius existing in the lower jaw range are the same. It is. Therefore, the same range can be used for three-dimensional coordinate calculation.

一方、2次元画像G1、2次元画像G2、2次元画像G3に対して2次元画像G4、2次元画像G5、2次元画像G6は下顎が移動した後の状態を撮像したものとなる。したがって、2次元画像G1、2次元画像G2、2次元画像G3に対して、2次元画像G4、2次元画像G5、2次元画像G6では顔(上顎)と下顎の範囲に存在する部位の相対的位置は異なるため、1つの2次元画像のなかで顔(上顎)と下顎の範囲に存在する部位の両方を用いて3次元座標計算には使用できない。 On the other hand, the two-dimensional image G4, the two-dimensional image G5, and the two-dimensional image G6 are images of the state after the lower jaw is moved with respect to the two-dimensional image G1, the two-dimensional image G2, and the two-dimensional image G3. Therefore, relative to the two-dimensional image G1, the two-dimensional image G2, and the two-dimensional image G3, the two-dimensional image G4, the two-dimensional image G5, and the two-dimensional image G6 are relative to the parts existing in the range of the face (upper jaw) and lower jaw. Since the positions are different, it cannot be used for 3D coordinate calculation using both the face (upper jaw) and the part existing in the range of the lower jaw in one 2D image.

尚、本実施例においては、特許文献2に示されたような2次元画像のマーカにより、位置・角度を推定する方法を利用するため、撮像装置の位置・角度を予め固定しておく必要はない。ある2次元画像と他の2次元画像に(利用するアルゴリズムにより選択される)3つ以上若しくは4つ以上の共通のマーカがあれば、夫々の2次元画像を撮影したときの位置・角度の関係を求めることができる。したがって、患者の頭蓋を固定して3次元座標を固定しておく必要もない。よって、撮像装置は例えばデジタルビデオカメラやスマートフォンを用いた手持ちの撮影であってもよい。 In this embodiment, since a method of estimating the position / angle using a marker of a two-dimensional image as shown in Patent Document 2 is used, it is necessary to fix the position / angle of the imaging device in advance. Absent. If there are 3 or more or 4 or more common markers (selected by the algorithm used) in one 2D image and the other 2D image, the relationship between the position and angle when each 2D image is taken Can be requested. Therefore, it is not necessary to fix the patient's skull and fix the three-dimensional coordinates. Therefore, the imaging device may be a hand-held shooting using a digital video camera or a smartphone, for example.

図2は、バーチャル咬合器にフェイスボウトランスファーする方法に使用される機器を示しており、処理装置2、モニタ3、入力装置5、外部記憶6からなる通常のコンピユータに対して、撮像装置1とスキャナー7が接続されている。尚、図においては、モニタ3の画面には、撮像装置1により撮影された、2次元画像G1〜G6が表示されている。 FIG. 2 shows a device used for the face bow transfer method to the virtual articulator. The image pickup device 1 and the normal computer including the processing device 2, the monitor 3, the input device 5, and the external storage 6 are shown in FIG. A scanner 7 is connected. In the figure, two-dimensional images G1 to G6 photographed by the imaging device 1 are displayed on the screen of the monitor 3.

スキャナー7は、近年歯科医院においても普及してきたオーラルスキャナーであり、上下歯列から上歯列、下歯列のCADデータP1、及び咬頭嵌合位チェックバイトのCADデータP2(咬合接触点t1〜nを含む)が取得できる。CADデータP1は上歯列、下歯列の3次元データであり、CADデータP2は上下の歯牙が最大面積で接触する下顎位置データである。CADデータP1およびCADデータP2により、上下の歯牙の咬合接触点t1〜nの3次元的な位置が決まる。ここでの、咬合接触点t1〜nの3次元的な位置は、CADデータP1の3次元データ上での位置である。 The scanner 7 is an oral scanner that has been widely used in dental clinics in recent years. CAD data P1 of upper and lower dentitions, lower dentitions, and CAD data P2 of occlusal engagement position check bytes (occlusion contact points t1 to t1) n). The CAD data P1 is three-dimensional data of the upper tooth row and the lower tooth row, and the CAD data P2 is mandibular position data where the upper and lower teeth contact with each other in the maximum area. The CAD data P1 and CAD data P2 determine the three-dimensional positions of the occlusal contact points t1 to n of the upper and lower teeth. Here, the three-dimensional positions of the occlusal contact points t1 to tn are positions on the three-dimensional data of the CAD data P1.

CADデータP1は、患者から採取された歯列模型を、CADスキャナーにより光学的に読み取って取得しても良い。また、CADデータP2はチェックバイト法以外にも、咬合紙法、感圧フィルム法などを用いても良い。 The CAD data P1 may be acquired by optically reading a dentition model collected from a patient with a CAD scanner. Further, the CAD data P2 may use an occlusal paper method, a pressure sensitive film method, or the like other than the check byte method.

処理プログラム4は、処理装置2により実行されるプログラムであり、図3にフローチャートを示す。
ステップS1において、2次元画像G1〜G6を撮像装置1から取得する。取得した2次元画像G1〜G6は、モニタ3上に全て表示することが望ましいが、モニタ3の画面が大きくなければ1つずつ表示しても良い。
The processing program 4 is a program executed by the processing device 2, and a flowchart is shown in FIG.
In step S1, the two-dimensional images G1 to G6 are acquired from the imaging device 1. The acquired two-dimensional images G1 to G6 are preferably displayed on the monitor 3, but may be displayed one by one if the screen of the monitor 3 is not large.

ステップS2において、咬合接触点t1〜nの3次元的位置をスキャナー7から取得する。尚、このステップは、後述するように咬頭嵌合位チェックバイトから直接に操作者が2次元画像G4〜G6上で位置設定する場合は省略しても良い。 In step S2, the three-dimensional positions of the occlusal contact points t1 to tn are acquired from the scanner 7. Note that this step may be omitted when the operator sets the position on the two-dimensional images G4 to G6 directly from the cusp fitting position check bit as will be described later.

ステップS3において、2次元画像G1〜G6の上で、出来るだけ各2次元画像に撮影されている共通の特徴点を特定するように操作者に促す。促す方法としては、ソフトウエアのマニュアルでも良いし、モニタ上にガイダンスを表示しても良い。モニタ3の画面上に現在の入力位置を示すポインタを表示するだけでも良い。操作者は、入力装置5によりモニタ3の画面上でポインティングして特定する。このときに特定する特徴点は、2次元画像G1〜G3においては、左右外眼角、眼窩下点、左右耳珠周囲の点、鼻下点、左右鼻翼下点縁、鼻尖、オトガイ周囲の点、平均的顆頭点、及び上歯列表面形状の特徴点などであって、複数の2次元画像に対して現れるように撮影されているので、もれなく対応付けて設定する。これらの点は、比較的普遍的な顔の特徴点である。このうち、上歯列を顔(上顎)に対して位置付けるための基準とされるフランクフルト面或いはカンペル平面の特定に必要な点(例えば、顔(上顎)の表面にあらわれる耳珠、眼窩下点、鼻下点、鼻翼下点縁等)は、これら平面の前方基準点と後方基準点として設定される。フランクフルト面或いはカンペル平面他は、咬合平面に対して特定の関係を有していることが知られている。もっぱら位置・角度を推定し、若しくは3次元座標データの精度を向上する為に特定される。特に、位置・角度を特定するマーカとして設定するには少なくとも3点若しくは4点が必要である。図4Aは、2次元画像G2に対して、外眼角、耳珠、眼窩下点、鼻下点、鼻翼下縁、鼻尖、オトガイの周辺の点が設定される様子を示している。図中、カンペル平面c1と咬合平面c2を参考までに一点鎖線で示している。ポインタが示す位置をクリックすると、どの特徴点であるかを記入するタグが表れ、記入或いは選択する。この作業を繰り返す。他の2次元画像についても同様に作業する。 In step S3, the operator is urged to specify as many common feature points as are photographed in each two-dimensional image on the two-dimensional images G1 to G6 as much as possible. As a method of prompting, a software manual may be used, or guidance may be displayed on a monitor. A pointer indicating the current input position may be simply displayed on the screen of the monitor 3. The operator specifies by pointing on the screen of the monitor 3 with the input device 5. In the two-dimensional images G1 to G3, the characteristic points to be identified at this time are the left and right outer eye angles, the lower orbital point, the point around the left and right tragus, the lower nose point, the lower left and right nose wings, the nose apex, the point around the mentalis, The average condylar point, the feature point of the surface shape of the upper dentition, and the like are captured so as to appear in a plurality of two-dimensional images, and are set in correspondence with each other. These points are relatively universal facial feature points. Of these, the points necessary for specifying the Frankfurt plane or the Canpel plane, which are the reference for positioning the upper dentition relative to the face (maxillary) (for example, the tragus appearing on the face (maxillary) surface, the orbital point, The nose lower point, the lower nose wing point, etc.) are set as the front reference point and the rear reference point of these planes. It is known that the Frankfurt plane or the Canpel plane has a specific relationship with the occlusal plane. It is specified to estimate the position / angle exclusively or improve the accuracy of the three-dimensional coordinate data. In particular, at least three or four points are required to set as a marker for specifying a position / angle. FIG. 4A shows a state in which the outer eye angle, tragus, lower orbit point, lower nose point, lower nose wing edge, nose tip, and points around the mental axis are set for the two-dimensional image G2. In the figure, the Kanper plane c1 and the occlusal plane c2 are indicated by a one-dot chain line for reference. When the position indicated by the pointer is clicked, a tag for entering which feature point is displayed, and is entered or selected. Repeat this process. The same operation is performed for other two-dimensional images.

一方、2次元画像G4、G5については、特徴点として特定されるのは、外眼角、眼窩下点、耳珠周囲の点、鼻下点、鼻翼下縁、鼻尖、平均的顆頭点、上歯列表面形状の特徴点などである。2次元画像G1〜G3の場合と異なり、オトガイ周囲の点は除かれる。オトガイ周囲の点は下顎の上に存在し、下顎は開口により頭蓋に対して動いてしまっているためである。したがって、2次元画像G4、G5については、2次元画像としては下顎が撮影されているものの、オトガイ周囲の点を無視した状態で特徴点が特定されるのである。 On the other hand, for the two-dimensional images G4 and G5, the feature points are specified as the external eye angle, the orbital point, the point around the tragus, the nose point, the lower nose wing, the nose tip, the average condylar point, the upper point It is a feature point of the dentition surface shape. Unlike the cases of the two-dimensional images G1 to G3, points around the chin are removed. This is because the point around the chin is on the lower jaw, and the lower jaw has moved relative to the skull due to the opening. Therefore, for the two-dimensional images G4 and G5, although the lower jaw is photographed as the two-dimensional image, the feature points are specified in a state where the points around the chin are ignored.

そして、2次元画像G6については、特徴点として特定されるのは、オトガイ周囲の点である。2次元画像G1〜G3の場合と異なり、外眼角、眼窩下点、耳珠周囲の点、鼻下点、鼻翼下点縁、鼻尖、平均的顆頭点、上歯列表面形状の特徴点は除かれる。2次元画像G6についても、2次元画像G4、G5と同様に、下顎は開口により顔(上顎)に対して動いてしまっているためである。したがって、2次元画像G6については、2次元画像としては顔(上顎)が撮影されているものの、これを無視した状態で特徴点が特定されるのである。図4Bには、2次元画像G6について、オトガイ周辺の点が設定される様子を示している。2次元画像G6については、撮像装置1の位置・角度を特定するために利用可能な下顎の特徴点が少なく、オトガイ周囲の点の複数の点を特徴点として特定する必要がある。 In the two-dimensional image G6, the points around the mentalis are specified as the feature points. Unlike the case of the two-dimensional images G1 to G3, the feature points of the external eye angle, the orbital point, the point around the tragus, the nose point, the nose wing point, the nose tip, the average condylar point, and the upper dentition surface shape are Excluded. This is because, similarly to the two-dimensional images G4 and G5, the two-dimensional image G6 moves the lower jaw relative to the face (upper jaw) due to the opening. Therefore, for the two-dimensional image G6, although the face (upper jaw) is photographed as the two-dimensional image, the feature point is specified in a state in which this is ignored. FIG. 4B shows a state in which points around the chin are set for the two-dimensional image G6. Regarding the two-dimensional image G6, there are few mandibular feature points that can be used for specifying the position and angle of the imaging device 1, and it is necessary to specify a plurality of points around the genit as feature points.

ステップS4において、2次元画像G1〜G6の夫々について、2次元画像の位置・角度を計算する。2次元画像の角度、及び位置は、撮像装置1の角度、患者との距離に対応している。ステップS3とステップS4は、新たな特徴点が操作者により特定される度に繰り返されて、精度を向上させる。 In step S4, the position and angle of the two-dimensional image are calculated for each of the two-dimensional images G1 to G6. The angle and position of the two-dimensional image correspond to the angle of the imaging device 1 and the distance to the patient. Steps S3 and S4 are repeated each time a new feature point is specified by the operator to improve accuracy.

ステップS5において、2次元画像G6の上で咬合接触点の位置が特定される。咬合接触点は、上歯列表面形状の特徴点のような位置を特定する表面形状に個人差の無い特徴点とは違い、表面形状によらず個人個人で位置が相違する特徴点である。咬合接触点と上歯列表面形状の特徴点とを合わせて上歯列上の特徴点と称することにする。尚、上歯列表面形状の特徴点は、2次元画像G6には一部しか写っていないが、これを補完する手法を説明する。図4Bには、2次元画像G6に対して、咬合接触点t1〜j、k〜m、nが特定されている様子を示している。咬合接触点t1〜j、k〜m、nは、上歯列と下歯列が接触する点であり、下歯列の咬合接触点t1〜j、k〜m、nに対しては、必ずこれに対応して接触する上歯列の咬合接触t1〜j、k〜m、nがある。2次元画像G6の下歯列に対して夫々対応する咬合接触点t1〜j、k〜m、nを複数個(全部で無くとも良い)設定する。これらは、上歯列咬合接触点を代替するものとして下歯列咬合接触点を上歯列上の特徴点として設定することとする。 In step S5, the position of the occlusal contact point is specified on the two-dimensional image G6. The occlusal contact point is a feature point whose position is different for each individual regardless of the surface shape, unlike a feature point having no individual difference in the surface shape for specifying the position such as the feature point of the upper dentition surface shape. The occlusal contact point and the feature point of the upper dentition surface shape are collectively referred to as a feature point on the upper dentition. Note that only a part of the feature points of the upper dentition surface shape is shown in the two-dimensional image G6, and a method for complementing this will be described. FIG. 4B shows a state in which the occlusal contact points t1 to j, k to m, and n are specified for the two-dimensional image G6. The occlusal contact points t1 to j, k to m, and n are points where the upper tooth row and the lower tooth row are in contact with each other, and the occlusal contact points t1 to j, k to m, and n of the lower tooth row are always There are occlusal contacts t1 to j, k to m, and n of the upper tooth row that contact correspondingly. A plurality of (not all) occlusal contact points t1 to j, k to m, and n corresponding to the lower tooth row of the two-dimensional image G6 are set. In these cases, the lower dentition occlusion contact point is set as a feature point on the upper dentition as a substitute for the upper dentition occlusion contact point.

咬合接触点t1〜j、k〜m、nの設定は、処理装置2が計算により行っても良いし、このステップS4は咬頭嵌合位チェックバイトから直接に操作者が促されて2次元画像G6上で設定しても良い。処理装置2が計算により行う場合は、次のように行う。まず、2次元画像G6の夫々について撮像装置1の位置・角度を計算して、スキャナー7から取得した咬合接触点t1〜j、k〜m、nをその3次元的位置に対して、求めた撮像装置の位置・角度により撮影されるべき2次元上の位置を求め、2次元画像G6に設定する。2次元画像G4〜G5は上歯列上の表面画像ではあるが、咬合接触点t1〜nとして映し出されるのは、一部にしか過ぎないので下歯列咬合面の2次元画像G6で代用しているのであるが、2次元画像G4〜G5で咬合接触点t1〜nのうち映し出されるものが一部でもあれば、2次元画像G4〜G5上で設定しても良い。 The setting of the occlusal contact points t1 to j, k to m, and n may be performed by the processing device 2, and this step S4 is a two-dimensional image in which the operator is prompted directly from the cusp fitting position check byte. It may be set on G6. When the processing apparatus 2 performs the calculation, it is performed as follows. First, the position and angle of the imaging device 1 are calculated for each of the two-dimensional images G6, and the occlusal contact points t1 to j, k to m, and n acquired from the scanner 7 are obtained with respect to the three-dimensional positions. A two-dimensional position to be photographed is determined according to the position and angle of the imaging device, and set in the two-dimensional image G6. Although the two-dimensional images G4 to G5 are surface images on the upper dentition, since only a part of the occlusal contact points t1 to n are displayed, the two-dimensional image G6 of the lower dentition occlusal surface is used instead. However, if some of the occlusal contact points t1 to tn are projected in the two-dimensional images G4 to G5, they may be set on the two-dimensional images G4 to G5.

ステップS6において、設定した複数の特徴点(咬合接触点を含む)を共通の3次元座標軸上にマッピングする。咬合接触点の3次元座標軸上は、2次元画像G4〜G6を撮影した撮像装置1の位置と角度が既に求められているため、これに基づき計算する。2次元画像G1〜G3においては前方基準点、後方基準点が取得され、2次元画像G4〜G6においては、同じ対応点を利用して2次元画像G1〜G3に対して、撮像装置1の3次元座標系に統一している。 In step S6, a plurality of set feature points (including occlusal contact points) are mapped onto a common three-dimensional coordinate axis. On the three-dimensional coordinate axis of the occlusal contact point, since the position and angle of the imaging device 1 that has captured the two-dimensional images G4 to G6 have already been obtained, the calculation is based on this. In the two-dimensional images G1 to G3, the front reference point and the rear reference point are acquired, and in the two-dimensional images G4 to G6, 3 of the imaging device 1 is used for the two-dimensional images G1 to G3 using the same corresponding points. The coordinate system is unified.

言い換えれば、下歯列咬合面の2次元画像G6と上歯列の2次元画像G4、G5では患者は開口状態であって、下歯列と上歯列の咬合接触点t1〜nは3次元座標が異なっているにも拘わらず、ステップ6の計算上は、上歯列の咬合接触点t1〜nの位置として2次元画像G1〜G3の3次元座標系で計算するのである。咬合接触点t1〜nについては、咬合した状態で3次元座標を計算するのと等価になるからである。 In other words, in the two-dimensional image G6 of the lower dentition occlusal surface and the two-dimensional images G4 and G5 of the upper dentition, the patient is in an open state, and the occlusal contact points t1 to tn of the lower dentition and the upper dentition are three-dimensional. In spite of the difference in coordinates, in the calculation of step 6, the positions of the occlusal contact points t1 to n of the upper dentition are calculated in the three-dimensional coordinate system of the two-dimensional images G1 to G3. This is because the occlusal contact points t1 to n are equivalent to calculating the three-dimensional coordinates in the occluded state.

ステップS7において、スキャナー7により取得された上歯列の3次元データを、上歯列上の特徴点の3次元座標のいずれかの座標を用いて、頭蓋の水平の基準とされるフランクフルト面或いはカンペル平面の特定に必要な前方基準点、後方基準点の3次元座標に対応付けられる。つまり、上歯列の3次元データと前方基準点、後方基準点とが同一の3次元座標上にマッピングされるのである。
尚、ステップS7の合成に使用する上歯列上の特徴点は、これらの点が3次元データ上でどこに位置するか、予め指定しておく必要がある。
In step S7, the three-dimensional data of the upper dentition acquired by the scanner 7 is used as the horizontal reference plane of the cranium using any one of the three-dimensional coordinates of the feature points on the upper dentition, or Corresponding to the three-dimensional coordinates of the front reference point and the rear reference point necessary for specifying the Kampel plane. That is, the three-dimensional data of the upper tooth row, the front reference point, and the rear reference point are mapped on the same three-dimensional coordinates.
It should be noted that the feature points on the upper tooth row used for the synthesis in step S7 need to specify in advance where these points are located on the three-dimensional data.

尚、平均的顆頭点がステップ2において設定されていなければ、他の特徴点から平均的顆頭点の3次元座標を算出して3次元座標を設定する。平均的顆頭点の位置は、その推定方法が幾つかあるが、一例を示すと、外眼角に向かって耳珠より12mm前方で5mm下方の位置である。 If the average condylar point is not set in step 2, the three-dimensional coordinates of the average condylar point are calculated from other feature points and set. There are several methods for estimating the average condylar point. For example, the average condylar point is 12 mm forward and 5 mm below the tragus toward the external eye angle.

本実施例によれば、前方基準点、後方基準点の各3次元座標と、同じ3次元座標系にマッピングされた上歯列の3次元データを取得できるため、生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させることができる。 According to the present embodiment, the three-dimensional coordinates of the front reference point and the rear reference point and the three-dimensional data of the upper dentition mapped in the same three-dimensional coordinate system can be acquired. The opening and closing axis of the container can be made to coincide.

また、本実施例によれば、上歯列の2次元画像G4、G5と下歯列咬合面の2次元画像6を利用することにより、咬合した状態では本来外観からは見えない咬合接触点t1〜j、k〜m、nをあたかも左右下及び正面上の3方向から透視して撮影しているかの如く計算することができる。 Further, according to the present embodiment, by using the two-dimensional images G4 and G5 of the upper dentition and the two-dimensional image 6 of the occlusal surface of the lower dentition, the occlusal contact point t1 that is not originally visible from the external appearance when engaged. .About.j, km.about.m, and n can be calculated as if they were taken through the three directions on the left and right bottom and front.

上歯列咬合面は角度を大きく変えて撮影することが困難であるが、下歯列咬合面の2次元画像6に上歯列との咬合接触点を転写して撮影することで、オトガイと上歯列の位置関係を撮影することができ、上歯列の3次元位置を算出する際の精度を上げることができる。 The upper occlusal occlusal surface is difficult to shoot with a large change in angle, but by transferring the occlusal contact point with the upper dentition onto the 2D image 6 of the lower dentition occlusal surface, The positional relationship of the upper tooth row can be photographed, and the accuracy in calculating the three-dimensional position of the upper tooth row can be increased.

また、任意の基準点を持つ他の顔貌画像やCTデータと、歯列の3次元CADデータを重ね合わせれば、審美的評価や顎関節や骨組織と歯列の関係も再現できる。 In addition, by superimposing other facial image or CT data having an arbitrary reference point and three-dimensional CAD data of the dentition, the aesthetic evaluation and the relationship between the temporomandibular joint, bone tissue and the dentition can be reproduced.

本実施例によれば、2次元画像から撮像装置の位置・角度を計算するのでチェアーサイドに特別な器具を必要としないし、コストがかからない。さらにも撮影者に特別な訓練や能力、資格を必要としない。口腔内および顎関節の3次元座標を取得するためにCTを撮影する必要がなく、被曝もない。 According to the present embodiment, since the position and angle of the imaging device are calculated from the two-dimensional image, no special instrument is required on the chair side, and no cost is required. Furthermore, the photographer does not need special training, ability, or qualification. There is no need to take a CT to acquire the three-dimensional coordinates of the intraoral and temporomandibular joints, and there is no exposure.

同じ基準点を持った他の画像データを重ね合わせできる。例えば、審美的データと重ね合わせることで、審美的な評価が可能である。また、撮像装置を用いるため、咬合器装着の必要がない。さらに、偏心位のチェックバイトのデータを入力することで下顎の機能運動をコンピュータ上で再現することができる。 Other image data having the same reference point can be overlaid. For example, aesthetic evaluation is possible by superimposing with aesthetic data. Moreover, since an imaging device is used, it is not necessary to attach an articulator. Furthermore, the functional movement of the lower jaw can be reproduced on the computer by inputting the check byte data of the eccentric position.

上記実施例においては、上歯列の2次元画像G4、G5と下歯列咬合面の2次元画像G6を用いたが、このうちいずれか2つの2次元画像を用いて咬合接触点t1〜j、k〜m、nの3次元座標を計算しても良い。すくなくとも、2つの2次元画像があれば、3次元座標の計算が可能であるからである。ステップ7において合成する際に上歯上の特徴点を用いるが、この場合、咬合接触点t1〜j、k〜m、nを用いずに、上歯表面形状の特徴点、すなわち、中切歯切端、犬歯尖頭、臼歯頬側を対応点として用いても良い。但し、この場合には、撮像装置が撮影する角度が1つに限定され、かつ2つの2次元画像に共通に写せる咬合接触点が狭い範囲にとどまるため、精度は劣るものとなる。 In the above embodiment, the two-dimensional images G4 and G5 of the upper dentition and the two-dimensional image G6 of the occlusal surface of the lower dentition are used, but occlusal contact points t1 to j using any two of these two-dimensional images. , K to m, n may be calculated. This is because, if there are at least two two-dimensional images, three-dimensional coordinates can be calculated. In step 7, the feature points on the upper teeth are used. In this case, without using the occlusal contact points t1 to j, km to m, n, the feature points of the upper tooth surface shape, that is, the central incisors The cut edge, the canine tip, and the molar buccal side may be used as corresponding points. However, in this case, the angle taken by the imaging device is limited to one, and the occlusal contact points that can be commonly photographed in the two two-dimensional images remain in a narrow range, so the accuracy is poor.

また同様に、2次元画像G1〜G3を用いたが、このうちいずれか2つの2次元画像を用いて前方基準点、後方基準点の3次元座標を計算しても良い。 Similarly, although the two-dimensional images G1 to G3 are used, the three-dimensional coordinates of the front reference point and the rear reference point may be calculated using any two of these two-dimensional images.

1 撮像装置
2 処理装置
3 モニタ
4 処理プログラム
5 入力装置
6 外部記憶
G1〜G6 2次元画像
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Processing device 3 Monitor 4 Processing program 5 Input device 6 External storage G1-G6 Two-dimensional image

Claims (5)

頭蓋の水平基準面を特定する前方基準点として眼窩下点や鼻下点などの特徴点と、後方基準点として左右平均的顆頭点を含む患者の顔表面の複数の特徴点と、上歯列表面形状の複数の特徴点とが1つの2次元画像内に撮影され、かつ他の2次元画像にも同じ特徴点が複数含まれるように角度を変えて咬合した患者の口腔を含む顔面を撮影して咬合状態の2次元画像を複数取得し、
顔の表面および上歯列上の特徴点を含み、かつ上歯列の咬合面を含むように角度を変えて開口状態の患者の口腔を含む顔面を撮影して開口状態の2次元画像を複数取得し、
モニタに前記複数の咬合状態の2次元画像と開口状態の2次元画像を表示して操作者に対して複数の2次元画像に共通して現れる複数の特徴点の位置を画面上で特定するように促し、
操作者により指定された前記特徴点に基づき、前記前方基準点と後方基準点の3次元座標と、前記患者の上歯列上の特徴点の3次元座標とを3次元座標計算し、
患者の上歯列の3次元データを取得し、
前記患者の上歯列の3次元データ上での上歯列上の特徴点の位置を取得し、
前記3次元座標計算した上歯列上の特徴点の3次元座標と前記取得した上歯列の3次元データ上の上歯列上の特徴点の位置とにより前記上歯列の3次元データを合成して、前記前方基準点と後方基準点の3次元座標に対応付けることを特徴とする生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法。
Multiple feature points on the patient's face, including the orbital point and the nose point as front reference points to identify the horizontal reference plane of the skull, and the left and right average condylar point as the posterior reference point, and upper teeth A face including the oral cavity of a patient who has been occluded by changing the angle so that a plurality of feature points of a row surface shape are photographed in one two-dimensional image and a plurality of the same feature points are also included in other two-dimensional images. Take multiple 2D images of the occlusal state by shooting,
A plurality of two-dimensional images of the open state are obtained by photographing the face including the mouth of the patient in the open state by changing the angle so as to include the feature points on the face surface and the upper dentition and including the occlusal surface of the upper dentition Acquired,
The plurality of occlusal two-dimensional images and the open two-dimensional image are displayed on a monitor, and the positions of a plurality of feature points appearing in common in the plurality of two-dimensional images are identified on the screen to the operator. Prompt
Based on the feature points designated by the operator, three-dimensional coordinates of the three-dimensional coordinates of the front reference point and the rear reference point and the three-dimensional coordinates of the feature points on the upper dentition of the patient are calculated,
Acquire 3D data of patient's upper dentition,
Obtaining the position of the feature point on the upper dentition on the three-dimensional data of the patient's upper dentition;
The three-dimensional data of the upper tooth row is obtained from the three-dimensional coordinates of the feature point on the upper tooth row calculated by the three-dimensional coordinate and the position of the feature point on the upper tooth row on the acquired three-dimensional data of the upper tooth row. A method of synthesizing and associating the mandibular opening / closing axis of the living body with the opening / closing axis of the virtual articulator, which is associated with the three-dimensional coordinates of the front reference point and the rear reference point.
請求項1のフェイスボウトランスファーする方法において、前記特徴点は、左右外眼角、眼窩下点、左右耳珠周辺の点、鼻下点、左右鼻翼下点縁、鼻尖、オトガイ周囲の点、左右平均的顆頭点、上顎左右中切歯切端、上顎左右犬歯尖頭、上顎左右咬頭頂の中から選ばれることを特徴とする生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法。
The face bow transfer method according to claim 1, wherein the feature points include left and right outer eye angles, lower orbital points, left and right tragus periphery points, lower nose points, left and right lower nose wing points, nasal apex, points around the mentalis, and left and right averages. A method for matching a mandibular opening / closing axis of a living body with an opening / closing axis of a virtual articulator, which is selected from among a condylar point, maxillary left and right central incisors, maxillary left and right canine cusps, and maxillary left and right cusps.
て頭蓋の水平基準面を特定する前方基準点として眼窩下点や鼻下点などの特徴点と、後方基準点として、左右平均的顆頭点を含む複数の患者の顔表面の特徴点と、上歯列上の特徴点と、下顎表面に現れるオトガイ周囲の複数の特徴点とが1つの2次元画像内に撮影され、かつ他の2次元画像にも同じ特徴点が含まれるように角度を変えて咬合した患者の口腔を含む顔面を撮影して咬合状態の2次元画像を複数取得し、
顔の表面および上歯列上の特徴点を含み、かつ上歯列の咬合面を含むように角度を変えて患者の口腔を含む顔面を撮影して開口状態の2次元画像を複数撮影し、
開口状態のオトガイ周辺の複数の特徴点を含み、かつ下歯列の咬合面を含むように下顎の開口状態の2次元画像を撮影し、
モニタに前記複数の咬合状態の2次元画像と開口状態の上歯列2次元画像を表示して操作者に対して、複数の2次元画像に共通して現れる複数の特徴点の位置と上歯列咬合接触点を画面上で特定するように促し、前記表示された咬合状態の2次元画像に対しては、さらにオトガイ周囲の複数の特徴点を画面上で特定するように促し、
モニタに前記の開口状態の下歯列2次元画像を表示して、操作者にオトガイ周囲の複数の特徴点を特定し、あわせて上歯列咬合接触点を代替するものとして下歯列咬合接触点を前記上歯列上の特徴点として特定するように促し、
操作者により指定された前記特徴点に基づき前記前方基準点と後方基準点の3次元座標と、前記特定された上歯列上の複数の特徴点の3次元座標とを3次元座標計算し、
患者の上歯列の3次元データを取得し、
前記患者の上歯列の3次元データ上での患者の複数の上歯列上の特徴点の位置を取得し、
前記取得した上歯列上の複数の特徴点の3次元座標と前記3次元計算した上歯列上の複数の特徴点の3次元座標とを用いて前記上歯列の3次元データを合成して前記前方基準点と後方基準点の3次元座標に対応付けることを特徴とする生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法。
A feature point of the patient's face, including an orbital point and a nose point as an anterior reference point for identifying the horizontal reference plane of the skull, and a left and right average condylar point as a posterior reference point; The feature points on the upper dentition and a plurality of feature points around the chin that appear on the mandibular surface are photographed in one two-dimensional image, and the angles are set so that the same feature points are included in the other two-dimensional images. Take a picture of the face of the patient's mouth that was changed and occluded to obtain multiple 2D images of the occlusion,
Taking a plurality of two-dimensional images of the open state by photographing the face including the oral cavity of the patient by changing the angle so as to include the occlusal surface of the upper dentition, including feature points on the surface of the face and the upper dentition,
Taking a two-dimensional image of the open state of the lower jaw so as to include a plurality of feature points around the open mentalis and include the occlusal surface of the lower dentition,
The plurality of occlusal two-dimensional images and the open upper tooth row two-dimensional image are displayed on the monitor, and the positions of the plurality of feature points and upper teeth appearing in common in the plurality of two-dimensional images to the operator Prompt to identify the row occlusal contact point on the screen, and for the displayed two-dimensional image of the occlusal state, further prompt to identify a plurality of feature points around the chin
The lower dentition 2D image is displayed on the monitor, and the operator identifies a plurality of feature points around the genital area. In addition, the lower dentition occlusion contact is used as an alternative to the upper dentition occlusion contact point. Prompts the point to be identified as a feature point on the upper dentition,
Based on the feature points designated by the operator, the three-dimensional coordinates of the front reference point and the rear reference point and the three-dimensional coordinates of a plurality of feature points on the identified upper tooth row are calculated in three dimensions.
Acquire 3D data of patient's upper dentition,
Obtaining a position of a feature point on a plurality of upper dentitions of the patient on the three-dimensional data of the upper dentition of the patient;
Using the acquired three-dimensional coordinates of the plurality of feature points on the upper tooth row and the three-dimensional coordinates of the plurality of feature points on the upper tooth row calculated in three dimensions, the three-dimensional data of the upper tooth row is synthesized. A method of matching the mandibular opening / closing axis of the living body with the opening / closing axis of the virtual articulator, which is associated with the three-dimensional coordinates of the front reference point and the rear reference point.
請求項3の生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法において、
前記取得される咬合接触点の位置は、咬頭嵌合位チェックバイトに基づいて取得されたものであることを特徴とする生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法。
In the method of matching the mandibular opening and closing axis of the living body and the opening and closing axis of the virtual articulator according to claim 3,
The position of the obtained occlusal contact point is obtained on the basis of a cusp fitting position check bite, and the living body's mandibular opening / closing axis matches the opening / closing axis of the virtual articulator.
請求項3の生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法において、
前記患者の上歯列の3次元データ上での患者の複数の上歯列上の特徴点の位置を取得するさいに、下歯列咬合接触点を前記上歯列上の特徴点としてその位置を取得することを特徴とする生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法。

In the method of matching the mandibular opening and closing axis of the living body and the opening and closing axis of the virtual articulator according to claim 3,
When acquiring the position of the feature point on the upper dentition of the patient on the three-dimensional data of the upper dentition of the patient, the position of the lower dentition occlusion contact point as the feature point on the upper dentition A method for matching the opening / closing axis of a mandibular mandible with the opening / closing axis of a virtual articulator.

JP2016118072A 2016-06-14 2016-06-14 Method for matching organic lower jaw opening/closing axis with virtual articulator opening/closing axis using two-dimensional image Pending JP2017221329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016118072A JP2017221329A (en) 2016-06-14 2016-06-14 Method for matching organic lower jaw opening/closing axis with virtual articulator opening/closing axis using two-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016118072A JP2017221329A (en) 2016-06-14 2016-06-14 Method for matching organic lower jaw opening/closing axis with virtual articulator opening/closing axis using two-dimensional image

Publications (1)

Publication Number Publication Date
JP2017221329A true JP2017221329A (en) 2017-12-21

Family

ID=60687393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016118072A Pending JP2017221329A (en) 2016-06-14 2016-06-14 Method for matching organic lower jaw opening/closing axis with virtual articulator opening/closing axis using two-dimensional image

Country Status (1)

Country Link
JP (1) JP2017221329A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109965881A (en) * 2019-04-29 2019-07-05 杭州雅智医疗技术有限公司 The application method and equipment of non-contact measurement oral cavity opening degree
KR20200114763A (en) * 2019-03-29 2020-10-07 오스템임플란트 주식회사 Method, Apparatus and Recording Medium For Detailed Scanning of a Region of Interest
JP2022501153A (en) * 2018-10-02 2022-01-06 デンツプライ・シロナ・インコーポレイテッド A method for incorporating a person's photographic facial image and / or film into a dental and / or aesthetic dental treatment plan and / or preparation of a restoration for the person.
JP7472145B2 (en) 2019-01-30 2024-04-22 デンツプライ・シロナ・インコーポレイテッド Method and system for proposing and visualizing dental treatments - Patents.com
US11983873B2 (en) 2018-06-21 2024-05-14 3Shape A/S Method, device and system for correlating at least one additional 2D-image to a 3D-representation of at least a part of tooth

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983873B2 (en) 2018-06-21 2024-05-14 3Shape A/S Method, device and system for correlating at least one additional 2D-image to a 3D-representation of at least a part of tooth
JP2022501153A (en) * 2018-10-02 2022-01-06 デンツプライ・シロナ・インコーポレイテッド A method for incorporating a person's photographic facial image and / or film into a dental and / or aesthetic dental treatment plan and / or preparation of a restoration for the person.
JP7472145B2 (en) 2019-01-30 2024-04-22 デンツプライ・シロナ・インコーポレイテッド Method and system for proposing and visualizing dental treatments - Patents.com
KR20200114763A (en) * 2019-03-29 2020-10-07 오스템임플란트 주식회사 Method, Apparatus and Recording Medium For Detailed Scanning of a Region of Interest
KR102306759B1 (en) 2019-03-29 2021-09-30 오스템임플란트 주식회사 Method, Apparatus and Recording Medium For Detailed Scanning of a Region of Interest
CN109965881A (en) * 2019-04-29 2019-07-05 杭州雅智医疗技术有限公司 The application method and equipment of non-contact measurement oral cavity opening degree
CN109965881B (en) * 2019-04-29 2021-06-04 杭州雅智医疗技术有限公司 Application method and device for non-contact measurement of oral cavity openness

Similar Documents

Publication Publication Date Title
US11779444B2 (en) Methods and systems for dental procedures
US11751981B2 (en) Dynamic virtual articulator for simulating occlusion of teeth
US11633265B2 (en) Dynamic virtual articulator for simulating occlusion of teeth
US11229503B2 (en) Implant surgery guiding method
KR102330616B1 (en) Method for Guiding Dental Implant Surgery
KR101799878B1 (en) 2d image arrangement
US8422751B2 (en) Method and apparatus for generating virtual teeth, and recording media storing program performing the method
JP5233456B2 (en) Crown design method and crown preparation method
US20120115107A1 (en) System and method for automated manufacturing of dental orthotics
JP2017221329A (en) Method for matching organic lower jaw opening/closing axis with virtual articulator opening/closing axis using two-dimensional image
JP2019512372A (en) System and method for scanning facial features
EP2775956B1 (en) Method for producing a dental element or aid for adjusting the teeth
US11000349B2 (en) Method, system and computer readable storage media for determining articulation parameters
US20170165042A1 (en) Determining jaw and facial movement
EP3021787B1 (en) Alignment of dental model using 2d photograph
EP3188687B1 (en) Method of using a digital representation of a facebow
US20240033057A1 (en) Real-time bite articulation
WO2014015459A1 (en) Method for dental prosthodontic and prosthesis digital archiving and fabrication, and teaching and training thereof
WO2019199191A1 (en) Device and method for the recording of relative spatial movements of the upper and lower jaws
WO2022171911A1 (en) Occipital optoelectronic chin rest
CN112969414A (en) Method for preparing an X-ray image, method for capturing an X-ray image, device for data processing, computer program product, medium and X-ray machine
US20240130833A1 (en) System and method for fabricating a dental restoration
JP2004129890A (en) Device for deciding forefront point of artificial dental arch when producing dental artifact
Yılmaz et al. Recent photography trends in orthodontics
Lin et al. Virtual Articulators