JP5414906B2 - 画像処理装置、画像表示装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像表示装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5414906B2
JP5414906B2 JP2012537250A JP2012537250A JP5414906B2 JP 5414906 B2 JP5414906 B2 JP 5414906B2 JP 2012537250 A JP2012537250 A JP 2012537250A JP 2012537250 A JP2012537250 A JP 2012537250A JP 5414906 B2 JP5414906 B2 JP 5414906B2
Authority
JP
Japan
Prior art keywords
image
unit
display
area
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012537250A
Other languages
English (en)
Other versions
JPWO2013021440A1 (ja
Inventor
大介 平川
快行 爰島
洋次郎 登内
晋一郎 古藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of JP5414906B2 publication Critical patent/JP5414906B2/ja
Publication of JPWO2013021440A1 publication Critical patent/JPWO2013021440A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明の実施形態は、画像処理装置、画像表示装置、画像処理方法およびプログラムに関する。
従来、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像(ボリュームデータ)を生成可能な装置が実用化されている。このような装置では、生成されたボリュームデータのうち、ユーザーが観測したい部分(例えば臓器など)を含む断面画像を選択してボリュームレンダリング処理を行うことができる。そして、そのボリュームレンダリング処理で得られた複数の視差画像により立体表示を行うことができる。
しかしながら、上述の技術では、ユーザーは、ボリュームデータの全体像と、一部の内部構造とを同時に把握することができないという問題がある。
特開2009−207677号公報
本発明が解決しようとする課題は、ユーザーが、3次元画像の全体像と、一部の内部構造とを同時に把握できる画像処理装置、画像表示装置、画像処理方法およびプログラムを提供することである。
実施形態の画像処理装置は、取得部と指定部と第1設定部と第2設定部と処理部とを備える。取得部は、対象物体の所定の軸方向に沿った複数の断面画像から構成されるボリュームデータであり、複数の断面画像の各々は、表示されるオブジェクトごとに複数の領域に区分される3次元画像を取得する。指定部は、ユーザーの入力に用いられる入力部の実空間における3次元座標値を前記3次元画像の座標系に変換し、変換後の3次元座標値を指定する。第1設定部は、指定部により指定された3次元座標値を含むオブジェクトが属する領域を示す指示領域を設定する。第2設定部は、3次元画像を観察した場合に、指示領域を覆い隠している領域を示す遮蔽領域を設定する。処理部は、遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を3次元画像に対して行う。
画像表示装置のブロック図。 画像処理装置のブロック図。 ボリュームデータを説明するための図。 モニタの正面図。 モニタの側面図。 指示領域及び遮蔽領域を説明するための概念図。 画像表示装置の動作例を示すフローチャート。 表示例を示す図。 遮蔽領域の変形例を示す図。 遮蔽領域の変形例を示す図。 遮蔽領域の変形例を示す図。
以下、添付図面を参照しながら、本発明に係る画像処理装置、画像表示装置、画像処理方法およびプログラムの実施の形態を詳細に説明する。図1は、本実施形態の画像表示装置1の概略構成例を示すブロック図である。画像表示装置1は、画像処理装置100と表示装置200とを備える。本実施形態では、画像処理装置100は、取得した3次元画像に対して画像処理を行う。この詳細な内容については後述する。表示装置200は、画像処理装置100による画像処理の結果を用いて、3次元画像を立体表示する。
本実施形態では、ユーザーは、不図示のモニタ上に立体表示された画像を見ながら、当該モニタ上の3次元空間内における所定の位置を例えばペンなどの入力部で指定(ポインティング)する。そうすると、ユーザーが観測したいと考えられる領域が推定され、その推定された領域が全体像から露出して表示される。以下、具体的な内容を説明する。
図2は、画像処理装置100の構成例を示すブロック図である。画像処理装置100は、取得部10と、センサ部20と、受付部30と、指定部40と、第1設定部50と、第2設定部60と、処理部70とを備える。
取得部10は、3次元画像を取得する。3次元画像の取得方法は任意であり、例えば取得部10は、データベースから3次元画像を取得することもできるし、サーバ装置にアクセスして当該サーバ装置に格納された3次元画像を取得することもできる。また、本実施形態では、取得部10が取得する3次元画像は、医用のボリュームデータである。ここでは、図3に示すように、被検者の体軸方向に沿った複数のスライス画像(断面画像)をX線CT装置で撮影し、その撮影されたスライス画像の集合を医用のボリュームデータとして採用する。なお、これに限らず、取得部10が取得する3次元画像の種類は任意である。例えば取得部10は、3次元コンピュータ・グラフィックス(3DCG)で作成された画像を取得することもできる。また、取得部10は、3次元画像だけでなく、レンダリング処理に必要な画像情報を取得することもできる。かかる画像情報は3次元画像に付加されるのが一般的であり、取得する3次元画像が3DCGの場合は、仮想3次元上にモデリングされたオブジェクトの頂点情報やマテリアル情報、あるいは、仮想3次元上に配置するための光源情報などを画像情報として取得することができる。また、取得する3次元画像が、X線CT装置により撮影されたスライス画像の集合で構成される医用のボリュームデータの場合は、スライス画像を識別するID、各ボクセルのX線の吸収量を蓄えた情報、各スライス画像において静脈・動脈・心臓・骨・腫瘍といった部位ごとに領域分けされた情報などを画像情報として取得することもできる。
センサ部20は、後述の立体画像が表示されるモニタ上の3次元空間内における入力部(例えばペン)の座標値を検出(算出)する。図4は、モニタの正面図であり、図5はモニタの側面図である。図4および図5に示すように、センサ部20は、第1検出部21と第2検出部22とを含んで構成される。また、本実施形態では、ユーザーの入力に用いられる入力部は、先端部分から音波および赤外線を出射するペンで構成される。第1検出部21は、図4のX−Y平面上における入力部の位置を検出する。より具体的には、第1検出部21は、入力部から出射された音波および赤外線を検出し、音波が第1検出部21に到達するまでの時間と、赤外線が第1検出部21に到達するまでの時間との時間差に基づいて、入力部のX方向の座標値およびY方向の座標値を算出する。また、第2検出部22は、図5のZ方向における入力部の位置を検出する。第1検出部21と同様に、第2検出部22は、入力部から出射された音波および赤外線を検出し、音波が第2検出部22に到達するまでの時間と、赤外線が第2検出部22に到達するまでの時間との時間差に基づいて、入力部のZ方向の座標値を算出する。なお、これに限らず、例えば入力部は、先端部分から音波または赤外線のみを出射するペンで構成されてもよい。この場合、第1検出部21は、入力部から出射された音波(または赤外線)を検出し、音波(または赤外線)が第1検出部21に到達するまでの時間に基づいて、入力部のX方向の座標値およびY方向の座標値を算出することができる。同様に、第2検出部22は、入力部から出射された音波(または赤外線)を検出し、音波(または赤外線)が第2検出部22に到達するまでの時間に基づいて、入力部のZ方向の座標値を算出することができる。
なお、センサ部20の構成は上述した内容に限定されるものではない。要するに、センサ部20は、モニタ上の3次元空間内における入力部の座標値を検出できるものであればよい。また、入力部の種類もペンに限らず任意である。例えば入力部は、ユーザーの指であってもよいし、メスやハサミなどであってもよい。本実施形態では、ユーザーが、モニタ上に立体表示された画像を見ながら、そのモニタ上の3次元空間における所定の位置を入力部で指定した場合、センサ部20は、そのときの入力部の3次元座標値(x、y、z)を検出する。
受付部30は、センサ部20で検出された3次元座標値(x、y、z)の入力を受け付ける(つまりはユーザーからの入力を受け付ける)。指定部40は、ユーザーからの入力に応じて、取得部10で取得された3次元画像内の3次元座標値を指定する。本実施形態では、指定部40は、受付部30で受け付けた3次元座標値(x、y、z)を、取得部10で取得されたボリュームデータ内の座標系に変換し、その変換後の3次元座標値(x2、y2、z2)を指定する。
第1設定部50は、指定部40で指定された3次元座標値を含む領域を示す指示領域を設定する。一例として、指定部40で指定された3次元座標値が(x2、y2、z2)であった場合、第1設定部50は、その指定された3次元座標値(x2、y2、z2)を中心とした(x2−α、y2+α、z2+α)、(x2+α、y2+α、z2+α)、(x2+α、y2−α、z2+α)、(x2−α、y2−α、z2+α)の4点を頂点とする矩形の領域を指示領域として設定することができる。図6は、ボリュームデータの概念図であり、この例では、図6に示す矩形の領域202が、指示領域として設定される。なお、これに限らず、指示領域の設定方法は任意である。
第2設定部60は、3次元画像を観察した場合に、指示領域を覆い隠している領域を示す遮蔽領域を設定する。一例として、図6に示す矩形の領域202が指示領域として設定された場合、第2設定部60は、領域202を底面とする四角柱状の領域203を遮蔽領域として設定することもできる。Z方向の座標値が0〜mzの範囲である場合、0に近いほどユーザー側に近い位置となり、mzに近いほど(0から離れるほど)ユーザー側から離れた位置となる。図6の例を図3の例に置き換えてみると、図3に示す斜線部分の領域が遮蔽領域203に相当する。なお、これに限らず、遮蔽領域の設定方法は任意である。
処理部70は、第2設定部60で設定された遮蔽領域の表示が、他の領域(当該遮蔽領域以外の領域)の表示に比べて透明に近くなる画像処理を、取得部10で取得された3次元画像(ボリュームデータ)に対して行う。一例として、処理部70は、第2設定部60で設定された遮蔽領域の表示が、他の領域の表示に比べて透明に近くなるように、取得部10で取得されたボリュームデータの各画素の透過度を設定する。この例では、各画素の透過度が「1」に近いほど当該画素の表示は透明に近づき、各画素の透過度が「0」に近いほど当該画素の表示は不透明に近づくので、処理部70は、第2設定部60で設定された遮蔽領域内の各画素の透過度を「1」に設定する一方、他の領域内の各画素の透過度を「0」に設定する。なお、遮蔽領域内の各画素の透過度は必ずしも「1」に設定される必要は無く、当該遮蔽領域が、当該遮蔽領域以外の領域に比べて透明に近くなる範囲内の値であればよい。
また、本実施形態では、処理部70は、前述の画像処理を施したボリュームデータに対して、所定の視差角ずつ視点位置(観察位置)を移動させてボリュームレンダリング処理を行うことで、複数の視差画像を生成する。処理部70で生成された複数の視差画像は表示装置200へ送られる。そして、表示装置200は、処理部70からの複数の視差画像により立体表示を行う。本実施形態の表示装置200は、観察者(ユーザー)が複数の視差画像を立体視可能な立体表示モニタを含んで構成される。立体表示モニタの種類は任意であり、例えばレンチキュラーレンズ等の光線制御素子を用いることで、複数の視差画像を多方向に出射させる立体表示モニタを採用することもできる。このような立体表示モニタでは、各視差画像の各画素の光を多方向に出射することにより、観察者の右目および左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。そして、各視点において、観察者は裸眼にて視差画像を立体的に視認できる。また、立体表示モニタの他の例として、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像)を立体視可能な立体表示モニタを用いることもできる。
前述したように、処理部70は、第2設定部60で設定された遮蔽領域の表示が、他の領域の表示に比べて透明に近づくように、ボリュームデータの各画素の透過度を設定するので、表示装置200により立体表示される画像においては指示領域が露出して表示される(言い換えれば遮蔽領域が表示されない)。図8は、このときの表示例を示す図であり、遮蔽領域内の血管画像がくり抜かれて指示領域が露出するように表示されている。
なお、本実施形態では、処理部70がボリュームレンダリング処理を行って複数の視差画像を生成しているが、これに限らず、例えば表示装置200がボリュームレンダリング処理を行って複数の視差画像を生成することもできる。この場合、処理部70は、前述の画像処理を施したボリュームデータを表示装置200へ送る。そして、表示装置200は、処理部70から渡されたボリュームデータに対してボリュームレンダリング処理を行って複数の視差画像を生成して立体表示を行う。要するに、表示装置200は、処理部70による画像処理の結果を用いて、3次元画像を立体表示するものであればよい。
次に、本実施形態の画像表示装置1の動作例を説明する。図7は、本実施形態の画像表示装置1の動作例を示すフローチャートである。図7に示すように、まず取得部10は、ボリュームデータを取得する(ステップS1)。処理部70は、ステップS1で取得されたボリュームデータに対してボリュームレンダリング処理を行い(ステップS2)、複数の視差画像を生成する。処理部70は、生成した複数の視差画像を表示装置200へ渡す。表示装置200は、処理部70から渡された複数の視差画像の各々を多方向に出射することで視差画像の立体表示を行う(ステップS3)。
受付部30で3次元座標値の入力を受け付けた場合(ステップS4の結果:YES)、指定部40は、その受け付けた3次元座標値に応じて、取得部10で取得されたボリュームデータ内の3次元座標値を指定する(ステップS5)。前述したように、本実施形態では、指定部40は、受付部30で受け付けた3次元座標値を、ボリュームデータ内の座標系に変換し、その変換後の値を指定する。次に、第1設定部50は、ステップS5で指定された3次元座標値を含む領域を示す指示領域を設定する(ステップS6)。第2設定部60は、ボリュームデータを観察した場合に、ステップS5で設定された指示領域を覆い隠している領域を示す遮蔽領域を設定する(ステップS7)。処理部70は、ステップS7で設定された遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理をボリュームデータに対して行う(ステップS8)。処理部70は、ステップS8で画像処理を施した後のボリュームデータに対してボリュームレンダリング処理を行い、複数の視差画像を生成する(ステップS9)。処理部70は、生成した複数の視差画像を表示装置200へ渡し、表示装置200は、処理部70から渡された複数の視差画像を多方向に出射することで視差画像の立体表示を行う(ステップS10)。その後、処理は上述のステップS4に戻され、ステップS4〜ステップS10が繰り返し実行される。
以上に説明したように、本実施形態では、処理部70は、指示領域を覆い隠している遮蔽領域の表示が他の領域の表示に比べて透明に近くなる画像処理をボリュームデータに対して行うので、画像処理後のボリュームデータに対してボリュームレンダリング処理を行うことで得られた複数の視差画像を立体表示する場合、指示領域が露出するように表示される。すなわち、本実施形態によれば、ボリュームデータの全体像と、一部の内部構造(指示領域)とを同時に表示できる。また、本実施形態では、ユーザーは、立体表示された画像を見ながら、モニタ上の3次元空間内の所定の位置を入力部で指定することで、観察したい領域(指示領域)を露出させることができるので、ユーザーは、観測したい領域を指定する操作を直感的かつ効率的に行うことができる。
以上、本発明の実施形態を説明したが、上述の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。以下に変形例を記載する。なお、以下に記載する変形例のうちの2以上を任意に組み合わせることもできる。
(1)変形例1
第1設定部50による指示領域の設定方法は任意である。例えば指定部40により指定された3次元座標値(x2、y2、z2)を中心としてX−Y平面上に描かれる半径rの円内の領域を指示領域として設定することもできる。また、例えば指定部40により指定された3次元座標値(x2、y2、z2)を矩形の頂点の一つとすることもできる。さらに、X−Y平面以外の平面(例えばX−Z平面やY−Z平面など)における領域を指示領域として設定することもできる。例えば(x2−α、y2+α、z2+α)、(x2+α、y2+α、z2+α)、(x2+α、y2−α、z2−β)、(x2−α、y2−α、z2−β)の4点を頂点とする矩形の領域を指示領域として設定することもできる。
また、ボリュームデータを構成する複数のスライス画像の各々は、表示されるオブジェクトごとに複数の領域に区分され、指定部40により指定された3次元座標値を含むオブジェクト(特定オブジェクトと呼ぶ)が属する領域が、指示領域として設定されてもよい。この場合、ひとつのスライス画像において特定オブジェクトが属する領域を指示領域として設定することもできるし、複数のスライス画像の各々において特定オブジェクトが属する領域の集合を指示領域として設定することもできる。
(2)変形例2
第2設定部60による遮蔽領域の設定方法は任意であり、例えば図9や図10のような形状の領域が遮蔽領域として設定されてもよい。また、例えば遮蔽領域は、前述の入力部の角度に応じて可変に設定されてもよい。より具体的には、例えば図11に示すように、遮蔽領域は、入力部(ここでは音波を放射するペン)の延在方向に沿った形状の領域に設定されてもよい。
(3)変形例3
例えば処理部70は、第2設定部60で設定された遮蔽領域内の各画素の画素値を、当該画素が非表示となる値に設定することもできる。この構成であっても、ボリュームデータのうちの遮蔽領域は表示されないので、指示領域が露出するように表示させることができる。要するに、処理部70は、第2設定部60で設定された遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理をボリュームデータに対して行うものであればよい。
(4)変形例4
例えば処理部70は、各スライス画像に表示されるオブジェクトのうち遮蔽領域に含まれる部分の表示が、他の領域の表示に比べて透明に近くなる画像処理をボリュームデータに対して行うことができる。上述の実施形態と同様に、処理部70は、各スライス画像に表示されるオブジェクトのうち遮蔽領域に含まれる部分の表示が、他の領域の表示に比べて透明に近くなるように、ボリュームデータの各画素の透過度を設定することもできるし、各スライス画像に表示されるオブジェクトのうち遮蔽領域に含まれる部分における各画素の画素値を、当該画素が非表示となる値に設定することもできる。さらに、処理部70は、各スライス画像に表示されるオブジェクトのうち遮蔽領域に含まれる部分の輪郭以外の部分が、他の領域に比べて透明に近くなる画像処理を行うこともできる。
また、各スライス画像に複数種類のオブジェクトが表示される場合は、処理部70は、全てのオブジェクトについて、遮蔽領域に含まれる部分の表示が透明に近くなる画像処理を行うこともできるし、ユーザーによって指定されたオブジェクトについて、遮蔽領域に含まれる部分の表示が透明に近くなる画像処理を行うこともできる。例えば医用のボリュームデータを構成する複数のスライス画像の各々に表示される各種のオブジェクト(骨、臓器、血管、腫瘍等のオブジェクト)のうち血管のオブジェクトがユーザーによって指定された場合、処理部70は、血管のオブジェクトのうち遮蔽領域に含まれる部分の表示が、他の領域の表示に比べて透明に近くなる画像処理を行うこともできる。上述の実施形態と同様に、処理部70は、血管のオブジェクトのうち遮蔽領域に含まれる部分の表示が、他の領域の表示に比べて透明に近くなるように、ボリュームデータの各画素の透過度を設定することもできるし、血管のオブジェクトのうち遮蔽領域に含まれる部分における各画素の画素値を、当該画素が非表示となる値に設定することもできる。さらに、処理部70は、血管のオブジェクトのうち遮蔽領域に含まれる部分の輪郭以外の部分の表示が、他の領域の表示に比べて透明に近くなる(例えば輪郭のみが表示される)画像処理を行うこともできる。また、ユーザーによって指定されるオブジェクトの種類や数も任意である。
(5)変形例5
上述の実施形態では、ユーザーは、ペンなどの入力部を操作することによりモニタ上の3次元空間内の3次元座標値を入力しているが、これに限らず、当該3次元座標値の入力方法は任意である。例えばユーザーが、キーボードを操作することで、モニタ上の3次元空間内の3次元座標値を直接入力することもできる。また、ユーザーが、マウス操作により、モニタの画面上における2次元座標値(x、y)を指定し、マウスホイールの値やクリックを継続している時間に応じて、Z方向における座標値zが入力される構成であってもよい。また、ユーザーが、タッチ操作により、モニタの画面上における2次元座標値(x、y)を指定し、タッチを継続している時間に応じてZ方向における座標値zが入力されてもよいし、ユーザーがモニタの画面上にタッチすると、ユーザーの操作に応じてスライド量が変化するスライドバーが表示され、そのスライド量に応じてZ方向における座標値zが入力されてもよい。
上述の各実施形態および各変形例の画像処理装置は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した各部の機能は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、各部の機能のうちの少なくとも一部を個別の回路(ハードウェア)で実現することもできる。
また、上述の各実施形態および各変形例の画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の各実施形態および各変形例の画像処理装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の各実施形態および各変形例の画像処理装置で実行されるプログラムを、ROM等に予め組み込んで提供するようにしてもよい。
1 画像表示装置
10 取得部
20 センサ部
21 第1検出部
22 第2検出部
30 受付部
40 指定部
50 第1設定部
60 第2設定部
70 処理部
100 画像処理装置
200 表示装置

Claims (11)

  1. 対象物体の所定の軸方向に沿った複数の断面画像から構成されるボリュームデータであり、前記複数の断面画像の各々は、表示されるオブジェクトごとに複数の領域に区分される3次元画像を取得する取得部と、
    ユーザーの入力に用いられる入力部の実空間における3次元座標値を前記3次元画像の座標系に変換し、変換後の前記3次元座標値を指定する指定部と、
    前記指定部により指定された前記3次元座標値を含む前記オブジェクトが属する領域を示す指示領域を設定する第1設定部と、
    前記3次元画像を観察した場合に、前記指示領域を覆い隠している領域を示す遮蔽領域を設定する第2設定部と、
    前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を前記3次元画像に対して行う処理部と、を備える、
    画像処理装置。
  2. 前記処理部は、前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなるように、前記3次元画像の各画素の透過度を設定する、
    請求項1の画像処理装置。
  3. 前記処理部は、前記遮蔽領域内の各画素の画素値を、当該画素が非表示となる値に設定する、
    請求項1の画像処理装置。
  4. 記処理部は、各前記断面画像に表示されるオブジェクトのうち前記遮蔽領域に含まれる部分の表示は、他の領域の表示に比べて透明に近くなる画像処理を行う、
    請求項1の画像処理装置。
  5. 前記処理部は、前記オブジェクトのうち前記遮蔽領域に含まれる部分の輪郭以外の領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を行う、
    請求項の画像処理装置。
  6. 前記第2設定部は、前記遮蔽領域を、前記ユーザーの入力に用いられる入力部の角度に応じて可変に設定する、
    請求項1の画像処理装置。
  7. 前記入力部の実空間における3次元座標値を検出するセンサ部をさらに備える、
    請求項1の画像処理装置。
  8. 前記センサ部は、立体画像が表示されるモニタ上の3次元空間内における前記入力部の3次元座標値を検出する、
    請求項の画像処理装置。
  9. 対象物体の所定の軸方向に沿った複数の断面画像から構成されるボリュームデータであり、前記複数の断面画像の各々は、表示されるオブジェクトごとに複数の領域に区分される3次元画像を取得する取得部と、
    ユーザーの入力に用いられる入力部の実空間における3次元座標値を前記3次元画像の座標系に変換し、変換後の3次元座標値を指定する指定部と、
    前記指定部により指定された前記3次元座標値を含む前記オブジェクトが属する領域を示す指示領域を設定する第1設定部と、
    前記3次元画像を観察した場合に、前記指示領域を覆い隠している領域を示す遮蔽領域を設定する第2設定部と、
    前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を前記3次元画像に対して行う処理部と、
    前記画像処理の結果を用いて、前記3次元画像を立体表示する表示装置と、を備える、
    画像表示装置。
  10. コンピュータが、対象物体の所定の軸方向に沿った複数の断面画像から構成されるボリュームデータであり、前記複数の断面画像の各々は、表示されるオブジェクトごとに複数の領域に区分される3次元画像を取得し、
    コンピュータが、ユーザーの入力に用いられる入力部の実空間における3次元座標値を、前記3次元画像の座標系に変換し、変換後の3次元座標値を指定し、
    コンピュータが、指定された前記3次元座標値を含む前記オブジェクトが属する領域を示す指示領域を設定し、
    コンピュータが、前記3次元画像を観察した場合に、前記指示領域を覆い隠している領域を示す遮蔽領域を設定し、
    コンピュータが、前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を前記3次元画像に対して行う、
    画像処理方法。
  11. コンピュータを、
    対象物体の所定の軸方向に沿った複数の断面画像から構成されるボリュームデータであり、前記複数の断面画像の各々は、表示されるオブジェクトごとに複数の領域に区分される3次元画像を取得する取得手段と、
    ユーザーの入力に用いられる入力部の実空間における3次元座標値を前記3次元画像の座標系に変換し、変換後の3次元座標値を指定する指定手段と、
    前記指定手段により指定された前記3次元座標値を含む前記オブジェクトが属する領域を示す指示領域を設定する第1設定手段と、
    前記3次元画像を観察した場合に、前記指示領域を覆い隠している領域を示す遮蔽領域を設定する第2設定手段と、
    前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を前記3次元画像に対して行う処理手段として機能させるためのプログラム。
JP2012537250A 2011-08-05 2011-08-05 画像処理装置、画像表示装置、画像処理方法およびプログラム Active JP5414906B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/067988 WO2013021440A1 (ja) 2011-08-05 2011-08-05 画像処理装置、画像表示装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP5414906B2 true JP5414906B2 (ja) 2014-02-12
JPWO2013021440A1 JPWO2013021440A1 (ja) 2015-03-05

Family

ID=47667993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012537250A Active JP5414906B2 (ja) 2011-08-05 2011-08-05 画像処理装置、画像表示装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20140047378A1 (ja)
JP (1) JP5414906B2 (ja)
WO (1) WO2013021440A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190136042A (ko) * 2017-12-14 2019-12-09 캐논 가부시끼가이샤 3차원 모델의 생성 장치, 생성 방법, 및 프로그램

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6266229B2 (ja) * 2013-05-14 2018-01-24 東芝メディカルシステムズ株式会社 画像処理装置、方法、及びプログラム
CN104282029B (zh) * 2013-07-11 2018-10-19 北京中盈安信技术服务股份有限公司 一种三维模型影像处理方法和电子终端
JP2015022442A (ja) * 2013-07-17 2015-02-02 株式会社東芝 電子機器、電子機器の制御方法、電子機器の制御プログラム
CN106204711B (zh) * 2016-06-29 2020-12-18 深圳开立生物医疗科技股份有限公司 一种三维容积图像处理方法和***
US11550012B2 (en) * 2018-06-11 2023-01-10 Canon Medical Systems Corporation Magnetic resonance imaging apparatus and imaging processing method for determining a region to which processing is to be performed
US11281351B2 (en) * 2019-11-15 2022-03-22 Adobe Inc. Selecting objects within a three-dimensional point cloud environment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002355441A (ja) * 2002-03-06 2002-12-10 Konami Co Ltd ゲーム装置及びゲームプログラム
JP2003091735A (ja) * 2001-09-19 2003-03-28 Toshiba Medical System Co Ltd 画像処理装置
JP2003241641A (ja) * 2002-02-18 2003-08-29 Inst Of Physical & Chemical Res シミュレーション方法
JP2006334259A (ja) * 2005-06-06 2006-12-14 Toshiba Corp 三次元画像処理装置および三次元画像表示方法
JP2008029703A (ja) * 2006-07-31 2008-02-14 Toshiba Corp 三次元画像表示装置
JP2010092507A (ja) * 2002-09-06 2010-04-22 Sony Computer Entertainment Inc 画像処理方法、画像処理装置、および画像処理システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100358021B1 (ko) * 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
JPH07262412A (ja) * 1994-03-16 1995-10-13 Fujitsu Ltd 三次元モデル断面指示装置および指示方式
US6694163B1 (en) * 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
EP1935344B1 (en) * 2005-10-07 2013-03-13 Hitachi Medical Corporation Image displaying method and medical image diagnostic system
US20090167702A1 (en) * 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
EP2312534A3 (en) * 2009-10-15 2011-07-06 Hitachi Aloka Medical, Ltd. Ultrasonic volume data processing device
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091735A (ja) * 2001-09-19 2003-03-28 Toshiba Medical System Co Ltd 画像処理装置
JP2003241641A (ja) * 2002-02-18 2003-08-29 Inst Of Physical & Chemical Res シミュレーション方法
JP2002355441A (ja) * 2002-03-06 2002-12-10 Konami Co Ltd ゲーム装置及びゲームプログラム
JP2010092507A (ja) * 2002-09-06 2010-04-22 Sony Computer Entertainment Inc 画像処理方法、画像処理装置、および画像処理システム
JP2006334259A (ja) * 2005-06-06 2006-12-14 Toshiba Corp 三次元画像処理装置および三次元画像表示方法
JP2008029703A (ja) * 2006-07-31 2008-02-14 Toshiba Corp 三次元画像表示装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190136042A (ko) * 2017-12-14 2019-12-09 캐논 가부시끼가이샤 3차원 모델의 생성 장치, 생성 방법, 및 프로그램
KR102178239B1 (ko) * 2017-12-14 2020-11-12 캐논 가부시끼가이샤 3차원 모델의 생성 장치, 생성 방법, 및 프로그램
KR20200129184A (ko) * 2017-12-14 2020-11-17 캐논 가부시끼가이샤 3차원 모델의 생성 장치, 생성 방법, 및 프로그램
KR102254407B1 (ko) 2017-12-14 2021-05-24 캐논 가부시끼가이샤 3차원 모델의 생성 장치, 생성 방법, 및 프로그램
US11151787B2 (en) 2017-12-14 2021-10-19 Canon Kabushiki Kaisha Generation device, generation method and storage medium for three-dimensional model from object images and structure images

Also Published As

Publication number Publication date
JPWO2013021440A1 (ja) 2015-03-05
US20140047378A1 (en) 2014-02-13
WO2013021440A1 (ja) 2013-02-14

Similar Documents

Publication Publication Date Title
US11103200B2 (en) Medical device approaches
JP5414906B2 (ja) 画像処理装置、画像表示装置、画像処理方法およびプログラム
EP2486548B1 (en) Interactive selection of a volume of interest in an image
JP5808146B2 (ja) 画像処理システム、装置及び方法
JP4588736B2 (ja) 画像処理方法および装置並びにプログラム
JP2011212301A (ja) 投影画像生成装置および方法、並びにプログラム
JP6051158B2 (ja) 切削シミュレーション装置および切削シミュレーションプログラム
JP5631453B2 (ja) 画像処理装置、画像処理方法
US9746989B2 (en) Three-dimensional image processing apparatus
JP2010233961A (ja) 画像処理装置、画像処理方法
US20130009957A1 (en) Image processing system, image processing device, image processing method, and medical image diagnostic device
JP6058286B2 (ja) 医用画像診断装置、医用画像処理装置及び方法
JP6245840B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
CN105723423B (zh) 体积图像数据可视化
JP2015515296A (ja) 対象物の画像情報の提供
US20180020992A1 (en) Systems and methods for medical visualization
JP5802767B2 (ja) 画像処理装置、立体画像表示装置、および、画像処理方法
US9585569B2 (en) Virtual endoscopic projection image generating device, method and program
JP5974238B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP2008067915A (ja) 医用画像表示装置
JP5065740B2 (ja) 画像処理方法および装置並びにプログラム
EP3423968A1 (en) Medical image navigation system
JP6104982B2 (ja) 画像処理装置、画像処理方法及び医用画像診断装置
US20230298163A1 (en) Method for displaying a 3d model of a patient
Kase et al. Representation by Extended Reality in X-Ray Three-Dimensional Imaging

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131112

R151 Written notification of patent or utility model registration

Ref document number: 5414906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350