JP6245840B2 - 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 - Google Patents

画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 Download PDF

Info

Publication number
JP6245840B2
JP6245840B2 JP2013102298A JP2013102298A JP6245840B2 JP 6245840 B2 JP6245840 B2 JP 6245840B2 JP 2013102298 A JP2013102298 A JP 2013102298A JP 2013102298 A JP2013102298 A JP 2013102298A JP 6245840 B2 JP6245840 B2 JP 6245840B2
Authority
JP
Japan
Prior art keywords
dimensional
pointer
area
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013102298A
Other languages
English (en)
Other versions
JP2014222459A (ja
Inventor
智行 武口
智行 武口
央 小暮
央 小暮
玲子 野田
玲子 野田
太一郎 塩寺
太一郎 塩寺
快行 爰島
快行 爰島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to JP2013102298A priority Critical patent/JP6245840B2/ja
Priority to US14/191,755 priority patent/US9760263B2/en
Publication of JP2014222459A publication Critical patent/JP2014222459A/ja
Application granted granted Critical
Publication of JP6245840B2 publication Critical patent/JP6245840B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明の実施形態は、画像処理装置、方法、及びプログラム、並びに、立体画像表示装置に関する。
従来、矢印などの形状で表されるポインタを、3D画像(立体画像)に重畳して表示することで、3D画像中の任意の位置をポインタで指示する技術が知られている。例えば特許文献1には、左右の視差画像のそれぞれにおけるポインタ表示位置を、立体表示のための仮想空間上の奥行き方向の位置の視差に応じてシフトする技術が開示されている。
特開2012−173865号公報
しかしながら、従来技術では、オブジェクト(観察対象物)とポインタとの相対的な位置関係による見え方を正確に呈示できないため、観察者がポインティング位置を正確に把握することは困難であるという問題がある。本発明が解決しようとする課題は、観察者がポインティング位置を正確に把握可能な画像処理装置、方法、及びプログラム、並びに、立体画像表示装置を提供することである。
実施形態の画像処理装置は、被検体の対象物を含んだ3次元医用画像データから立体画像を生成する画像処理装置であって、受付部と、決定部と、生成部と、変更部とを備える。受付部は、前記3次元医用画像データの座標系における3次元位置の入力を受け付ける。決定部は、第1領域と、前記第1領域を中心にして配置される第2領域とを含み、前記対象物の何れかの位置を指し示すための3次元ポインタについて、前記第1領域が前記3次元位置に位置するよう、前記3次元ポインタの配置を決定する。生成部は、前記3次元ポインタと、前記3次元医用画像データとを共にレンダリングして、前記立体画像を生成する。変更部は、前記受付部で受け付けた前記3次元位置に対応する前記対象物の一部のボクセル値が示す色とは異なる色に、前記3次元ポインタの色を変更する。
実施形態の立体画像表示装置の概略図。 実施形態の表示部の正面図。 実施形態の表示部の側面図。 実施形態の表示部の構成例を示す図。 実施形態の表示部を観察者が観察した状態を示す模式図。 実施形態の画像処理部の機能構成例を示す図。 実施形態のボリュームデータを説明するための模式図。 実施形態の3次元ポインタの一例を示す図。 変形例の3次元ポインタの一例を示す図。 実施形態の立体画像の表示例を示す図。 実施形態に係る画像処理部の動作例を示すフローチャート。 対比例のレンダリングにより得られた画像の一例を示す図。 実施形態のレンダリングにより得られた画像の一例を示す図。 変形例の3次元ポインタの一例を示す図。 変形例の3次元ポインタの一例を示す図。 変形例の立体画像の表示例を示す図。
以下、添付図面を参照しながら、本発明に係る画像処理装置、方法、及びプログラム、並びに、立体画像表示装置の実施形態を詳細に説明する。
本実施形態の立体画像表示装置は、例えば、インテグラル・イメージング方式(II方式)や多眼方式等の3Dディスプレイ方式を採用したものであってよい。立体画像表示装置の例としては、例えば観察者が裸眼で立体画像を観察可能なTV、PC、スマートフォン、デジタルフォトフレームなどが挙げられる。立体画像とは、互いに視差を有する複数の視差画像を含む画像である。視差とは、異なる方向から見ることによる見え方の差をいう。なお、実施形態で述べる画像とは、静止画像又は動画像のいずれであってもよい。
図1は、本実施形態の立体画像表示装置1の概略構成例を示すブロック図である。立体画像表示装置1は、センサ部10と、立体画像を生成する画像処理部20と、立体画像を表示する表示部30とを備える。
センサ部10は、表示部30のうち立体画像が表示される画面の手前側の実空間における指示物体(例えば指やペン)の位置(3次元座標値)を検出し、検出した3次元座標値を画像処理部20へ供給する。図2は、表示部30の正面図であり、図3は、表示部30の側面図である。図2および図3に示すように、センサ部10は、第1検出部11と第2検出部12とを含む。また、本実施形態では、実空間上の位置を指し示すための指示物体として、先端部分から音波および赤外線を出射するペンを採用しているが、これに限られるものではない。
第1検出部11は、図2に示す実空間のX−Y平面におけるペンの位置を検出する。より具体的には、第1検出部11は、ペンから出射された音波および赤外線を検出し、音波が第1検出部11に到達するまでの時間と、赤外線が第1検出部11に到達するまでの時間との時間差に基づいて、ペンのX軸方向の座標値およびY軸方向の座標値を算出する。また、第2検出部12は、図3に示す実空間のZ軸方向におけるペンの位置を検出する。第1検出部11と同様に、第2検出部12は、ペンから出射された音波および赤外線を検出し、音波が第2検出部12に到達するまでの時間と、赤外線が第2検出部12に到達するまでの時間との時間差に基づいて、ペンのZ軸方向の座標値を算出する。
なお、これに限らず、例えばペンは、先端部分から音波のみまたは赤外線のみを出射する構成であってもよい。この場合、第1検出部11は、ペンから出射された音波(または赤外線)を検出し、音波(または赤外線)が第1検出部11に到達するまでの時間に基づいて、ペンのX方向の座標値およびY方向の座標値を算出することができる。同様に、第2検出部12は、ペンから出射された音波(または赤外線)を検出し、音波(または赤外線)が第2検出部12に到達するまでの時間に基づいて、ペンのZ軸方向の座標値を算出することができる。
なお、センサ部10の構成は上述した内容に限定されるものではない。要するに、センサ部10は、実空間における指示物体の位置を検出できるものであればよい。また、指示物体の種類もペンに限らず任意である。例えば指示物体は、観察者の指であってもよいし、メスやハサミなどであってもよい。
次に、表示部30の構成について説明する。図4は、表示部30の構成例を示す図である。図4に示すように、表示部30は、表示素子31と開口制御部32とを含む。観察者は、開口制御部32を介して表示素子31を観察することで、表示部30に表示される立体画像を観察する。
表示素子31は、立体画像の表示に用いる視差画像を表示する。表示素子31としては、直視型2次元ディスプレイ、例えば、有機EL(Organic Electro Luminescence)やLCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、投射型ディスプレイなどが挙げられる。表示素子31は、例えば、RGB各色のサブピクセルを、第1方向(例えば図4における行方向)と第2方向(例えば図4における列方向)とに、マトリクス状に配置した公知の構成であってよい。図4の例では、第1方向に並ぶRGB各色のサブピクセルが1画素を構成し、隣接する画素を視差の数だけ、第1方向に並べた画素群に表示される画像を要素画像34と称する。なお、表示素子31のサブピクセルの配列は、他の公知の配列であっても構わない。また、サブピクセルは、RGBの3色に限定されない。例えば、4色であっても構わない。
開口制御部32は、表示素子31からその前方に向けて発散される光線を、開口部を介して所定方向に向けて出射させる(以下ではこのような機能を有する開口部を光学的開口部と呼ぶ)。開口制御部32としては、例えばレンチキュラレンズ、パララックスバリア、液晶GRINレンズ等が挙げられる。光学的開口部は、表示素子31の各要素画像に対応するように配置される。
図5は、観察者が表示部30を観察した状態を示す模式図である。表示素子31に複数の要素画像34を表示すると、表示素子31には、複数の視差方向に対応した視差画像群(多視差画像)が表示される。この多視差画像による光線は、各光学的開口部を透過する。そして、観察者は、要素画像34に含まれる異なる画素を、左目36Aおよび右目36Bでそれぞれ観察することになる。このように、観察者の左目36Aおよび右目36Bに対し、視差の異なる画像をそれぞれ表示させることで、観察者が立体画像を観察することができる。また、このように観察者が立体映像を観察することができる範囲を視域という。
なお、本実施形態では、開口制御部32は、光学的開口部の延伸方向が、表示素子31の第2方向(列方向)に一致するように配置されているが、これに限らず、例えば開口制御部32は、光学的開口部の延伸方向が表示素子31の第2方向(列方向)に対して、所定の傾きを有するように配置される構成(いわゆる斜めレンズ)であってもよい。
次に、画像処理部20について説明する。この例では、画像処理部20は、請求項の「画像処理装置」に対応している。図6は、画像処理部20の構成例を示す図である。図6に示すように、画像処理部20は、変換部21と、受付部22と、第1取得部23と、第2取得部24と、決定部25と、変更部26と、生成部27と、表示制御部28とを有する。
本実施形態では、画像処理部20のハードウェア構成は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを備えた通常のコンピュータ装置を利用したハードウェア構成となっている。画像処理部20の各部(変換部21、受付部22、第1取得部23、第2取得部24、決定部25、変更部26、生成部27、表示制御部28)の機能は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、画像処理部20の各部の機能のうちの少なくとも一部を専用のハードウェア回路で実現することもできる。以下、画像処理部20の各部の機能を説明する。
変換部21は、センサ部10から3次元座標値(指示物体が指し示す実空間上の3次元座標値)を取得するたびに、その取得した3次元座標値を、後述のボリュームレンダリングにより生成される立体画像の元となる3次元データの座標系における3次元座標値に変換し、変換後の3次元座標値を受付部22へ入力する。
ここで、3次元データとは、立体物の形状を表現可能なデータであり、空間分割モデルや境界表現モデルなどが含まれ得る。空間分割モデルとは、例えば空間を格子状に分割し、分割した格子を用いて、立体物を表現するモデルを指す。境界表現モデルとは、例えば空間において立体物の占める領域の境界を表現することで、当該立体物を表現するモデルを指す。本実施形態では、3次元データはボリュームデータである場合を例に挙げて説明するが、これに限られるものではない。
受付部22は、3次元データの座標系における3次元位置の入力を受け付ける。この例では、受付部22は、変換部21からの3次元座標値の入力を受け付ける。
第1取得部23は、観察対象物(請求項の「対象物」に対応)の3次元データを取得する。例えば第1取得部23は、データベースから観察対象物の3次元データを取得することもできるし、サーバ装置にアクセスして当該サーバ装置に格納された観察対象物の3次元データを取得することもできる。本実施形態では、図7に示すように、被検者の体軸方向に沿ってX線CT装置やMRI装置などで撮影された複数のスライス画像(断面画像)の集合から構成される医用のボリュームデータを、観察対象物の3次元データとして採用する。第1取得部23は、観察対象物のボリュームデータを構成する各ボクセルの値(例えば輝度値やα値(透明度)等)を取得することもできる。また、例えばボリュームデータを構成する各スライス画像において血管・腫瘍・脳組織といった部位ごとに領域が分けられている場合は、各領域を識別する情報(例えば各領域に割り当てられたラベル番号等)を取得することもできる。
第2取得部24は、観察対象物の何れかの位置を指し示すための3次元ポインタを取得する。例えば第2取得部24は、データベースから3次元ポインタを取得することもできるし、サーバ装置にアクセスして当該サーバ装置に格納された3次元ポインタを取得することもできる。3次元ポインタは3次元データで表現され、この例では、第2取得部24は、3次元ポインタを構成する各ボクセルの値を取得することもできる。
ここで、3次元ポインタは、第1領域と、第1領域を中心にして配置される第2領域とを含む。より具体的には、第2領域は、第1領域を中心として、少なくとも異なる2方向に延びる形状を有する。本実施形態では、3次元ポインタは、複数の柱状(円柱状であってもよいし、角柱状であってもよい)の3次元データで構成される。そして、複数の柱状の3次元データのうち、複数の柱状の3次元データの各々の重心位置(中心位置)を含み、かつ、複数の柱状の3次元データが唯一交差する領域が第1領域である一方、第1領域以外の領域が第2領域である。ここでは、各柱状の3次元データの重心位置は同じ位置を示す。
図8は、本実施形態における3次元ポインタの一例を示す図である。図8に示す3次元ポインタは、図8に示すx方向(3次元データの座標系の水平方向)に延びる第1の柱状(この例では円柱状)の3次元データと、図8に示すx方向と直交するy方向(3次元データの座標系の垂直方向)に延びる第2の柱状(この例では円柱状)の3次元データとから構成される。そして、第1の柱状の3次元データと第2の柱状の3次元データのうち、両者の重心位置を含み、かつ、両者が唯一交差する領域が第1領域に相当し、第1領域以外の領域が第2領域に相当する。なお、3次元ポインタの構成は、図8の例に限られるものではない。
例えば図9(a)に示すように、3次元ポインタは、上記第1の柱状の3次元データと、上記第2の柱状の3次元データと、x方向およびy方向とそれぞれ直交するz方向(3次元データの座標系の奥行き方向)に延びる第3の柱状(この例では円柱状)の3次元データとから構成されてもよい。図9の例では、第1〜第3の柱状の3次元データのうち、それぞれの重心位置を含み、かつ、第1〜第3の柱状の3次元データが唯一交差する領域が第1領域に相当し、第1領域以外の領域が第2領域に相当する。
また、例えば図9(b)に示すように、3次元ポインタは、xy平面において互いに異なる方向に延びる3つの柱状(この例では円柱状)の3次元データで構成されてもよい。図9(b)の例では、3つの柱状の3次元データのうち、それぞれの重心位置を含み、かつ、3つの柱状の3次元データが唯一交差する領域が第1領域に相当し、第1領域以外の領域が第2領域に相当する。
図6に戻って説明を続ける。決定部25は、3次元ポインタに含まれる第1領域が、受付部22で受け付けた3次元位置に位置するよう、3次元ポインタの配置を決定する。本実施形態では、決定部25は、第2取得部24により取得された3次元ポインタに含まれる第1領域が、受付部22で受け付けた変換部21からの3次元座標値に位置するよう、3次元ポインタの配置を決定する。つまり、後述のボリュームレンダリングの対象となる3次元ポインタの位置は、実空間において観察者がペンで指し示した位置に応じて、可変に決定される。
変更部26は、受付部22で受け付けた3次元位置に対応する3次元データの情報に応じて、3次元ポインタの形状、色および透明度のうちの少なくとも1つを変更する。以下の説明では、3次元ポインタの形状、色および透明度などを示す情報を属性情報と称する場合がある。例えば変更部26は、第1取得部23で取得された各ボクセル(観察対象物のボリュームデータを構成する各ボクセル)のうち、受付部22で受け付けた変換部21からの3次元座標値に対応するボクセルの値に応じて、3次元ポインタの色を変更することもできる。より具体的には以下のとおりである。
例えば観察対象物のボリュームデータを構成する各ボクセルのうち、受付部22で受け付けた3次元座標値に対応するボクセルが、「血管」を構成するボクセル群に含まれている場合を想定する。この例において、観察対象である「血管」を指し示すための3次元ポインタの色が「血管」と同じ色の場合は、3次元ポインタがどこを指し示しているのか分かり難くなるという問題が起こる。そこで、本実施形態の変更部26は、3次元ポインタの色を、観察対象物のボリュームデータを構成する各ボクセルのうち受付部22で受け付けた3次元座標値に対応するボクセルの値が示す色とは異なる色に変更する。これにより、3次元ポインタが指し示す位置を明確に識別することができる。
なお、これに限らず、例えば観察対象物のボリュームデータを構成する各ボクセルのうち、受付部22で受け付けた3次元座標値に対応するボクセルが、「血管」、「腫瘍」、「脳組織」などのうちの何れかを構成するボクセル群に含まれている場合、変更部26は、3次元ポインタが完全に隠れてしまわないように、3次元ポインタの柱状の部分を延ばす変更を行うこともできる。
さらに、例えば観察対象物のボリュームデータを構成する各ボクセルのうち、受付部22で受け付けた3次元座標値に対応するボクセルが、手前側(観察者側)に配置されている場合、変更部26は、観察対象物のボリュームデータのうち3次元ポインタよりも奥側の領域を視認し易くするために、3次元ポインタの透明度を上げる変更を行うこともできる。
次に、図6に示す生成部27について説明する。生成部27は、3次元ポインタと、観察対象物の3次元データとを共に(一緒に)レンダリングして、立体画像を生成する。より具体的には、生成部27は、決定部25により配置が決定され、かつ、変更部26により属性情報が変更された3次元ポインタと、第1取得部23により取得された観察対象物の3次元データとを合わせた3次元データに対して、所定の視差角ずつ視点位置(カメラの位置)を移動させてボリュームレンダリング処理を行うことで、複数(3以上)の視差画像を生成する。
なお、受付部22が、3次元データの座標系における3次元座標値の入力を受け付けていない場合(つまり、観察者が、画面の手前側の実空間を指示物体で指し示す操作を行っていない場合)は、決定部25による処理(3次元ポインタの配置を決定する処理)や変更部26による処理(3次元ポインタの属性情報を変更する処理)は行われない。この場合、例えば生成部27は、第1取得部23により取得された観察対象物の3次元データのみをボリュームレンダリングして複数の視差画像を生成することもできる。
表示制御部28は、生成部27により生成された複数の視差画像を含む立体画像を表示部30に表示する制御を行う。
本実施形態では、図10に示すように、観察者が、表示部30に表示された立体画像を見ながら、画面の手前側の実空間における何れかの位置を前述のペンで指し示すと(ポインティングすると)、その指し示した位置に対応して配置される第1領域と、第1領域を中心にして配置される第2領域とから構成される3次元ポインタが立体表示される。なお、例えば、立体表示される3次元ポインタの表示位置を、実空間の座標系に一致させるキャリブレーションを行うことで、表示と操作の一体感を増強することもできる。
次に、図11を参照しながら、本実施形態に係る画像処理部20の動作例を説明する。図11は、画像処理部20の動作例を示すフローチャートである。ここでは、第1取得部23は、観察対象物の3次元データを取得済みであり、第2取得部24は、3次元ポインタを取得済みであるとする。図11に示すように、まず変換部21は、センサ部10から、実空間における3次元座標値を取得する(ステップS101)。変換部21は、センサ部10から取得した3次元座標値を、3次元データの座標系における3次元座標値に変換し(ステップS102)、変換後の3次元座標値を受付部22に入力する。受付部22は、変換部21からの3次元座標値(変換後の3次元座標値)の入力を受け付ける(ステップS103)。
決定部25は、ステップS103で受け付けた3次元座標値に応じて、第2取得部24により取得された3次元ポインタの配置を決定する(ステップS104)。前述したように、決定部25は、3次元ポインタに含まれる第1領域が、ステップS103で受け付けた3次元座標値に位置するよう、3次元ポインタの配置を決定する。また、変更部26は、ステップS103で受け付けた3次元座標値に対応する3次元データの情報(例えばボクセルの値)に応じて、第2取得部24により取得された3次元ポインタの属性情報を変更する(ステップS105)。
生成部27は、ステップS104で配置が決定され、かつ、ステップS105で属性情報が変更された3次元ポインタと、第1取得部23により取得された観察対象物の3次元データとを合わせた3次元データに対して、ボリュームレンダリング処理を行う(ステップS106)。これにより、複数の視差画像が生成される。表示制御部28は、生成された複数の視差画像を含む立体画像を表示部30に表示する制御を行う(ステップS107)。
以上に説明したように、本実施形態では、3次元データの座標系のうち、観察者が指し示した実空間の位置に対応する3次元座標値に配置される第1領域と、第1領域を中心にして配置される第2領域とを含む3次元ポインタを、観察対象物の3次元データと共にレンダリングすることで、ポインティング位置(3次元ポインタにより指し示された位置)と、その周辺構造の関係性を正確に表現することが可能になる。特に、3次元ポインタが前述の第2領域を含むことで、観察者は、腫瘍や血管などの周辺構造と3次元ポインタとの相対的な位置関係(前後関係など)の把握が容易になり、ポインティング位置を正確に把握することができる。
いま、例えば3次元ポインタが前述の第1領域のみで構成される場合を対比例として想定する。例えば対比例において、レンダリングで得られた画像が図12のような画像であった場合、ポインティング位置を把握し難いという問題がある。
これに対して、本実施形態では、3次元ポインタは、観察者が指し示す位置に対応して配置される第1領域に加えて、第1領域を中心にして配置される第2領域を含んで構成される。例えば本実施形態において、レンダリングで得られた画像が図13のような画像であった場合を想定する。図13に示すように、3次元ポインタが、前述の第1領域に加えて、第1領域を中心にして十字状に延在する柱状の3次元データで構成される第2領域を含むことで、観察者は、周辺構造の「血管」と3次元ポインタとの前後関係の把握が容易になり、ポインティング位置を正確かつ容易に把握できるという有利な効果を達成できる。
なお、前述したように、第2領域の形状は任意であり、周辺構造との表示関係で奥行知覚を補助することができる形状であればよい。
以上、本発明の実施形態を説明したが、上述の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
(変形例)
以下、変形例を記載する。以下の変形例同士は任意に組み合わせることが可能である。また、以下の変形例と上述の実施形態は、任意に組み合わせることが可能である。
・ 変形例1
例えば第2領域は、第1領域を中心にして、第1領域の外側を囲む形状を有する形態であってもよい。より具体的には、第1領域は、小球状の3次元データで構成され、第2領域は、円形または矩形の環状の3次元データで構成される形態とすることもできる。
例えば図14(a)に示すように、3次元ポインタは、小球状の3次元データで構成される第1領域と、第1領域を中心に配置される円形の環状の3次元データとを含む形態であってもよい。また、例えば図14(b)に示すように、3次元ポインタは、小球状の3次元データで構成される第1領域と、第1領域を中心に配置される矩形の環状の3次元データとを含む形態であってもよい。
要するに、第2領域は、上述の実施形態のように、第1領域を中心にして、少なくとも異なる2方向に延びる形状、または、図14のように、第1領域を中心にして、第1領域の外側を囲む形状を有する形態であればよい。
・ 変形例2
例えば図15(a)に示すように、3次元ポインタは、小球状の3次元データで構成される第1領域と、第1領域を対称の中心にしてそれぞれがy方向に延在する2つの柱状(この例では円柱状)の3次元データで構成される第2領域とを含む形態であってもよい。
また、図15(b)に示すように、3次元ポインタは、y方向に延在する柱状の3次元データの中心に対応して配置されるとともに小球状の3次元データで構成される第1領域と、柱状の3次元データのうち第1領域に対応する領域以外の領域を示す第2領域とを含む形態であってもよい。
要するに、3次元ポインタは、第1領域と、第1領域を中心にして配置される第2領域とを含む形態であればよい。
・ 変形例3
例えば3次元データは、点と、点の集合で構成される線および面で構成されるポリゴンデータであってもよい。例えば変更部26は、受付部22で受け付けた3次元座標値が、ポリゴンデータの閉領域内に含まれるかどうかを判定する内外判定を行い、受付部22で受け付けた3次元座標値が、ポリゴンデータの閉領域内に含まれると判定した場合は、3次元ポインタが完全に隠れてしまわないように、3次元ポインタの柱状の部分を延ばす変更を行うこともできる。なお、変更部26は、上述の内外判定を行わずに、内外判定の結果を外部から取得する形態であってもよい。
・ 変形例4
例えば3次元データは、2次元画像の各画素の奥行き値を表すデプスデータ(デプスマップ)であってもよい。例えば変更部26は、受付部22で受け付けた3次元座標値(x、y、z)が示す奥行き値zと、デプスマップのうち、受付部22で受け付けた3次元座標値(x、y、z)の(x、y)の位置に対応する奥行き値とを比較して、受付部22で受け付けた3次元座標値zがデプスマップよりも手前に存在する場合は、3次元ポインタの透明度を上げる変更を行うこともできる。
・ 変形例5
上述の実施形態では、観察者によるペンの操作に応じて、3次元データの座標系における3次元位置(3次元ポインタの3次元位置)が入力されるが、これに限らず、3次元データの座標系における3次元位置の入力方法は任意である。
例えば初期状態(ユーザによる操作が行われる前のデフォルトの状態)では、3次元データの座標系における3次元位置の入力値は、観察対象物の3次元データの中心(重心位置)に設定されてもよい。この場合、デフォルトの状態では、観察対象物の3次元データの中心に第1領域が配置された3次元ポインタと、観察対象物の3次元データとを共にレンダリングして得られる立体画像が表示部30に表示される。そして、観察者によるマウスの操作量(例えばマウスの移動量、ホイールの移動量など)に応じて、3次元データの座標系における3次元位置の入力値(3次元ポインタの3次元位置)が変化する形態であってもよい。
また、上述の実施形態では、3次元データの座標系は、画面の手前側の実空間の座標系と対応付けられているが、これに限らず、例えば3次元データの座標系は、観察者の手元の実空間の座標系と対応付けられる形態であってもよい。この形態では、例えば図16に示すように、観察者の手元の実空間におけるペンの位置(3次元座標値)を検出するためのセンサ41、42を有する入力デバイス40が設けられる。センサ41、42により検出されたペンの3次元座標値は画像処理部20へ渡され、3次元データの座標系における3次元座標値に変換される。そして、上述の実施形態と同様に、変換された3次元座標値に配置される第1領域と、第1領域を中心にして配置される第2領域とを含む3次元ポインタと、観察対象物の3次元データとを共にレンダリングして得られる立体画像が表示部30に表示される。
要するに、観察者による操作に応じて、3次元データの座標系における3次元位置が入力される形態であればよい。
・ 変形例6
上述の実施形態では、本発明が適用された立体画像表示装置の一例として、裸眼式の立体画像表示装置を例に挙げて説明したが、これに限らず、例えば眼鏡式の立体画像表示装置であってもよい。
・ 変形例7
例えば画像処理部20は、上述の変更部26を有していない形態とすることもできる。
(プログラム)
上述の画像処理部20で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の画像処理部20で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。さらに、上述の画像処理部20で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
1 立体画像表示装置
10 センサ部
11 第1検出部
12 第2検出部
20 画像処理部
21 変換部
22 受付部
23 第1取得部
24 第2取得部
25 決定部
26 変更部
27 生成部
28 表示制御部
30 表示部
31 表示素子
32 開口制御部

Claims (7)

  1. 被検体の対象物を含んだ3次元医用画像データから立体画像を生成する画像処理装置であって、
    前記3次元医用画像データの座標系における3次元位置の入力を受け付ける受付部と、
    第1領域と、前記第1領域を中心にして配置される第2領域とを含み、前記対象物の何れかの位置を指し示すための3次元ポインタについて、前記第1領域が前記3次元位置に位置するよう、前記3次元ポインタの配置を決定する決定部と、
    前記3次元ポインタと、前記3次元医用画像データとを共にレンダリングして、前記立体画像を生成する生成部と、
    前記受付部で受け付けた前記3次元位置に対応する前記対象物の一部のボクセル値が示す色とは異なる色に、前記3次元ポインタの色を変更する変更部と、を備える、
    画像処理装置。
  2. 前記第2領域は、前記第1領域を中心にして、少なくとも異なる2方向に延びる形状、または、前記第1領域を中心にして、前記第1領域の外側を囲む形状を有する、
    請求項1に記載の画像処理装置。
  3. 前記3次元ポインタは、複数の柱状の3次元データで構成され、
    前記複数の柱状の3次元データのうち、それぞれの重心位置を含み、かつ、前記複数の柱状の3次元データが唯一交差する領域が前記第1領域である一方、前記第1領域以外の領域が前記第2領域である、
    請求項2に記載の画像処理装置。
  4. 前記第1領域は、小球状の3次元データで構成され、
    前記第2領域は、円形または矩形の環状の3次元データで構成される、
    請求項2に記載の画像処理装置。
  5. 被検体の対象物を含んだ3次元医用画像データから立体画像を生成する画像処理方法であって、
    前記3次元医用画像データの座標系における3次元位置の入力を受け付け、
    第1領域と、前記第1領域を中心にして配置される第2領域とを含み、前記対象物の何れかの位置を指し示すための3次元ポインタについて、前記第1領域が前記3次元位置に位置するよう、前記3次元ポインタの配置を決定し、
    前記3次元ポインタと、前記3次元医用画像データとを共にレンダリングして、前記立体画像を生成し、
    受け付けた前記3次元位置に対応する前記対象物の一部のボクセル値が示す色とは異なる色に、前記3次元ポインタの色を変更する、
    画像処理方法。
  6. 被検体の対象物を含んだ3次元医用画像データから立体画像を生成する画像処理プログラムであって、
    コンピュータを、
    前記3次元医用画像データの座標系における3次元位置の入力を受け付ける受付手段と、
    第1領域と、前記第1領域を中心にして配置される第2領域とを含み、前記対象物の何れかの位置を指し示すための3次元ポインタについて、前記第1領域が前記3次元位置に位置するよう、前記3次元ポインタの配置を決定する決定手段と、
    前記3次元ポインタと、前記3次元医用画像データとを共にレンダリングして、前記立体画像を生成する生成手段と、
    前記受付手段で受け付けた前記3次元位置に対応する前記対象物の一部のボクセル値が示す色とは異なる色に、前記3次元ポインタの色を変更する変更手段として機能させる、
    画像処理プログラム。
  7. 被検体の対象物を含んだ3次元医用画像データから生成される立体画像を表示する立体画像表示装置であって、
    前記3次元医用画像データの座標系における3次元位置の入力を受け付ける受付部と、
    第1領域と、前記第1領域を中心にして配置される第2領域とを含み、前記対象物の何れかの位置を指し示すための3次元ポインタについて、前記第1領域が前記3次元位置に位置するよう、前記3次元ポインタの配置を決定する決定部と、
    前記3次元ポインタと、前記3次元医用画像データとを共にレンダリングして、前記立体画像を生成する生成部と、
    前記立体画像を表示する表示部と、
    前記受付部で受け付けた前記3次元位置に対応する前記対象物の一部のボクセル値が示す色とは異なる色に、前記3次元ポインタの色を変更する変更部と、を備える、
    立体画像表示装置。
JP2013102298A 2013-05-14 2013-05-14 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 Expired - Fee Related JP6245840B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013102298A JP6245840B2 (ja) 2013-05-14 2013-05-14 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US14/191,755 US9760263B2 (en) 2013-05-14 2014-02-27 Image processing device, image processing method, and stereoscopic image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013102298A JP6245840B2 (ja) 2013-05-14 2013-05-14 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置

Publications (2)

Publication Number Publication Date
JP2014222459A JP2014222459A (ja) 2014-11-27
JP6245840B2 true JP6245840B2 (ja) 2017-12-13

Family

ID=51895428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013102298A Expired - Fee Related JP6245840B2 (ja) 2013-05-14 2013-05-14 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置

Country Status (2)

Country Link
US (1) US9760263B2 (ja)
JP (1) JP6245840B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
JP6430149B2 (ja) * 2013-05-28 2018-11-28 キヤノンメディカルシステムズ株式会社 医用画像処理装置
JP6253380B2 (ja) 2013-12-11 2017-12-27 キヤノン株式会社 画像処理方法、画像処理装置および撮像装置
JP2016104550A (ja) 2014-12-01 2016-06-09 株式会社リコー 情報処理装置、情報処理方法、情報処理プログラム、および三次元造形物

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0762793B2 (ja) * 1986-02-17 1995-07-05 三菱電機株式会社 三次元カ−ソル表示装置
JPH05250458A (ja) * 1992-03-05 1993-09-28 Nec Corp 三次元図形選択入力方式
JPH05324793A (ja) * 1992-05-18 1993-12-07 Nec Corp 図形処理システムにおけるカーソル表示方式
US6297799B1 (en) * 1998-11-12 2001-10-02 James Knittel Three-dimensional cursor for a real-time volume rendering system
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP4343637B2 (ja) * 2003-09-30 2009-10-14 キヤノン株式会社 操作指示方法および装置
JP4786486B2 (ja) * 2006-09-19 2011-10-05 キヤノンソフトウェア株式会社 情報処理装置および情報処理装置の制御方法およびプログラム
CN101517526B (zh) * 2006-09-29 2012-06-06 皇家飞利浦电子股份有限公司 具有3d连通阴影的鼠标指针
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
KR20120009564A (ko) * 2010-07-19 2012-02-02 삼성전자주식회사 3차원 마우스 포인터 생성방법 및 생성장치
KR101708696B1 (ko) * 2010-09-15 2017-02-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2012105048A (ja) * 2010-11-10 2012-05-31 Fujifilm Corp 立体視画像表示装置および方法並びにプログラム
JP2012173865A (ja) 2011-02-18 2012-09-10 Sony Corp 3dポインタ生成装置及び3dポインタ生成方法

Also Published As

Publication number Publication date
US20140340400A1 (en) 2014-11-20
US9760263B2 (en) 2017-09-12
JP2014222459A (ja) 2014-11-27

Similar Documents

Publication Publication Date Title
JP6245840B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP6058290B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP5306422B2 (ja) 画像表示システム、装置、方法及び医用画像診断装置
US9746989B2 (en) Three-dimensional image processing apparatus
JP2013005052A (ja) 画像処理システム、装置、方法及びプログラム
JP5871705B2 (ja) 画像表示装置、方法及びプログラム
JP2013017577A (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP2015119203A (ja) 画像処理装置、立体画像表示装置および画像処理方法
JP5802767B2 (ja) 画像処理装置、立体画像表示装置、および、画像処理方法
JP5414906B2 (ja) 画像処理装置、画像表示装置、画像処理方法およびプログラム
JP5752638B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP2015050482A (ja) 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
JP5670945B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP2013123227A (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP2014236340A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US9020219B2 (en) Medical image processing apparatus
JP2014241015A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP6266229B2 (ja) 画像処理装置、方法、及びプログラム
JP5832990B2 (ja) 画像表示システム
JP2014216719A (ja) 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
JP2016016072A (ja) 画像処理装置及び立体画像表示装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R150 Certificate of patent or registration of utility model

Ref document number: 6245840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees