JP5752638B2 - 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 - Google Patents

画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 Download PDF

Info

Publication number
JP5752638B2
JP5752638B2 JP2012101820A JP2012101820A JP5752638B2 JP 5752638 B2 JP5752638 B2 JP 5752638B2 JP 2012101820 A JP2012101820 A JP 2012101820A JP 2012101820 A JP2012101820 A JP 2012101820A JP 5752638 B2 JP5752638 B2 JP 5752638B2
Authority
JP
Japan
Prior art keywords
sub
pixel
image
dimensional data
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012101820A
Other languages
English (en)
Other versions
JP2013229828A (ja
Inventor
徳裕 中村
徳裕 中村
快行 爰島
快行 爰島
三田 雄志
雄志 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012101820A priority Critical patent/JP5752638B2/ja
Priority to US13/727,025 priority patent/US9202305B2/en
Publication of JP2013229828A publication Critical patent/JP2013229828A/ja
Application granted granted Critical
Publication of JP5752638B2 publication Critical patent/JP5752638B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)

Description

本発明の実施形態は、画像処理装置、方法、及びプログラム、並びに、立体画像表示装置に関する。
近年、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置などの医用画像診断装置の分野では、3次元の医用画像のボリュームデータを生成可能な装置が実用化されている。また、ボリュームデータを任意の視点からレンダリングする技術が実用化されており、近年、ボリュームデータを立体画像表示装置で立体的に表示することが検討されている。
立体画像表示装置では、視聴者は特殊なメガネを使用せずに裸眼で立体画像を観察することができる。このような立体画像表示装置は、視点の異なる複数の画像(以下ではそれぞれの画像を視差画像と呼ぶ)を表示し、これらの視差画像の光線を、例えばパララックスバリア、レンチキュラレンズなどの光線制御素子によって制御する。この際、表示する画像は、光線制御素子を通して覗いた場合に、意図した方向で意図した画像が観察されるように並び替えられたものである必要がある。この並べ替え方法を、以下ではピクセルマッピングと呼び、従来、様々なピクセルマッピング方法が知られている。以上のように、光線制御素子とそれに合わせたピクセルマッピングによって制御された光線は、観察者の両眼に導かれ、観察者の観察位置が適切であれば、観察者は立体像を認識できる。このように観察者が立体像を観察可能な領域を視域という。
米国特許第6064424号明細書
Image Preparation for 3D-LCD
ここで、視差画像を生成する際の視点数は予め決められており、一般に表示パネルの全ての画素(ピクセル)の輝度情報を決定するのに十分ではない。そのため、予め決められた各視点に対応する視差画像が割り当てられないピクセル(視差画像から輝度情報が決定されないピクセル)については、最も近い視点の視差画像を用いた補間処理を行うことで、当該ピクセルの輝度情報を決定する必要がある。
しかしながら、この補間処理により、異なる視点の視差画像がブレンドされることで、本来1つであった画像のエッジ部分が2つ以上に重なって見える多重像が発生する、または、画像全体がぼけて見えるなどといった問題が起こる。
本発明が解決しようとする課題は、観察者が立体視可能な立体画像の画質を向上させることが可能な画像処理装置、方法、及びプログラム、並びに、立体画像表示装置を提供することである。
実施形態の画像処理装置は、複数のサブ画素を含む画素が配列された表示素子と、表示素子から射出される光線の射出方向を制御する光線制御素子と、を有する表示部に表示する立体画像を生成する画像処理装置であって、第1取得部と生成部とを備える。第1取得部は、立体画像を生成するための3次元データを取得する。生成部は、サブ画素ごとに、当該サブ画素から光線制御素子を介して射出される光線の射出方向と、3次元データとに基づいて、当該サブ画素の輝度値を算出し、立体画像を生成する。また、生成部は、サブ画素ごとに、射出方向が示す方向を3次元データが定義される座標系に応じて補正した方向に対応する視点位置を、当該サブ画素の視点位置として特定し、特定した当該サブ画素の視点位置と、当該サブ画素の位置と、3次元データとに基づいて、当該サブ画素の輝度値を算出する
実施形態の画像表示システムの構成例を示す図。 実施形態のボリュームデータの一例を説明するための図。 実施形態の立体画像表示装置の構成例を示す図。 パネルの中心を原点とした座標系の一例を示す図。 第1実施形態の画像処理部の構成例を示す図。 基準視点と光線番号との対応付けを説明するための図。 パネル中心から3Dピクセル領域までのベクトルの一例を示す図。 パネルをX軸方向から観察した場合の模式図。 第1実施形態の立体画像表示装置の動作例を示すフローチャート。 視差ベクトルから奥行きへの変換モデルを説明するための図。 第2実施形態の画像処理部の構成例を示す図。 パネルパラメータの例を示す図。 パネルパラメータと視域との関係を説明するための図。 第2実施形態の光線番号算出処理の一例を示すフローチャート。
以下、添付図面を参照しながら、本発明に係る画像処理装置、方法、及びプログラム、並びに、立体画像表示装置の実施の形態を詳細に説明する。
(第1実施形態)
図1は、本実施形態の画像表示システム1の構成例を示すブロック図である。図1に示すように、画像表示システム1は、医用画像診断装置10と、画像保管装置20と、立体画像表示装置30とを備える。図1に例示する各装置は、通信網2を介して、直接的、又は間接的に通信可能な状態となっており、各装置は、医用画像等を相互に送受信することが可能である。通信網2の種類は任意であり、例えば各装置は、病院内に設置されたLAN(Local Area Network)を介して、相互に通信可能な形態であってもよい。また、例えば各装置は、インターネット等のネットワーク(クラウド)を介して、相互に通信可能な形態であってもよい。
画像表示システム1は、医用画像診断装置10により生成された3次元の医用画像のボリュームデータから、観察者が立体視可能な画像である立体画像を生成する。画像表示システム1は、生成した立体画像を表示部に表示することで、病院内に勤務する医師や検査技師に立体視可能な医用画像を提供する。立体画像とは、観察者が立体視可能な画像である。以下、各装置を順に説明する。
医用画像診断装置10は、3次元の医用画像のボリュームデータを生成可能な装置である。医用画像診断装置10としては、例えば、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等が挙げられる。
医用画像診断装置10は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置10は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数(例えば300〜500枚)のスライス画像(断面画像)を再構成することで、ボリュームデータを生成する。つまり、図2に示すように、被検体の体軸方向に沿って撮影された複数のスライス画像が、ボリュームデータである。図2の例では、被検体の「脳」のボリュームデータが生成されている。なお、医用画像診断装置10により撮影された被検体の投影データやMR信号等自体をボリュームデータとしてもよい。また、医用画像診断装置10により生成されたボリュームデータの中には、骨・血管・神経・腫瘍などといった、医療現場での観察対象となる物体の画像(以下、「オブジェクト」と呼ぶ)が含まれる。また、ボリュームデータの等値面を多角形のポリゴンや曲面などの幾何学的要素の集合で表現したデータを含んでもよい。
画像保管装置20は、医用画像を保管するデータベースである。具体的には、画像保管装置20は、医用画像診断装置10から送信されたボリュームデータを格納し、これを保管する。
立体画像表示装置30は、医用画像診断装置10により生成されたボリュームデータの立体画像を生成し、これを表示する装置である。立体画像表示装置30は、例えば、インテグラル・イメージング方式(II方式)や多眼方式等の3Dディスプレイ方式を採用したものであってよい。立体画像表示装置30の例としては、例えば視聴者が裸眼で立体画像を観察可能なTV、PCなどが挙げられる。
なお、以下では、立体画像表示装置30は、医用画像診断装置10により生成されたボリュームデータから立体画像を生成する例を挙げて説明するが、これに限らず、立体画像表示装置30が生成する立体画像の元となる3次元データの種類は任意である。3次元データとは、立体物の形状を表現可能なデータであり、ボリュームデータなどの空間分割モデルや境界表現モデルなどが含まれ得る。空間分割モデルとは、例えば空間を格子状に分割し、分割した格子を用いて、立体物を表現するモデルを指す。境界表現モデルとは、例えば空間において立体物の占める領域の境界を表現することで、当該立体物を表現するモデルを指す。
図3は、立体画像表示装置30の構成例を示すブロック図である。図3に示すように、立体画像表示装置30は、画像処理部40と表示部50とを備える。例えば画像処理部40と表示部50とが、通信網(ネットワーク)を介して接続される形態であってもよい。画像処理部40は、表示部50に表示する立体画像を生成する。本実施形態では、画像処理部40は、医用画像診断装置10により生成されたボリュームデータの立体画像を生成する。画像処理部40の詳細な内容については後述する。
図3に示すように、表示部50は、表示素子51と光線制御素子52とを有する。観察者は、光線制御素子52を介して表示素子51を観察することで、表示部50に表示される立体画像を観察する。例えば表示部50を観察した場合に、観察者の左眼および右眼に対して異なる映像が入射されることにより、観察者は立体画像を認識することができる。
表示素子51は立体画像を表示する。表示素子51には、複数のサブ画素を含む画素が配列される。より具体的には、表示素子51には、異なる色の複数のサブ画素((例えば、R,G,B)が、X方向(行方向)とY方向(列方向)とに、マトリクス状に配列される。図3の例では、ひとつの画素はRGB各色のサブ画素から構成される。各サブ画素は、X方向にR(赤)、G(緑)、B(青)の順で繰り返し配列され、Y方向に同一の色成分が配列される。表示素子51には、直視型2次元ディスプレイ、例えば、有機EL(Organic Electro Luminescence)やLCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、投射型ディスプレイなどを用いる。また、表示素子51は、バックライトを備えた構成でもよい。以下では、表示素子51をパネルと呼ぶ場合がある。
光線制御素子52は、表示素子51の各サブ画素から射出される光線の方向を制御する。光線制御素子52は、直線状に延伸する光学的開口53がX方向に複数配列されたものである。図3の例では、光線制御素子52は、シリンドリカルレンズ(光線を射出するための光学的開口53として機能)が複数配列されたレンチキュラーシートであるが、これに限らず、例えば光線制御素子52は、スリットが複数配列されたパララックスバリアであってもよい。表示素子51と光線制御素子52とは、一定の距離(ギャップ)を有する。また、光線制御素子52は、その光学的開口53の延伸方向が表示素子51のY方向(列方向)に対して、所定の傾きを有するように配置される。
なお、本実施形態では、図4に示すように、実空間上において、パネルの表示面(ディスプレイ面)の中心を原点とし、ディスプレイ面の水平方向にX軸、ディスプレイ面の鉛直方向にY軸、ディスプレイ面の法線方向にZ軸を設定する。本実施形態では、高さ方向とはY軸方向を指す。ただし、実空間上における座標の設定方法はこれに限定されるものではない。
次に、画像処理部40の詳細な内容を説明する。図5は、画像処理部40の構成例を示
すブロック図である。図5に示すように、画像処理部40は、第1取得部60と、生成部70と、出力部80とを備える。
第1取得部60は、画像保管装置20にアクセスして、医用画像診断装置10によって生成されたボリュームデータを取得する。ボリュームデータの中には、骨・血管・神経・腫瘍などの各臓器の位置を特定するための位置情報が含まれていてもよい。位置情報の形式は任意であり、例えば、臓器の種類を識別する識別情報と、臓器を構成するボクセル群とを対応付けて管理する形式でもよいし、ボリュームデータに含まれる各ボクセルに対して、当該ボクセルが属する臓器の種類を識別する識別情報を付加する形式でもよい。また、ボリュームデータの中には、各臓器をレンダリングする際の彩色や透過度に関する情報が含まれていてもよい。
なお、例えば画像保管装置20が設けられずに、医用画像診断装置10内に、生成したボリュームデータを格納するメモリが設けられていてもよい。この場合は、第1取得部60は、医用画像診断装置10にアクセスしてボリュームデータを取得する。要するに、第1取得部60は、表示部50に表示する立体画像を生成するための3次元データを取得する。
生成部70は、サブ画素ごとに、当該サブ画素からの光が光線制御素子52を介して射出される方向を示す光線番号と、第1取得部60で取得されたボリュームデータとを用いて当該サブ画素の輝度値を算出することで、立体画像を生成する。図5に示すように、生成部70は、第1算出部101と第2算出部102とを備える。
第1算出部101は、サブ画素ごとに、当該サブ画素の光線番号に基づいて、当該サブ画素に対応する視点位置を通る光線であって、当該サブ画素の輝度値の算出に用いられるレンダリング光線を特定可能な光線情報を算出する。ここで、各サブ画素の光線番号は、表示部50が設計された段階で決定されるものである。基準視点数をNとし、光学的開口53の延伸方向に対してX軸を基準とした場合の水平幅Xn、垂直幅Ynの領域を、N視点分の画素を含む要素画像が表示される領域(以下、立体画像の1画素を示す3Dピクセル領域と呼ぶ場合がある)として定義し、3Dピクセル領域の最もX軸の負の方向に存在する境界線に対応する位置から射出される光が飛ぶ方向を0とし、その境界線からXn/Nだけ離れた位置から射出される光が飛ぶ方向を1というように順に定義した場合に、各サブ画素の光線番号は、当該サブ画素からの光が光学的開口53を通して飛ぶ方向を表す番号として決定される。
本実施形態では、光学的開口53として機能するレンズやバリアの水平幅とXnが一致するので、同じ光線番号を持つ光線は平行光線に限りなく近く、各3Dピクセル領域の同一の光線番号は同一の方向を差すことになる。この場合、同じ光線番号の光線は、パネルから無限遠の位置で集光すると考えることができる。
また、基準視点とは、レンダリングしたい空間(以下、「レンダリング空間」と呼ぶ)において一定の間隔で定義された複数の視点(コンピュータグラフィクスの分野ではカメラ)の位置を指す。基準視点と光線番号との対応付けの方法としては、例えばパネルと向かい合わせで考えた場合に、最も右に存在する基準視点から順に、小さい光線番号を対応付けることもできる。つまり、この場合、最も右に位置する基準視点に対して光線番号0が対応付けられ、その次に右側に位置する基準視点に対して光線番号1が対応付けられる。図6に示すように、第1算出部101は、基準視点を整数の光線番号と対応付ける。図6の例では、整数の光線番号によって特定される物理的な光線方向は、3次元データ(この例ではボリュームデータ)を定義する座標系(見方を変えればレンダリング空間のスケール)に応じて補正され、補正された光線方向に対応する基準視点が、当該光線番号に対応付けられていると捉えることもできる。なお、基準視点の間隔を大きくするほど視差が大きくなり、最終的な立体画像を表示した場合の飛び出し量(奥行き量)が大きくなる。つまり、基準視点の間隔を調整することで、従来と同様に飛び出し量を制御することが可能となる。
なお、本実施形態では、光学的開口53として機能するレンズやバリアの水平幅とXnが一致する例を挙げて説明するが、これに限られるものではない。光学的開口53として機能するレンズやバリアの水平幅とXnが一致していない場合、光線番号はその3Dピクセル領域内でのみの通し番号となり、異なる3Dピクセル領域の同じ番号は同一の方向を差さないが、同じ光線番号の光線を集めた場合、光線番号ごとに異なる点(集光点)で集まることになる。つまり、この場合の光線番号は、ある集光点で集まる光線単位では同じ値(番号)を示し、集光点ごとに異なる値を示すことになる。
以下、第1算出部101による光線情報の算出例を説明する。本実施形態では、各サブ画素の光線番号は予め決定されており、第1算出部101は、各サブ画素の光線番号を把握可能であることを前提とする。以下では、光線番号が「2.5」のサブ画素の光線情報を算出する例を挙げて説明するが、他のサブ画素の光線情報の算出方法も同様である。
まず第1算出部101は、光線情報の算出対象のサブ画素(以下では、「算出対象のサブ画素」と呼ぶ場合がある)の光線番号から、当該サブ画素に対応する視点位置を特定する。サブ画素の光線番号が整数の場合、第1算出部101は、その光線番号に対応付けられた基準視点を、当該サブ画素に対応する視点位置として特定する。一方、サブ画素の光線番号が小数値を持つ場合、第1算出部101は、近傍の基準視点から線形補間を行うことで、当該サブ画素に対応する視点位置を特定する。ここでは、算出対象のサブ画素の光線番号は2.5であるので、図6に示すように、第1算出部101は、光線番号2に対応する基準視点と光線番号3に対応する基準視点とを用いた線形補間を行うことで、光線番号2.5に対応する視点位置を特定することができる。以上のようにして特定した視点位置は、算出対象のサブ画素(この例では光線番号2.5のサブ画素)のレンダリング光線が通る位置(例えばレンダリング光線の始点位置であってもよい)となる。この例では、第1算出部101は、サブ画素ごとに、当該サブ画素の光線番号が示す方向(物理的な光線方向)を3次元データの座標系に応じて補正した方向に対応する視点位置を、当該サブ画素の視点位置として特定していると捉えることもできる。
次に、第1算出部101は、図7に示すような、パネル中心から、算出対象のサブ画素が含まれる3Dピクセル領域の左端までのベクトルDv1=(Dx1,Dy1)を求める。この場合の3Dピクセル領域の左端とは、算出対象のサブ画素のY座標と同じY座標における左端である。次に、第1算出部101は、算出対象のサブ画素が含まれる3Dピクセル領域の左端がレンダリング空間のどの位置にあるかを表すベクトルDv2を求める。図6に示すDx2は、ベクトルDv2のx成分を示し、図8に示すDy2は、ベクトルDv2のy成分を示している。
ここでは、レンダリング空間の横幅にパネルのX軸方向の幅が対応し、レンダリング空間の高さにパネルのY軸方向の幅が対応し、レンダリング空間の原点(0,0,0)にパネルの中心が対応すると考える。第1算出部101は、Dv1のx成分(Dx1)をパネルのX軸方向の幅で正規化し、その正規化した値に、レンダリング空間の横幅を乗算することで、Dv2のx成分(Dx2)を求める。また、第1算出部101は、Dv1のy成分(Dy1)をパネルのY軸方向の幅で正規化し、その正規化した値に、レンダリング空間の高さを乗算することで、Dv2のy成分(Dy2)を求める。以上のようにして求めたDv2=(Dx2,Dy2)は、算出対象のサブ画素の輝度値を算出するのに用いられるレンダリング光線の終点位置となり、第1算出部101は、算出対象のサブ画素に対応する視点位置(光線の始点位置)とDv2とから、算出対象のサブ画素のレンダリング光線の方向ベクトルを求めることができる。すなわち、以上のように算出された、算出対象のサブ画素に対応する視点位置とDv2は、算出対象のサブ画素のレンダリング光線を特定可能な光線情報であると捉えることができる。以上のようにして、第1算出部101は、各サブ画素の光線情報を算出する。
なお、以上に説明した光線情報の算出処理は、ボリュームデータのレンダリングを行う際の投影方法が透視投影の場合を想定しているが、これに限らず、レンダリングを行う際の投影方法は透視投影に限らず、平行投影を用いることも可能である。この場合、光線の始点位置にDv2を加算すればよい。また、平行投影と透視投影を組み合わせることも可能である。この場合、Dv2の成分のうち透視投影にしたい成分のみを光線の始点位置に加算すればよい。
なお、本実施形態では、1つのレンズまたはバリアを光学的開口53として説明したが、これに限定されるものではなく、複数のレンズ(バリア)をまとめて1つの仮想的なレンズ(バリア)と考え、これを光学的開口53として捉えることもできる。この場合も、上記と同様の処理を行うことが可能である。また、本実施形態では、算出対象のサブ画素が含まれる3Dピクセル領域のうち、算出対象のサブ画素と同一のY座標の左端を基準としたが、これに限定されるものではなく、算出対象のサブ画素と同一のY座標の右端を基準とすることもできるし、左端と右端の位置座標の平均により求められる中心を基準とすることもできる。要するに、3Dピクセル領域のうち、算出対象のサブ画素と同一のY座標を持つ部分領域を代表する点を基準とすることができる。また、図7の例では、光学的開口53として機能するレンズが観察者側に向かって突出する形態(つまり、レンズの凸部が観察者側に向かう形態)を一例として示したが、これに限らず、レンズが、観察者側とは反対側のパネル側に向かって突出する形態(つまり、レンズの凸部がパネル側に向かう形態)であってもよい。
また、本実施形態では、パネル中心とレンダリング空間の原点(0,0,0)とが対応する場合を例に挙げて説明したが、パネル中心とレンダリング空間の原点(0,0,0)がずれていても、適切な座標変換を行うことで、上記と同様の処理を行うことが可能である。同様に、レンダリング空間の横幅とパネルのX軸方向の幅とがずれている、または、レンダリング空間の高さとパネルのY軸方向の幅とがずれていても、適切な座標変換を行うことにより、上記と同様の処理を行うことが可能である。さらに、光線番号が小数値を持つ場合には線形補間によって光線の始点位置(当該光線番号に対応する視点位置)を求めたが、補間方法はこれに限るものではなく、他の関数を用いてもよい。例えば、シグモイド関数のような非線形の関数を用いてもよい。
図5に戻って説明を続ける。第2算出部102は、サブ画素ごとに、第1算出部101で算出された光線情報と、第1取得部60で取得されたボリュームデータとを用いて、当該サブ画素の輝度値を算出する。これにより、ボリュームデータのレンダリングとマッピングが同時に行われ、ボリュームデータを立体視可能な立体画像が生成される。
より具体的には、第2算出部102は、サブ画素ごとに、当該サブ画素の光線情報によって特定されるレンダリング光線とボリュームデータとが交差する部分の色情報に基づいて、当該サブ画素の輝度値を算出する。各サブ画素の輝度値を求める方法としては、コンピュータグラフィックスの分野で広く知られているレイキャスティングやレイトレーシングなどを用いることができる。レイキャスティングとは、視点から光線(レンダリング光線)を追跡し、光線とボリュームデータなどの3次元データとの交点における色情報を積算することで、その光線の先にあるサブ画素の輝度値を決定してレンダリングを行う方法であり、レイトレーシングとはそれに反射光を考慮したものである。詳細な説明については省略する。また、例えばボリュームデータの代わりに、境界表現モデルなどコンピュータグラフィクスの分野で一般的なその他のモデル(3次元データの一例)を用いた場合にも、上記と同様に、レイキャスティングやレイトレーシングなどを用いてレンダリングを行えばよい。
出力部80は、生成部70で生成された立体画像を表示部50に出力する(表示させる)。
次に、図9を参照しながら、本実施形態の立体画像表示装置30の動作例を説明する。図9は、立体画像表示装置30の動作例を示すフローチャートである。まず、ステップS101において、第1取得部60は、画像保管装置20にアクセスして、医用画像診断装置10によって生成されたボリュームデータを取得する。ステップS102において、第1算出部101は、サブ画素ごとに、当該サブ画素の光線番号を用いて、当該サブ画素のレンダリング光線を特定可能な光線情報を算出する。ステップS103において、第2算出部102は、サブ画素ごとに、当該サブ画素の光線情報と、ステップS101で取得されたボリュームデータとを用いて、当該サブ画素の輝度値を算出することで、立体画像を生成する。ステップS104において、出力部80は、生成部70によって生成された立体画像を表示部50に表示させる。
以上に説明したように、本実施形態では、サブ画素ごとに、当該サブ画素の光線番号に基づいて、当該サブ画素のレンダリング光線を特定可能な光線情報を算出する。そして、サブ画素ごとに、当該サブ画素の光線情報とボリュームデータとを用いて、レイキャスティングなどを行うことにより、当該サブ画素の輝度値を算出する。すなわち、本実施形態では、視差画像を補間する処理を行わずに、ダイレクトに各サブ画素の輝度値を算出するので、多重像やボケの発生を防止できる。したがって、本実施形態によれば、観察者に提供する立体画像の画質を向上させることができる。
(第1実施形態の変形例)
例えば画像処理部40で生成される立体画像の元となる3次元データは、1視点の画像(以下、「参照画像」と呼ぶ)と、それに対応するデプスデータ(参照画像の各画素の奥行き値を示すデータ)とを組み合わせた形態であってもよい。この場合、生成部70は、サブ画素の光線番号とデプスデータとに応じて、参照画像を平行移動し、平行移動後の参照画像に基づいて、当該サブ画素の輝度値を算出する。以下、この場合の第1算出部101および第2算出部102の各々の機能を説明する。
第1算出部101の基本的な機能は第1実施形態と同様である。本変形例の場合は各サブ画素のレンダリング光線を特定する必要は無いが、第1算出部101は、上述の第1実施形態と同様に、サブ画素ごとに、当該サブ画素に対応する視点位置と、パネル中心からの距離(ベクトルDv1)とを求め、当該サブ画素が含まれる3Dピクセル領域がレンダリング空間のどの位置にあるかを表すベクトルDv2を求める。
第2算出部102は、サブ画素ごとに、当該サブ画素の光線番号と、当該サブ画素が含まれる3Dピクセル領域がレンダリング空間のどの位置にあるかを表すベクトルDv2と、参照画像と、デプスデータとに基づいて、当該サブ画素の輝度値を算出する。より具体的には以下のとおりである。以下では、参照画像が光線番号0に対応する画像(基準視点0に対応する画像)であり、レンダリング空間の幅に参照画像の横幅が対応し、レンダリング空間の高さに参照画像の縦幅が対応し、レンダリング空間の原点(0,0,0)に参照画像の中心が対応する場合(つまり、パネルと参照画像が同じスケールでレンダリング空間に配置された場合)を例に挙げて説明する。
まず、参照画像の各画素における視差ベクトルdを求める。視差ベクトルdとは、所望の飛び出し量を得るためには画素をどちらの方向にどの程度平行移動する必要があるかを表すベクトルである。図10に示すように、ある画素における視差ベクトルdは以下の式1で求められる。
Figure 0005752638
上記式1において、Lはレンダリング空間での奥行きサイズ、zmaxはデプスデータの取りうる最大値、zはデプスデータ、zはレンダリング空間での飛び出し距離、bは基準視点間のベクトル、zはレンダリング空間におけるカメラ位置から参照画像(パネル)までの距離を表す。
次に、第2算出部102は、参照画像をデプスデータに応じて平行移動した後の各画素のレンダリング空間における位置ベクトルp2(x,y)を、以下の式2で求める。
Figure 0005752638
上記式2において、x,yはそれぞれ参照画像の画素単位の座標を示し、nは輝度値の算出対象のサブ画素の光線番号を示し、p1(x,y)はシフト前の各画素のレンダリング空間における位置ベクトルを示し、d(x,y)は座標(x,y)の画素の奥行き値を示すデプスデータから算出された視差ベクトルを示す。
次に、第2算出部102は、以上のように算出したp2(x,y)のうち、位置座標が上述のDv2(輝度値の算出対象のサブ画素が含まれる3Dピクセル領域がレンダリング空間のどの位置にあるかを表すベクトル)に最も近いものを特定し、それに対応する画素を決定する。そして、その決定した画素に含まれる複数のサブ画素のうち、輝度値の算出対象のサブ画素の色と同じサブ画素の輝度値が、求める輝度値となる。なお、上述のDv2に最も近くなる画素が複数存在する場合は、飛び出し量が最も大きいものを採用することもできる。以上のようにして、各サブ画素の輝度値が算出される。
なお、本変形例では参照画像の全てのピクセルに対して視差ベクトルdを求めているが、必ずしもこれに限るものではなく、例えばDv2の位置座標を含む画素を求め、その画素と同じY座標(参照画像の座標系で)を持つ画素のみで視差ベクトルdを求めてもよい。基準視点の位置がX軸方向でのみ異なる場合はこれで十分である。また、例えばDv2の位置座標を含む画素を求め、その画素と同じX座標(参照画像の座標系で)を持つ画素のみで視差ベクトルdを求めてもよい。基準視点の位置がY軸方向にのみ異なる場合はこれで十分である。また、参照画像中で最大の視差ベクトル|d|が分かっている場合は、Dv2から±|d|の領域に含まれる画素のみで視差ベクトルdを求めてもよい。また、上記の組み合わせにより、さらに視差ベクトルdを算出する領域を限定してもよい。
本変形例によれば、1視点に対応する画像とそれに対応するデプスデータとの組み合わせで3次元データが構成される場合であっても、視差画像を補間する処理を行わずに、各サブ画素の輝度値を算出して立体画像を生成することができるので、観察者に提供する立体画像の画質を向上させることができる。
(第2実施形態)
次に、第2実施形態について説明する。第2実施形態では、観察者の位置を取得し、その取得した観察者の位置が、観察者が立体画像を観察可能な視域に含まれるように、表示素子と光線制御素子との対応関係に関するパラメータ(以下、「パネルパラメータ」と呼ぶ)を補正する。そして、補正後のパネルパラメータで、各サブ画素の光線番号を算出する点で上述の第1実施形態と相違する。以下、具体的に説明する。なお、上述の第1実施形態と共通する部分については、同一の符号を付して適宜に説明を省略する。
図11は、第2実施形態の画像処理部400の構成例を示すブロック図である。図11に示すように、画像処理部400は、第2取得部62と、補正部90と、第3算出部103とをさらに備える点で上述の第1実施形態と相違する。
第2取得部62は、観察者の位置を取得する。観察者の位置の取得には、例えば可視カメラ、赤外線カメラ等の撮像機器の他、レーダやセンサ等の機器を用いることができる。第2取得部62は、これらの機器で得られた情報(例えばカメラの場合は撮影画像)から、公知の技術を用いて、観察者の位置を示す3次元座標値を取得することができる。
例えば、可視カメラを用いた場合には、撮像によって得た画像を画像解析することで、観察者の検出および観察者の位置の算出を行う。これによって、第2取得部62は、観察者の位置を取得する。
また、例えばレーダを用いた場合には、得られたレーダ信号を信号処理することで、観察者の検出および観察者の位置の算出を行う。これによって、第2取得部62は、観察者の位置を取得する。
また、例えば人物検出・位置検出における観察者の検出においては、人の顔、頭、人全体、マーカーなど、人であると判定可能な任意の対象を検出してもよい。例えば観察者の目の位置を検出してもよい。なお、観察者の位置の取得方法は、上記の方法に限定されるものではない。
補正部90は、第2取得部62で取得された観察者の位置が視域に含まれるように、パネルパラメータを補正する。本実施形態での補正対象となるパネルパラメータは、図12に例示されたkoffsetとXnの2つである。koffsetは、パネル(表示素子51)と光線制御素子52とのX軸方向のずれ量を示すパラメータである。Xnは、1つの光学的開口53に対応するパネル上での幅Xnを示すパラメータである。補正部90は、koffsetとXnを補正することにより、所望の位置に視域を移動させる。より具体的には、補正部90は、以下の式3のようにパネルパラメータを補正することで、視域の移動を実現する。
Figure 0005752638
r_offsetは、koffsetに対する補正量を示す。r_Xnは、Xnに対する補正量を示す。これらの補正量の算出方法については後述する。なお、上記式3では、koffsetを、光線制御素子52に対するパネルのずれ量と定義した場合を例示しているが、パネルに対する光線制御素子52のずれ量と定義した場合は、以下の式4のようになる。なお、Xnに対する補正は、上記式3と同じである。
Figure 0005752638
例えば、パネルおよび光線制御素子52が、図13(A)に示す状態のときに、パネルと光線制御素子52の位置関係を水平方向(X軸方向)にずらすと、図13(C)に示すように、ずらした方向に視域が移動する。図13(C)の例では、光線制御素子52(光学的開口53)を紙面に沿って左にシフトしたことで、光線がηだけ図13(A)の場合よりも左に寄り、これによって視域も左に寄っている。これは、レンズの位置をもとの位置で固定して考えた場合、表示画像が逆方向に動くのと等価である。本実施形態では、観察者の位置に応じて、パネルと光線制御素子52のずれであるkoffsetを物理的なずれ量よりも増減させるように要素画像を設定(3Dピクセル領域を設定)することで、X軸方向における視域の位置を変化させることが可能になる。
また、例えばパネルおよび光線制御素子52が図13(A)の状態のときに、図13(B)に示すように、1つの光学的開口53に対応するパネル上での幅Xnを広げると、視域はパネルに近くなる(つまり、図13(B)では図13(A)よりも要素画像幅が大きくなっている)。本実施形態では、Xnの値を増減させるように要素画像を設定することで、Z軸方向における視域の位置を変化させることが可能になる。
以上より、パネルパラメータkoffset、Xnを適切に補正することで、X軸方向およびZ軸方向のいずれにも視域の位置を変化させることができる。よって、観察者が任意の位置にいる場合でも、その位置に合わせた視域を設定することが可能になる。以下、offsetに対する補正量r_offset、Xnに対する補正量r_Xnの算出方法の例を示す。
補正部90は、観察者のX座標からr_offsetを算出する。より具体的には、補正部90は、現在の観察者のX座標と、観察位置からパネル(あるいはレンズ)までの距離である視距離L、光線制御素子52(レンズの場合は主点P)とパネルとの距離であるギャップg(図12参照)を用いて、以下の式5で、r_offsetを算出する。なお、現在の観察位置は、第2取得部62により取得され、視距離Lは、当該現在の観察位置から計算される。
Figure 0005752638
また、補正部90は、観察者のZ座標を用いて、以下の式6で、r_Xnを算出する。なお、式6におけるLens_width(図12参照)は、光学的開口53のX軸方向の幅である。
Figure 0005752638
再び図11に戻って説明を続ける。第3算出部103は、補正部90により補正された後のパネルパラメータで、各サブ画素の光線方向を算出する。より具体的には、補正後のパネルパラメータに応じて決まる3Dピクセル領域の最もX軸の負の方向に存在する境界線に対応する位置から射出される光が飛ぶ方向を0とし、その境界線からXn/Nだけ離れた位置から射出される光が飛ぶ方向を1というように順に定義し、その定義に基づいて、各サブ画素の光線番号を算出する。
その他の構成は、上述の第1実施形態と同様であるので、詳細な説明は省略する。図14は、各サブ画素の光線番号を算出する処理(光線番号算出処理)の一例を示すフローチャートである。図14に示すように、まず、ステップS201において、第2取得部62は、観察者の位置を取得する。ステップS202において、補正部90は、ステップS201で取得された観察者の位置が視域に含まれるようにパネルパラメータを補正する。ステップS203において、第3算出部103は、補正後のパネルパラメータで、各サブ画素の光線番号を算出する。
第2実施形態の画像処理部400は、予め定められた周期で、上述の光線番号算出処理を実行する。そして、第2実施形態の立体画像表示装置は、上述の光線番号算出処理により算出された各サブ画素の光線番号を用いて、取得した3次元データの立体画像を生成する。立体画像の生成方法は、図9を用いて説明した内容と同じである。
以上、本発明の実施形態を説明したが、上述の各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。
例えば上述の各実施形態では、光線制御素子52は、その光学的開口53の延伸方向がパネル(表示素子51)のY方向に対して、所定の傾きを有するように配置されているが、傾きの大きさは任意に変更可能である。また、例えば光線制御素子52は、その光学的開口53の延伸方向が、パネルのY方向に一致するように配置される構成(いわゆる垂直レンズ)であってもよい。なお、上述の各実施形態および変形例は任意に組み合わせることもできる。
上述の各実施形態の画像処理部(40,400)は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した各部の機能は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、各部の機能のうちの少なくとも一部を個別の回路(ハードウェア)で実現することもできる。上述の各実施形態の画像処理部(40,400)は、請求項の「画像処理装置」に対応する。
また、上述の各実施形態の画像処理部(40,400)で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の各実施形態の画像処理部(40,400)で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の各実施形態の画像処理部(40,400)で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
1 画像表示システム
10 医用画像診断装置
20 画像保管装置
30 立体画像表示装置
40 画像処理部
50 表示部
51 表示素子
52 光線制御素子
53 光学的開口
60 第1取得部
62 第2取得部
70 生成部
80 出力部
90 補正部
101 第1算出部
102 第2算出部
103 第3算出部
400 画像処理部

Claims (9)

  1. 複数のサブ画素を含む画素が配列された表示素子と、前記表示素子から射出される光線の射出方向を制御する光線制御素子と、を有する表示部に表示する立体画像を生成する画像処理装置であって、
    前記立体画像を生成するための3次元データを取得する第1取得部と、
    前記サブ画素ごとに、当該サブ画素から前記光線制御素子を介して射出される光線の射出方向と、前記3次元データとに基づいて、当該サブ画素の輝度値を算出し、前記立体画像を生成する生成部と、を備え、
    前記生成部は、
    前記サブ画素ごとに、前記射出方向が示す方向を前記3次元データが定義される座標系に応じて補正した方向に対応する視点位置を、当該サブ画素の視点位置として特定し、特定した当該サブ画素の視点位置と、当該サブ画素の位置と、前記3次元データとに基づいて、当該サブ画素の輝度値を算出する、
    画像処理装置。
  2. 前記3次元データは、空間分割モデルまたは境界表現モデルで表され、
    前記生成部は、
    前記サブ画素ごとに、前記射出方向に基づいて、当該サブ画素に対応する視点位置を通る光線であって、当該サブ画素の輝度値の算出に用いられるレンダリング光線を特定可能な光線情報を算出する第1算出部と、
    前記サブ画素ごとに、前記光線情報と前記3次元データとを用いて当該サブ画素の輝度値を算出する第2算出部と、を備える、
    請求項1の画像処理装置。
  3. 前記第2算出部は、前記サブ画素ごとに、前記光線情報によって特定されるレンダリング光線と前記3次元データとが交差する部分の色情報に基づいて、当該サブ画素の輝度値を算出する、
    請求項2の画像処理装置。
  4. 前記3次元データは、医用画像のボリュームデータである、
    請求項2または請求項3の画像処理装置。
  5. 前記3次元データは、少なくとも1つの視点に対応する画像を示す参照画像と、前記参照画像の各画素の奥行き値を示すデプスデータとの組み合わせで構成され、
    前記生成部は、前記サブ画素の前記射出方向と前記デプスデータとに応じて前記参照画像を平行移動し、平行移動後の前記参照画像に基づいて、当該サブ画素の輝度値を算出する、
    請求項1の画像処理装置。
  6. 観察者の位置を取得する第2取得部と、
    前記観察者の位置が、前記観察者が前記立体画像を観察可能な視域に含まれるように、前記表示素子と前記光線制御素子との対応関係に関するパラメータを補正する補正部と、
    前記補正部により補正された後の前記パラメータで、各前記サブ画素の前記光線方向を算出する第3算出部と、をさらに備える、
    請求項1の画像処理装置。
  7. 複数のサブ画素を含む画素が配列された表示素子と、前記表示素子から射出される光線の射出方向を制御する光線制御素子と、を有する表示部と、
    体画像を生成するための3次元データを取得する第1取得部と、
    前記サブ画素ごとに、当該サブ画素から前記光線制御素子を介して射出される光線の射出方向と、前記3次元データとに基づいて、当該サブ画素の輝度値を算出し、前記立体画像を生成する生成部と、を備え、
    前記生成部は、
    前記サブ画素ごとに、前記射出方向が示す方向を前記3次元データが定義される座標系に応じて補正した方向に対応する視点位置を、当該サブ画素の視点位置として特定し、特定した当該サブ画素の視点位置と、当該サブ画素の位置と、前記3次元データとに基づいて、当該サブ画素の輝度値を算出する、
    立体画像表示装置。
  8. 複数のサブ画素を含む画素が配列された表示素子と、前記表示素子から射出される光線の射出方向を制御する光線制御素子と、を有する表示部に表示する立体画像を生成する画像処理方法であって、
    前記立体画像を生成するための3次元データを取得し、
    前記サブ画素ごとに、当該サブ画素から前記光線制御素子を介して射出される光線の射出方向と、前記3次元データとに基づいて、当該サブ画素の輝度値を算出し、前記立体画像を生成し、
    前記サブ画素ごとに、前記射出方向が示す方向を前記3次元データが定義される座標系に応じて補正した方向に対応する視点位置を、当該サブ画素の視点位置として特定し、特定した当該サブ画素の視点位置と、当該サブ画素の位置と、前記3次元データとに基づいて、当該サブ画素の輝度値を算出する、
    画像処理方法。
  9. 複数のサブ画素を含む画素が配列された表示素子と、前記表示素子から射出される光線の射出方向を制御する光線制御素子と、を有する表示部に表示する立体画像を生成する画像処理プログラムであって、
    コンピュータを、
    前記立体画像を生成するための3次元データを取得する取得手段と、
    前記サブ画素ごとに、当該サブ画素から前記光線制御素子を介して射出される光線の射出方向と、前記3次元データとに基づいて、当該サブ画素の輝度値を算出し、前記立体画像を生成する生成手段として機能させ、
    前記生成手段は、
    前記サブ画素ごとに、前記射出方向が示す方向を前記3次元データが定義される座標系に応じて補正した方向に対応する視点位置を、当該サブ画素の視点位置として特定し、特定した当該サブ画素の視点位置と、当該サブ画素の位置と、前記3次元データとに基づいて、当該サブ画素の輝度値を算出する、
    画像処理プログラム。
JP2012101820A 2012-04-26 2012-04-26 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 Expired - Fee Related JP5752638B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012101820A JP5752638B2 (ja) 2012-04-26 2012-04-26 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US13/727,025 US9202305B2 (en) 2012-04-26 2012-12-26 Image processing device, three-dimensional image display device, image processing method and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012101820A JP5752638B2 (ja) 2012-04-26 2012-04-26 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置

Publications (2)

Publication Number Publication Date
JP2013229828A JP2013229828A (ja) 2013-11-07
JP5752638B2 true JP5752638B2 (ja) 2015-07-22

Family

ID=49476825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012101820A Expired - Fee Related JP5752638B2 (ja) 2012-04-26 2012-04-26 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置

Country Status (2)

Country Link
US (1) US9202305B2 (ja)
JP (1) JP5752638B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014216719A (ja) * 2013-04-23 2014-11-17 株式会社東芝 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
JP6393518B2 (ja) * 2014-05-15 2018-09-19 チームラボ株式会社 3次元ディスプレイ及びデータ生成方法
GB2527548A (en) * 2014-06-25 2015-12-30 Sharp Kk Variable barrier pitch correction
KR102240568B1 (ko) * 2014-08-18 2021-04-16 삼성전자주식회사 영상 처리 방법 및 장치
US10701349B2 (en) * 2015-01-20 2020-06-30 Misapplied Sciences, Inc. Method for calibrating a multi-view display
CN117097879B (zh) * 2023-08-28 2024-03-12 山东天竞电子科技有限公司 一种像素化的裸眼3d显示方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2714164B2 (ja) * 1989-07-31 1998-02-16 株式会社東芝 三次元画像表示装置
US6064424A (en) 1996-02-23 2000-05-16 U.S. Philips Corporation Autostereoscopic display apparatus
US7425951B2 (en) * 2002-12-27 2008-09-16 Kabushiki Kaisha Toshiba Three-dimensional image display apparatus, method of distributing elemental images to the display apparatus, and method of displaying three-dimensional image on the display apparatus
KR100728777B1 (ko) * 2004-04-07 2007-06-19 삼성에스디아이 주식회사 패럴랙스 베리어 및 이를 구비한 입체 영상 표시장치
JP4672461B2 (ja) 2004-06-28 2011-04-20 株式会社バンダイナムコゲームス 画像生成装置、電子機器、印刷加工物、画像生成方法及びプログラム
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体
EP1922882B1 (en) * 2005-08-19 2012-03-28 Koninklijke Philips Electronics N.V. A stereoscopic display apparatus
JP2007081562A (ja) * 2005-09-12 2007-03-29 Toshiba Corp 立体画像表示装置、立体画像表示プログラムおよび立体画像表示方法
JP4856534B2 (ja) * 2005-12-27 2012-01-18 株式会社バンダイナムコゲームス 画像生成装置、プログラム及び情報記憶媒体
US20080117231A1 (en) * 2006-11-19 2008-05-22 Tom Kimpe Display assemblies and computer programs and methods for defect compensation
US20090282429A1 (en) * 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
JP5677738B2 (ja) * 2009-12-24 2015-02-25 株式会社東芝 X線コンピュータ断層撮影装置
KR101732131B1 (ko) * 2010-11-12 2017-05-04 삼성전자주식회사 사용자 위치 기반의 영상 제공 장치 및 방법

Also Published As

Publication number Publication date
JP2013229828A (ja) 2013-11-07
US20130286016A1 (en) 2013-10-31
US9202305B2 (en) 2015-12-01

Similar Documents

Publication Publication Date Title
JP5909055B2 (ja) 画像処理システム、装置、方法及びプログラム
JP6058290B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP5752638B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US9596444B2 (en) Image processing system, apparatus, and method
JP5808146B2 (ja) 画像処理システム、装置及び方法
KR101289544B1 (ko) 3차원 이미지 디스플레이 장치, 방법 및 컴퓨터 판독가능 매체
KR20140073584A (ko) 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램
JP6245840B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US9426443B2 (en) Image processing system, terminal device, and image processing method
JP2015119203A (ja) 画像処理装置、立体画像表示装置および画像処理方法
US9445082B2 (en) System, apparatus, and method for image processing
JP5802767B2 (ja) 画像処理装置、立体画像表示装置、および、画像処理方法
JP5921102B2 (ja) 画像処理システム、装置、方法及びプログラム
US20150062119A1 (en) Image processing device, 3d-image display device, method of image processing and program product thereof
US9210397B2 (en) Image processing system, apparatus, and method
US20130257870A1 (en) Image processing apparatus, stereoscopic image display apparatus, image processing method and computer program product
CN104887316A (zh) 基于主动立体显示技术的虚拟立体内窥镜显示方法
JP2014236340A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP2013009864A (ja) 3次元画像処理装置
US20140313199A1 (en) Image processing device, 3d image display apparatus, method of image processing and computer-readable medium
JP2012244420A (ja) 画像処理システム、装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150520

R151 Written notification of patent or utility model registration

Ref document number: 5752638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees