CN106463002A - 图像处理装置以及立体视觉显示方法 - Google Patents

图像处理装置以及立体视觉显示方法 Download PDF

Info

Publication number
CN106463002A
CN106463002A CN201580023508.6A CN201580023508A CN106463002A CN 106463002 A CN106463002 A CN 106463002A CN 201580023508 A CN201580023508 A CN 201580023508A CN 106463002 A CN106463002 A CN 106463002A
Authority
CN
China
Prior art keywords
region
interest
anaglyph
focal position
anaglyph group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580023508.6A
Other languages
English (en)
Inventor
谷口扩树
田中诗乃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of CN106463002A publication Critical patent/CN106463002A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

本发明的图像处理装置具备:输入单元,其接受用于进行条件的设定、基于该条件的第一关注区域的设定、以及用于在与该第一关注区域不同的区域中进行第二关注区域的设定的输入值,所述条件包含为生成立体视觉图像而使用的关注区域、视点位置、立体视觉空间的范围、以及渲染函数;处理单元,其基于所述条件来计算所述第一关注区域内的第一视差图像群的第一焦点位置,使用从图像拍摄装置得到的体数据来生成来自该第一焦点位置的第一视差图像群,并计算在生成该第一视差图像群时所设定的立体视觉中心线上的,与所述第二关注区域内的点相同的深度方向位置上的第二焦点位置,生成来自该第二焦点位置的第二视差图像群,使用所述第一视差图像群和所述第二视差图像群来生成立体视觉图像。

Description

图像处理装置以及立体视觉显示方法
技术区域
本发明属于图像处理装置的机械控制的范畴。另外,本发明属于计算机***中的立体视觉显示方法的范畴。详细来说,涉及基于医用图像数据来改善立体视觉图像的生成技术。
背景技术
现有的立体视觉显示装置使用医用图像的体数据来生成并显示立体视觉图像。一般在立体视觉显示中,大致存在2视差方式的立体视觉显示以及具有3以上的视差的多视差方式的立体视觉显示。无论哪个方式,都通过渲染处理来生成与需要的视点数量相对应的数量的视差图像。
在现有的立体视觉显示装置中,设定为将立体视觉图像的焦点位置配置在体数据的中心。另一方面,在影像判读医生等医生诊断医用图像时,很多时候希望将关心区域配置在图像的中央来进行描绘。因此,当从立体视觉图像的视点进行观察,医生与在医生旁边辅助操作的医疗工作者(以下称为“操作者”)所设定的关心区域与焦点(原点)相比在深度方向上处于近前或者位于内侧时,不在关心区域聚焦。
为了解决这样的问题,在专利文献1中记载了当用户指定了焦点位置时,使视点或体数据进行移动或旋转以使焦点位置成为原点(中心),从而生成立体视觉图像(视差图像)。
现有技术文献
专利文献
专利文献1:日本特开2013-39351号公报
发明内容
发明所要解决的课题
然而,专利文献1的图像处理***在用户指定了焦点位置时,移动或旋转体数据与视点之间的相对位置来生成立体视觉图像。
因此,焦点位置变更后得到的立体视觉图像与焦点位置变更前的图像相比,有时视点或视角、投影方向不同,显示范围发生了变化。即使用户期望不改变显示范围、视点、方向等而单纯地在关心区域中聚焦,有时用户也无法通过希望的视觉方式(显示范围、视点、视角以及投影方向)观察关心区域。
本发明是鉴于以上的问题点而作出的,其目的在于提供一种图像处理装置等,即使变更立体视觉图像中的关注区域,也可不改变原有立体视觉图像的显示范围或视点、投影方向而在变更后的关注区域的深度方向位置上进行聚焦来进行立体视觉显示。
用于解决课题的手段
为了达成上述目的,第一发明是一种图像处理装置,其特征在于,具备:输入单元,其接受用于进行条件的设定、基于该条件的第一关注区域的设定、以及用于在与该第一关注区域不同的区域中进行第二关注区域的设定的输入值,所述条件包含为生成立体视觉图像而使用的关注区域、视点位置、立体视觉空间的范围、以及渲染函数;处理单元,其基于所述条件来计算所述第一关注区域内的第一视差图像群的第一焦点位置,使用从图像拍摄装置得到的体数据来生成来自该第一焦点位置的第一视差图像群,并计算在生成该第一视差图像群时所设定的立体视觉中心线上的,与所述第二关注区域内的点相同的深度方向位置上的第二焦点位置,生成来自该第二焦点位置的第二视差图像群,使用所述第一视差图像群和所述第二视差图像群来生成立体视觉图像。
第二发明是立体视觉显示方法,其使用计算机来生成立体视觉图像,该立体视觉显示方法的特征在于,包含:通过处理单元来取得从图像拍摄装置得到的体数据的步骤;通过输入单元来设定用于生成立体视觉图像的条件的步骤;通过所述处理单元基于设定的条件在预定的关注区域内设定视差图像群的原点,并将该原点作为第一焦点位置的步骤;通过所述处理单元以在所述第一焦点位置聚焦的方式根据所述体数据生成第一视差图像群的步骤;通过所述输入单元在与所述关注区域不同的区域设定第二关注区域的步骤;通过所述处理单元将在生成所述第一视差图像群时设定的立体视觉中心线上的,位于与所述第二关注区域内的点相同的深度方向位置上的点作为第二焦点位置的步骤;通过所述处理单元以在所述第二焦点位置聚焦的方式根据所述体数据生成第二视差图像群的步骤;通过所述处理单元使用所述第一视差图像群或所述第二视差图像群来进行立体视觉图像的显示控制的步骤。
发明效果
通过本发明,能够提供一种图像处理装置等,即使变更立体视觉图像中的关注区域,也可不改变原有的立体视觉图像的显示范围或视点、投影方向而在变更后的关注区域的深度方向位置上进行聚焦来进行立体视觉显示。
附图说明
图1表示图像处理装置100的整体结构。
图2对立体视觉显示以及视差图像群g1(g1-1、g1-2)进行说明。
图3对视点、投影面、立体视觉空间、体数据以及关注区域等进行说明。(a)为平行投影,(b)为中心投影。
图4表示图像处理装置100的功能结构。
图5对(a)原有的焦点(第一焦点位置F1)、(b)在关注区域变更后设定的第二焦点位置F2进行说明。
图6对关注区域变更前和变更后,固定视角来生成视差图像群的例子进行说明。
图7是说明立体视觉图像显示处理的整个流程的流程图。
图8对生成视差图像g1-1、g1-2时的视点、投影面、立体视觉空间、体数据以及关注区域等进行说明。(a)为平行投影,(b)为中心投影。
图9是表示第二实施方式的立体视觉图像显示处理的步骤的流程图。
图10是表示图10的步骤S204的视差图像原点计算处理的步骤的流程图。
图11是与体数据的三维像素值(CT值)直方图相对的渲染函数的应用例子。
图12是表示横穿两个区域间的直线上的CT值分布的图表。
图13表示在关注区域c1内的关心区域TOI的边缘部设定的焦点的候补点f11~f16。
图14是表示图10的步骤S210的焦点位置计算处理的步骤的流程图。
图15是表示第三实施方式的立体视觉图像显示处理的步骤的流程图。
图16是表示第三实施方式的立体数据图像显示处理的步骤的流程图。
具体实施方式
以下,根据附图对本发明的实施方式进行详细说明。
[第一实施方式]
首先,参照图1对应用了本发明的图像处理装置100的图像处理***1的结构进行说明。
如图1所示,图像处理***1具备:具有显示装置107和输入装置109的图像处理装置100、经由网络110与图像处理装置100相连接的图像数据库111、图像拍摄装置112。
图像处理装置100是进行图像生成、图像解析等处理的计算机。如图1所示,图像处理装置100具备:CPU(Central Processing Unit中央处理单元)101、主存储器102、存储装置103、通信接口(通信I/F)104、显示存储器105、鼠标108等与外部设备的接口(I/F)106a、160b,各部经由总线113相连接。
CPU101向主存储器102的RAM上的工作存储区域调出并执行存储在主存储器102或存储装置103等中的程序,驱动控制经由总线113相连接的各部,从而实现图像处理装置100进行的各种处理。
CPU101执行根据累积多层的医用图像而构成的体数据生成立体视觉图像,并对其进行显示的立体视觉图像显示处理(参照图7)。立体视觉图像显示处理的详细内容如后所述。
主存储器102由ROM(Read Only Memory只读存储器)、RAM(Random Access Memory随机存取存储器)等构成。ROM持久地保存计算机的启动程序和BIOS等程序、数据等。另外,RAM暂时保存从ROM、存储装置103等加载的程序、数据等,并且具备CPU101为了进行各种处理而使用的工作区域。
存储装置103是向HDD(硬盘驱动器)或其他的记录介质进行数据读写的存储装置,存储CPU101执行的程序、执行程序所需要的数据、OS(操作***)等。关于程序,存储了相当于OS的控制程序、应用程序。这些各个程序代码由CPU根据需要读出并移动到主存储器102的RAM中,从而实现为各种单元。
通信I/F104具有通信控制装置、通信端口等,作为图像处理装置100与网络110之间的通信的媒介。另外,通信I/F104经由网络110进行与图像数据库111、其他的计算机或X射线CT装置、MRI装置等图像拍摄装置112之间的通信控制。
I/F(160a、160b)是用于连接周围设备的端口,进行与周围设备之间的数据的发送接收。例如,可以经由I/F106a连接鼠标108或记录笔等指点设备。在第一实施方式中,在I/F106b上连接针对快门眼镜115发送动作控制信号的红外线发射器114等。
显示存储器105是暂时积蓄从CPU101输入的显示数据的缓冲存储器。将积蓄的显示数据以预定的定时输出到显示装置107。
显示装置107由液晶面板、CRT监视器等显示装置以及用于与显示装置协作来执行显示处理的逻辑电路构成,并经由显示存储器105连接到CPU101。显示装置107显示通过CPU101的控制,显示在显示存储器105中积蓄的显示数据。
输入装置109例如是键盘等输入装置,接受包含操作者输入的各种指示或信息的输入值,并向CPU101输出该输入值。操作者使用显示装置107、输入装置109、以及鼠标108等外部设备来以对话的方式操作图像处理装置100。
网络110包含LAN(Local Area Network局域网)、WAN(Wide Area Network广域网)、内部网、因特网等各种通信网,作为图像数据库111或服务器、其他的信息设备等与图像处理装置100之间的通信连接的媒介。
图像数据库111积蓄并存储由图像拍摄装置112拍摄到的图像数据。在图1所示的图像处理***1中,图像数据库111构成为经由网络110与图像处理装置100相连接,但是也可以在图像处理装置100内例如在存储装置103中设置图像数据库111。
红外线发射器114以及快门眼镜115是用于对显示装置107中显示的视差图像进行立体观察的装置。用于实现立体视觉的装置结构例如具有主动快门眼镜方式或偏光方式、分光方式、互补色(Anaglyph)等,可以使用其中任意一个方式。图1的装置结构例子(红外线发射器114以及快门眼镜115)表示了主动快门眼镜方式的装置结构例子。
在将显示装置107作为立体视觉监视器进行使用时,交替切换右眼用视差图像和左眼用视差图像来进行显示。快门眼镜115与立体视觉监视器中显示的视差图像的切换定时同步地交替遮挡右眼和左眼的视界。红外线发射器114向快门眼镜115发送用于使立体视觉监视器以及快门眼镜115同步的控制信号。在立体视觉监视器中交替显示左眼用视差图像和右眼用视差图像,在立体视觉监视器中显示左眼用视差图像的期间快门眼镜115遮挡右眼的视界,在立体视觉监视器中显示右眼用视差图像时快门眼镜115遮挡左眼的视界。通过这样联动地切换在立体视觉监视器中显示的图像与快门眼镜115的状态,在观察者的两眼中分别残留余像,从而映出为立体视觉图像。
此外,作为立体视觉监视器,通过使用柱状透镜(Lenticular lens)等光线控制元件,观察者可通过裸眼立体观察例如3视差以上的多视差图像。可以使用该种类的立体视觉监视器来作为本发明的图像处理装置100的显示装置。
在这里,参照图2以及图3对立体视觉显示以及视差图像进行说明。
视差图像是指通过针对作为处理对象的体数据每次以预定的视角(也称为视差角)移动视点位置来进行渲染处理而生成的图像。为了进行立体视觉显示,需要视差数量的视差图像。在利用两眼的视差来进行立体视觉显示时,如图2所示,将视差数设为2。当视差数为2时,生成右眼(视点P1)用视差图像g1-1和左眼(视点P2)用视差图像g1-2。
视角是指由邻接的视点P1、P2的位置以及焦点位置(例如,图2的原点O1)而决定的角度。
此外,视差数并不限于2,也可以为3以上。
图3对视点P、投影面S、体数据3、立体视觉空间4以及关注区域c1等进行说明,(a)表示平行投影的情况,(b)表示中心投影的情况。在图3中箭头表示渲染投影线。
在通过渲染处理描绘体数据3内的预定的关注区域c1时,设定包含关注区域c1且从视点P进行观察在深度方向上具有扩展的立体视觉空间4。在通过平行投影法来生成视差图像时,如图3(a)所示,假设在无限远处具有视点P,并使从视点P针对立体视觉空间4的各投影线平行。另一方面,在中心投影法中,如图3(b)所示,从预定的视点P设定了放射状的投影线。
此外,图3的例子表示在为平行投影法以及中心投影法中的任意一个时,设定了视点P、投影面S以及立体视觉空间4,以使关注区域c1成为立体视觉空间的中央的状态。操作者能够任意设定可观察体数据3内的关注区域c1、在关注区域c1内存在的单个或多个关心区域(未图示)的视点P(从哪个方向进行观察)。
接着,参照图4对图像处理装置100的功能结构进行说明。
如图4所示,图像处理装置100具备:体数据取得部21、条件设定部22、视差图像群生成部23、关注区域变更部26、以及立体视觉显示控制部29。
体数据取得部21从存储装置103或者图像数据库112等取得作为处理对象的医用图像的体数据3。体数据3是指对使用X射线CT装置或MRI装置等医用图像拍摄装置拍摄被检测体而得到的多个断层图像进行累积而得到的图像数据。体数据3的各三维像素具有CT图像等的浓度值(CT值)数据。
条件设定部22设定用于生成视差图像群的条件。条件是关注区域c1、投影方法(平行投影或中心投影)、视点P、投影面S、投影方向、立体视觉空间4的范围、渲染函数等。条件设定部22优选具备用于输入以及显示上述的各条件,并对其进行编辑的用户界面。
视差图像群生成部23具备:用于生成在条件设定部22设定的关注区域c1聚焦那样的第一视差图像群g1的第一焦点位置计算部24以及第一视差图像群生成部25、计算对应于关注区域的变更而设定的第二焦点位置的第二焦点位置计算部27、生成在由第二焦点位置计算部27计算出的第二焦点位置进行聚焦那样的视差图像群g2的第二视差图像群生成部28。
第一焦点位置计算部24基于通过条件设定部22设定的条件将体数据3的关注区域c1配置到立体视觉空间4的中央部4A,并将关注区域c1内的某个点作为原点O1。另外,将原点O1作为观察关注区域c1时的焦点(第一焦点位置F1)。
第一视差图像群生成部25以在第一焦点位置计算部24计算出的第一焦点位置聚焦的方式生成第一视差图像群g1。在第一视差图像群g1的视点数为两个时,如图2所示生成两个视差图像g1-1、g1-2。视差图像g1-1是通过将第一焦点位置F1作为图像的中央(原点O1),从视点P1对体数据3进行渲染处理,并在投影面S1进行投影而得到的图像。另外,视差图像g1-2是通过将第一焦点位置F1作为图像的中央(原点O1),从视点P2对包含关注区域c1的体数据进行渲染处理,并在投影面S1进行投影而得到的图像。
此外,在使视点数为两点以上(使视差数为2以上)时,与视点数为2点的情况相同,生成视差数的以在原点O1聚焦的方式生成的视差图像。在以下的说明中,将在关注区域c1内设定焦点F1而生成的各视差图像g1-1、g1-2……统称为视差图像群g1。
关注区域变更部26在与生成了第一视差图像群g1时的关注区域c1不同的区域中设定第二关注区域c2(参照图5(a))。关注区域变更部26优选具备在变更关注区域时使用的用户界面。
关于关注区域变更部26的用户界面,例如优选对体数据3进行体渲染处理使得显示关心区域,生成并显示附加了阴影的三维图像等,通过操作者操作输入装置109或鼠标108使三维图像旋转或使其平行移动,由此能够通过定点设备等指示体数据3内的期望的三维位置。
第二焦点位置计算部27计算关注区域变更后的焦点位置即第二焦点位置F2。使第二焦点位置F2为生成了第一视差图像群g1时的立体视觉中心线L上的点,并且为深度方向位置与变更后的关注区域c2的深度方向位置一致的点。立体视觉中心线L是指从投影面S向第一焦点位置F1延伸的垂线。
如图5(a)所示,当在与关注区域c1不同的位置设定第二关注区域c2时,第二焦点位置计算部27如图5(b)所示,在与第二关注区域c2相同的深度方向位置且为立体视觉中心线L上的点设定第二焦点F2。在关注区域c2广阔时,决定存在于第二关注区域c2内的代表点,在与该代表点相同的深度方向位置且为立体视觉中心线L上的点设定第二焦点F2。优选使代表点为存在于关注区域内的关心区域的边缘部等,容易抽出并且适合于医用图像诊断的点。
第二视差图像群生成部28以在第二焦点位置计算部27计算出的第二焦点位置F2聚焦的方式生成第二视差图像群g2。可以使第二视差图像群g2的视角θ2-1、θ2-2成为与第一视差图像群g1相同的视角(视角固定,参照图6),也可以通过第二焦点位置F2与各视点P1、P2之间的距离来决定(视角变更,参照图5(b))。
在视角固定时,基于焦点位置和预先设定的视角来对视点位置进行微调。对于视角固定的例子如后所述(第三实施方式)。在视角变更时,第二视差图像群g2的视角θ2-1、θ2-2成为与第一视差图像群g1的视角θ1-1、θ1-2不同的视角。第二视差图像群生成部28将生成的第二视差图像群g2存储到主存储器102或存储装置103。
此外,优选在设定条件时能够由操作者任意选择变更视角还是固定视角。另外,也可以一边确认立体视觉图像一边进行视角设定。对于视角设定在第三实施方式中进行说明。
立体视觉显示控制部29从主存储器102或存储装置103读出第一视差图像群g1或第二视差图像群g2,并进行立体视觉图像的显示控制。在立体图像的显示控制中,立体视觉显示控制部29一边交替切换在显示装置107中读出的视差图像的右眼用视差图像g1-1和左眼用视差图像g1-2一边进行显示。另外,向发射器114发送与显示装置107的显示切换定时同步地切换快门眼镜115的偏振动作的信号。通过经由快门眼镜115来观看视差图像,能够立体观察视差图像群g1或g2。
接着,参照图7的流程图来说明第一实施方式的图像处理装置100执行的立体视觉图像显示处理的流程。
CPU101从存储装置103或经由通信I/F104连接的图像数据库111取得作为处理对象的医用图像的体数据(步骤S101)。CPU101生成条件设定用三维图像,并在显示装置107中进行显示(步骤S102)。例如,在将血管作为观察部位时,生成从在步骤S101取得的体数据中抽出血管区域来描绘的体渲染图像,将其作为条件设定用三维图像在显示装置107中进行显示。
接着,CPU101进行用于生成视差图像的条件设定处理(步骤S103)。在步骤S103的条件设定处理中,设定从哪个位置如何观察关注区域c1(视点P1、P2、投影方法(平行投影/中心投影)、投影方向、投影面S1、关注区域c1等)、渲染函数、以及立体视觉空间4的范围等。在条件设定处理中,例如优选一边使在步骤S102中显示的条件设定用三维图像进行旋转或平行移动,一边生成操作者通过定点设备等能够指示关注区域c1或关心区域的位置的操作画面(用户界面),并对该操作画面进行显示。
CPU101基于在步骤S102设定的条件来计算第一视差图像群g1的原点O1(步骤S104)。CPU101计算第一视差图像群g1的原点O1,以便与投影方法(平行投影/中心投影)无关,使关注区域c1内的点位于立体视觉空间4的中央部4A。
此外,将原点设为O1的关注区域c1内的点可以是操作者通过定点设备等指定的三维位置,也可以是CPU101基于预定的条件自动计算出的位置。在自动计算原点O1时,CPU101将存在于关注区域c1内且满足预定的渲染条件的点作为原点O1。
例如,如果在描绘血管区域时,使用与体数据的浓度值相关的轮廓(直方图)来求出具有血管区域的像素值的坐标,将这些作为原点O1的候补点。当具有多个原点O1的候补点时,操作者从多个候补点中选择最适合的点来作为原点O1。或者,也可以从多个候补点中将满足预定条件的点作为最适合的点来设定原点O1。在第二实施方式中说明自动计算原点O1的方法的详细内容。
CPU101将在步骤S104计算出的原点O1作为第一焦点位置F1来生成第一视差图像群g1(步骤S105)。
在第一视差图像群g1的生成处理中,CPU101首先从存储装置103取得能够描绘预先设定的关心区域的渲染函数。然后,使用取得的渲染函数,按照在图6的步骤S102设定的条件(投影方法、视点、投影方向、投影面、以及立体视觉空间(投影范围)等)进行渲染处理。
图8(a)表示通过平行投影法生成视差图像g1-1、g1-2的情况,图8(b)表示通过中心投影法生成视差图像g1-1、g1-2的情况。
在平行投影法中,如图8(a)所示,针对体数据3设定多个平行的投影线,使用预定的渲染函数来进行渲染处理。向投影面S1投影各投影线的渲染处理结果来作为视差图像g1-1。关于视差图像g1-2,设定从视差图像g1-1的投影线倾斜了视角θ的投影线,并以成为与视差图像g1-1同一原点O1的方式设定原点O1,使用上述的渲染函数对体数据3进行渲染处理。在投影面S1上投影各投影线的渲染处理结果来作为视差图像g1-2。
在中心投影法中,如图8(b)所示,从视点P1针对体数据放射状地设定多个投影线,使用预定的渲染函数来进行渲染处理。将各投影线的渲染处理结果作为投影面S1的各像素值来生成视差图像g1-1。关于视差图像g1-2,设定从视差图像g1-1的投影线倾斜了根据两个视点P1、P2与焦点位置F1之间的位置关系而决定的视角θ的投影线,使用上述渲染函数来进行渲染处理。将各投影线的渲染处理结果作为投影面S2的各像素值来生成视差图像g1-2。
当在图7的步骤S105生成了第一视差图像群g1(视差图像g1-1、g1-2)时,CPU101使用生成的视差图像g1-1、g1-2来进行立体视觉显示(步骤S106)。在步骤S106的立体视觉显示中,CPU101在显示装置107中交替显示视差图像g1-1和g1-2,并且经由发射器114向快门眼镜115发送与显示切换定时同步的控制信号。快门眼镜115根据从发射器114发送的控制信号来切换左眼和右眼的遮光定时。由此,在显示一方的视差图像的过程中,另一方的视差图像的余像残留,实现立体视觉。
此后,例如当通过定点设备等指示体数据的三维位置,设定了新的关注区域c2时(步骤S107,是),CPU101将操作者指示的指示位置的深度位置固定,将在立体视觉中心线L上移动后的点作为第二焦点位置F2(步骤S108)。另外,CPU101设定视角。例如,在预先设定为根据焦点位置变更视角的情况下,CPU101根据第二焦点位置F2与各视点P1、P2之间的位置关系求出新的视角(步骤S109),且不改变投影方法、投影范围以及投影方向地生成第二视差图像群g2(步骤S110)。CPU101使用生成的第二视差图像群g2来进行立体视觉显示(步骤S111)。
关注区域变更后的焦点位置(第二焦点位置F2)不是指定的关注区域c2而是移动到立体视觉中心线L上的与关注区域c2相同的深度方向的位置,显示与基于第一视差图像群g1的立体视觉图像相同范围以及来自相同方向的立体视觉图像。
在现有的方法中,移动视差图像的原点以便在变更后的关注区域聚焦,所以图像的观察范围和投影方向也从之前的图像发生变更,但是通过本发明,在变更关注区域后,将观察者希望进行观察的范围以及方向固定,只变更焦点的深度方向位置。结果,能够显示在靠近变更后的关注区域的位置进行聚焦的图像。例如,在将血管区域的某个点作为关心区域时,如果变更投影方向或投影范围则关心区域有时由于血管的弯曲而被隐藏,但是通过本发明,因为投影方向和投影范围保持原有的状态,所以能够观察原有的关心区域,同时能够观察焦点移动到其他的关注区域的深度方向位置的立体视觉图像。
在每次输入关注区域的变更指示时(步骤S107,是),重复步骤S108~步骤S111的处理。在关注区域没有变更时(步骤S107,否),结束一连串的立体视觉图像显示处理。
如上所述,第一实施方式的图像处理装置100具备:输入单元(输入装置)109,其接受用于进行条件的设定、基于该条件的第一关注区域的设定、以及用于在与该第一关注区域不同的区域中设定第二关注区域的输入值,所述条件包含为生成立体视觉图像而使用的关注区域、视点位置、立体视觉空间的范围、以及渲染函数;处理单元(CPU)101,其基于所述条件来计算所述第一关注区域内的第一视差图像群的第一焦点位置,使用从图像拍摄装置112得到的体数据来生成来自该第一焦点位置的第一视差图像群,并计算在生成该第一视差图像群时所设定的立体视觉中心线上的,位于与所述第二关注区域内的点相同的深度方向的位置上的第二焦点位置,生成来自该第二焦点位置的第二视差图像群,使用所述第一视差图像群和所述第二视差图像群来生成立体视觉图像。
另外,换而言之,第一实施方式的图像处理装置100具备:条件设定部22,其设定用于根据从图像拍摄装置112取得的体数据生成立体视觉图像的条件;第一焦点位置计算部24,其基于由所述条件设定部22设定的条件在预定的关注区域内设定视差图像群的原点,并将该原点作为第一焦点位置;第一视差图像群生成部25,其以在所述第一焦点位置聚焦的方式根据所述体数据生成第一视差图像群;关注区域变更部26,其在与所述关注区域不同的区域设定第二关注区域;第二焦点位置计算部27,其将在生成所述第一视差图像群时所设定的立体视觉中心线上的,位于与所述关注区域变更部26设定的第二关注区域内的点相同的深度方向位置上的点作为第二焦点位置;第二视差图像群生成部28,其以在所述第二焦点位置聚焦的方式根据所述体数据生成第二视差图像群;以及立体视觉显示控制部29,其使用所述第一视差图像群或所述第二视差图像群来进行立体视觉图像的显示控制。
并且,作为一个例子,使第一实施方式的图像处理装置100动作的立体视觉显示方法是使用计算机等来生成立体视觉图像的立体视觉显示方法,该方法包含如下步骤:通过CPU101来取得从图像拍摄装置112取得的体数据的步骤;通过输入单元来设定用于生成立体视觉图像的条件的步骤;通过所述处理单元基于设定的条件在预定的关注区域内设定视差图像群的原点,并将该原点作为第一焦点位置的步骤;通过所述处理单元以在所述第一焦点位置聚焦的方式根据所述体数据生成第一视差图像群的步骤;通过所述输入单元在与所述关注区域不同的区域设定第二关注区域的步骤;通过所述处理单元将在生成所述第一视差图像群时设定的立体视觉中心线上的,位于与所述第二关注区域内的点相同的深度方向位置上的点作为第二焦点位置的步骤;通过所述处理单元以在所述第二焦点位置聚焦的方式根据所述体数据生成第二视差图像群的步骤;通过所述处理单元使用所述第一视差图像群或所述第二视差图像群来进行立体视觉图像的显示控制的步骤。
通过上述第一实施方式的图像处理装置100,在一度以在某个关注区域(第一关注区域)c1聚焦的方式生成立体视觉图像(视差图像)后变更了第一关注区域时,并非将变更后的第二关注区域c2自身作为焦点,而是以在位于与变更后的第二关注区域c2相同的深度方向的位置的,第一视差图像群g1的立体视觉中心线L上移动后的点(第二焦点位置)进行聚焦的方式生成第二视差图像g2。第二视差图像g2的投影方向和投影范围等与原有的图像(第一视差图像群)相同。因此,能够使原有的第一关注区域c1进入视野中,同时能够观察焦点移动到其他的第二关注区域c2的深度方向位置后的立体视觉图像。
另外,在上述第一实施方式的图像处理装置100中,所述输入装置109或鼠标108可以进一步指定所述体数据的三维位置,所述CPU101可以使用所述三维位置来指定所述第二关注区域内的点。
如此,如果通过三维位置来指定第二关注区域内的点,则与指定第一关注区域以及第二关注区域的变更点的情况相比,能够增加视差图像的移动方向的选项。
另外,在上述第一实施方式的图像处理装置100中,所述CPU101可以从所述第二关注区域抽出关心区域,计算抽出的关心区域中的至少一个代表点,将生成所述第一视差图像群时所设定的立体视觉中心线上的,位于与所述各代表点相同的深度方向位置上的各点分别设为第二焦点位置的候补点。
如此,如果决定存在于第二关注区域c2内的代表点,则因为在位于与该代表点相同的深度方向位置的、且立体视觉中心线L上的点设定第二焦点F2,所以即使第二关注区域c2广阔也能够迅速设定焦点位置。
另外,在上述第一实施方式的图像处理装置100中,特征在于,所述CPU101基于与所述体数据的三维像素值相关的轮廓和渲染条件来抽出所述关心区域。
如此,CPU101将存在于关注区域c1内的满足预定的渲染条件的点作为原点O1,所以能够省略操作者复杂的操作。
另外,在上述第一实施方式的图像处理装置100中,特征在于,所述CPU101将所述关心区域的边缘部作为所述代表点。
如此,通过将所述关心区域的边缘部作为所述代表点,例如因为不是所述关心区域的中心部,所以不会对图像诊断造成影响。
另外,在上述第一实施方式的图像处理装置100中,特征在于,还具备主存储器102或存储装置103,该主存储器102或存储装置103针对所述第二焦点位置的候补点分别生成视差图像群并进行存储,所述输入装置109或鼠标108输入切换所述候补点的指示,所述CPU101根据所述指示从所述主存储器102或所述存储装置103读出针对不同的候补点的视差图像群,并依次切换来进行立体视觉显示。
如此,通过根据操作者的指示依次切换焦点位置来进行显示,操作者能够一边确认视觉方式的差异,一边决定焦点位置。
在上述第一实施方式的图像处理装置100中,特征在于,所述CPU101通过与生成第一视差图像群时所设定的视角相同的视角来生成所述第二视差图像群。
在上述第一实施方式的图像处理装置100中,特征在于,所述CPU101通过与所述第二焦点位置和各视点位置之间的位置关系相对应的视角来生成第二视差图像群。
如此,在生成所述第二视差图像群时,设为与生成第一视差图像群时所设定的视角相同的视角,或者通过在生成所述第二视差图像群时设为与所示第二焦点位置和各视点位置之间的位置关系相对应的视角,能够省略在生成所述第二视差图像群时的视角设定,所以能够减少操作者针对输入装置109或鼠标108的操作次数,有助于提高可操作性。
[第二实施方式]
接着,参照图9~图14来说明本发明的第二实施方式。
第二实施方式的图像处理装置100通过CPU101自动计算视差图像群的焦点位置。
在条件设定步骤或变更关注区域的步骤中,当通过在操作画面上指示条件设定用三维图像这样的操作方法来指定关注区域时,能够指示画面上的纵横位置(二维位置),但是无法唯一确定深度方向位置。例如,在观察血管区域时,当在操作者指示的二维位置的深度方向上血管重叠存在的情况下,无法确定将哪个血管设为关注区域。因此,在第二实施方式中,说明焦点位置的最佳决定方法。
此外,因为第二实施方式的图像处理装置100的硬件结构以及除了视差图像群生成部23以外的功能结构与第一实施方式的图像处理装置100(参照图1、图4)相同,所以省略重复的说明。
图9是表示立体视觉图像显示处理(2)的整个流程的流程图。
步骤S201~步骤S203与第一实施方式相同。CPU101从图像数据库111取得作为处理对象的医用图像的体数据3(步骤S201),生成条件设定用三维图像,并在显示装置107中进行显示(步骤S202)。操作者一边旋转或平行移动该条件设定用三维图像,一边进行用于生成视差图像的条件设定(步骤S203)。条件包含关注区域、视点位置、立体视觉空间的范围、渲染函数等。
接着,CPU101基于在步骤S202设定的条件来计算第一视差图像群g1的原点的候补点(步骤S204)。在步骤S204中,CPU101从关注区域c1内计算作为第一视差图像群g1的原点O1的多个候补点。步骤S204的视差图像原点计算处理的详细内容如后所述。
CPU101将在步骤S204计算出的原点O1的各候补点分别设为焦点位置f11、f12、f13、…,并生成分别在各焦点位置f11、f12、f13、…聚焦的视差图像群g11、g12、g13、…(步骤S205)。视差图像群g11包含将候补点f11作为焦点的视差图像g11-1、视差图像g11-2、…。同样地,视差图像群g12包含将候补点f12作为焦点的视差图像g12-1、视差图像g12-2、…,视差图像群g13包含将候补点f13作为焦点的视差图像g13-1、视差图像g13-2、…。CPU101将生成的视差图像群g11、g12、g13、…存储在主存储器102或者存储装置103中。
CPU101读出所生成的多个视差图像群g11、g12、g13、…中的一个视差图像群(步骤S206),来进行立体视觉显示(步骤S207)。例如,从多个视差图像群中取得从视点开始位于最靠前的焦点位置的视差图像群来进行立体视觉显示。
当输入了候补点切换操作时(步骤S208,是),CPU101取得其他的视差图像群(步骤S206),并进行立体视觉显示(步骤S207)。在步骤S208中,例如从视点来看取得近前第二个焦点位置的视差图像群来进行立体视觉显示。如此,在每次输入候补点切换操作时(步骤S208,是),CPU101从主存储器102或存储装置103读出下一个深度方向位置的视差图像群来进行立体视觉显示。通过根据操作者的指示来切换显示焦点位置,操作者能够一边确认视觉方式的差异,一边决定焦点位置。
在输入了关注区域的变更指示时(步骤S209,是),CPU101从变更后的关注区域内计算新的焦点位置的候补点(步骤S210)。
焦点位置的候补点计算处理如后所述(参照图14)。
CPU101设定关注区域变更后的视角(步骤S211)。视角的设定与第一实施方式相同,可以设为视角固定(使用与在步骤S205生成视差图像时的视角相同的视角),也可以设为视角变更(视点位置与原有的立体视觉图像相同根据视点与焦点之间的距离来计算视角)。在步骤S211中,当变更视角时,CPU101针对第二焦点位置的各候补点分别计算视角。另一方面,当视角固定时,设定与在步骤S205生成视差图像群时的视角相同的视角。
CPU101针对在步骤S210计算出的第二焦点位置的各候补点,使用在步骤S211设定的视角来分别生成视差图像群g21、g22、g23、…(步骤S212)。CPU101将生成的视差图像群g21、g22、g23、…存储在主存储器102或存储装置103中。
CPU101取得针对变更后的关注区域生成的多个视差图像群g21、g22、g23、…中的一个视差图像群(步骤S213),来进行立体视觉显示(步骤S214)。例如,在关注区域变更后的多个视差图像群g21、g22、g23、…中,取得从视点开始最靠前的焦点位置的视差图像群来进行立体视觉显示。
在输入候补点切换操作时(步骤S215,是),CPU101从在步骤S212生成的视差图像群g21、g22、g23、…取得其他的视差图像群(步骤S213),并进行立体视觉显示(步骤S214)。例如,从视点来看取得关注区域c2内的近前的第二个焦点位置的视差图像群来进行立体视觉显示。如此,在每次输入候补点切换操作时(步骤S215,是),CPU101从主存储器102或存储装置103读出将下一个深度方向位置作为焦点位置的视差图像群来进行立体视觉显示。
在没有输入候补点切换操作以及关注区域的变更指示时(步骤S215,否、步骤S209,否),结束一连串的立体视觉图像生成、显示处理。
接着,参照图10来说明步骤S204的视差图像原点计算处理。
在开始视差图像原点计算处理时,设定从哪个位置开始观察关注区域(视点),并设定为无论在为平行投影和中心投影中的哪一个时关注区域位于投影面的中央。另外,选择用于描绘关心区域的渲染函数,设为从存储装置103取得的渲染函数。
CPU101首先求出与作为处理对象的体数据3的三维像素值(CT值)相关的轮廓(步骤S301)。在步骤S301中计算的轮廓是指与CT值相关的直方图。
接着,CPU101对在步骤S301生成的直方图应用上述的渲染函数(步骤S302),并使用关心区域的阈值来对渲染函数的输出结果进行阈值处理(步骤S303)。把在步骤S303中具有超过阈值的CT值的位于关注区域内的点作为视差图像群的原点的候补点(步骤S304)。
图11说明步骤S302、步骤S303中的渲染函数的应用例子以及阈值处理。
图11(a)是将用于设定某个CT值以上的部位的不透明度的渲染函数r1用于直方图H的例子。如图11(a)所示,在对步骤S301中计算出的直方图H应用渲染函数r1时,成为通过图11(a)的虚线表示的曲线h1。针对该输出结果h1进行用于辨别关心区域和非关心区域的区域的阈值处理。CPU101从关注区域内选择具有超过阈值的CT值的点,将其作为原点的候补点。
图11(b)是将用于设定具有特定的值附近的CT值的部位的不透明度的渲染函数r2用于直方图H的例子。如图11(b)所示,在对步骤S301中计算出的直方图H应用渲染函数r2时,成为图11(b)的虚线表示的曲线h2。针对该输出结果h2进行用于辨别关心区域和非关心区域的区域的阈值处理。CPU101从关注区域内选择具有超过阈值的CT值的点,将其作为原点的候补点。
图11(c)是将用于描绘某个CT值以上的部位的渲染函数r3用于直方图H的例子。如图11(c)所示,在对步骤S301中计算出的直方图H应用渲染函数r3时,成为图11(c)的虚线表示的曲线h3。针对该输出结果h3进行用于辨别关心区域和非关心区域的区域的阈值处理。CPU101从关注区域内选择具有超过阈值的CT值的点,将其作为原点的候补点。
图11(d)是将用于对属于某两个CT值范围的部位进行描绘的渲染函数r4用于直方图H的例子。如图11(d)所示,对在步骤S301计算出的直方图H应用渲染函数r4时,成为图11(d)的虚线表示的曲线h4。针对该输出结果h4进行用于辨别关心区域和非关心区域的区域的阈值处理。在图11(d)的例子中,由于没有超过阈值的点,因此不计算原点。
希望使视差图像群的原点为关心区域的边缘位置。除了图10的处理以外,CPU101可以进一步确定关心区域的边缘位置,将边缘位置作为原点。
以下,在说明的边缘位置计算处理中,假定某个模型来判断关心区域的边缘部分。关于模型,考虑像素值平缓迁移的两个区域的边界。在图12中,f(x)是表示投影线横穿了两个区域时的像素值的推移的曲线,f’(x)是各位置的像素值的一阶微分,f”(x)是二阶微分。图12的横轴表示横穿两个区域的直线上的坐标,纵轴表示像素值。在图12中,左侧区域对应于像素值小的区域,右侧区域对应于像素值大的区域,中央对应于两个区域的边界。
CPU101从像素值的一阶微分f’(x)和二阶微分f”(x)的组合来确定坐标,并判断该像素离边缘有多远。当使用表示坐标与输入输出比的关系的函数(以下称为输入函数)时,能够根据基于微分值计算出的坐标经由输入函数来求出与边缘增强滤波器相乘的输入输出比。
以下,通过数式来表示上述的模型,说明从像素值的一阶微分f’(x)和二阶微分f”(x)的组合导出坐标x的例子。在将两个区域中像素值小的区域的像素值平均设为Vmin,将像素值大的区域的像素值平均设为Vmax,将边界的宽度设为σ时,能够通过以下的式(1)来表示将边界作为原点的坐标x的像素值V。
其中,通过以下的式(2)来定义误差函数g。
通过式(1)、式(2),如以下的式(3)、式(4)那样导出坐标x的像素值的一阶微分、二阶微分。
通过该一阶微分和二阶微分如式(5)那样导出坐标x。
在边缘增强滤波器,求出一个图像内的各个像素值的一个微分的平均值和二阶微分的平均值,并根据它们使用式(5)来求出各像素值的坐标。通过式(6)来表示针对某个图像中的像素值V求出的平均的坐标p(V)。
在这里,像素值g(V)是像素值V的一阶微分的平均值,h(V)是像素值V的二阶微分的平均值。
使用上述的输入函数来将通过式(5)求出的坐标x转换为输入输出比。在将针对坐标x的输入函数设为β(x)时,通过式(7)来表示对像素值V分配的输入输出比α(V)。
α(V)=β(p(V))…(7)
通过在渲染处理中使用将这样求出的边缘增强滤波器α(V)乘以操作者准备的渲染函数而得到的值,能够得到强调了边界的渲染图像。CPU101通过计算在渲染处理的投影线上存在的增强后的像素值的坐标,能够确定关心区域的边缘位置。
例如,如图13所示,能够确定存在于关注区域c1内的关心区域ROI_1、ROI_2、ROI_3的边缘位置,并将各边缘位置作为原点的候补点f11~f16。
向第一视差图像群生成部25通知通过上述的视差图像群原点计算处理求出的视差图像群的原点的候补点,并在图9的步骤S205中分别生成将各候补点作为原点的视差图像群。另外,通过步骤S206~步骤S208的处理,切换候补点,通过针对各候补点求出的视差图像群来切换显示立体视觉图像。
通过图10的视差图像原点计算处理,在从预定的视点方向描绘关注区域时,能够将相当于关注区域内存在的几个关心区域的点作为视差图像群的原点。
接着,参照图14来说明步骤S210的焦点位置候补点计算处理。
关于焦点位置计算处理,与视差图像原点计算处理(图10)相同,首先,求出与作为处理对象的体数据3的CT值相关的轮廓(直方图)(步骤S401),对直方图应用预定的渲染函数(步骤S402),并使用关心区域的阈值来对渲染函数的输出结果进行阈值处理(步骤S403)。在步骤S403中抽出多个具有超过阈值的CT值的在关注区域内的点(代表点)。
接着,将在步骤S403中抽出的多个代表点的位置,在固定从视点观察深度方向的位置的同时,在立体视觉中心线L上进行移动(步骤S404)。立体视觉中心线L是指从第一视差图像群的原点O1相对于投影面S引出的垂线。CPU101将对代表点进行移动后的各点作为第二焦点位置的候补点(步骤S405)。
向第二视差图像群生成部28通知通过上述的焦点位置计算处理求出的第二焦点的候补点。在图9的步骤S211中设定视角,在步骤S212中分别生成将各候补点作为焦点的视差图像群。另外,通过步骤S213~S215的处理,切换候补点通过针对各候补点求出的视差图像群来切换显示立体视觉图像。
通过图14的焦点位置计算处理,在从预定的视点方向描绘关注区域时,能够求出与存在于关注区域内的几个关心区域的代表点深度方向位置相一致,并在原有的立体视觉图像(第一视差图像群)的立体视觉中心线L上进行了移动的位置,来作为焦点位置的候补点。
另外,与上述的视差图像原点计算处理(图10)相同,在计算焦点位置的候补点时,优选计算焦点位置从而在存在于关注区域内的关心区域的边缘附近进行聚焦。
如上所述,通过第二实施方式的图像处理装置100,CPU101自动计算将关注区域内的哪个点作为原点,或者作为焦点位置,并通过多个候补点分别生成各立体视觉图像,从而能够切换显示。因此,操作者能够一边确认将各候补点作为焦点(原点)时的立体视觉图像的视觉方式的差异一边显示最佳的立体视觉图像,并能够在诊断中使用。另外,在进行候补点的切换操作的定时之前,预先生成并存储了各候补点的视差图像群,因此能够马上根据切换操作来切换立体视觉图像的显示。
另外,在第二实施方式的图像处理装置100中,所述CPU101可以生成与所述体数据的三维像素值相关的轮廓,并基于生成的轮廓和渲染条件来计算存在于所述关注区域内的至少一个点来作为所述第一视差图像群的原点的候补点。
如此,通过根据与所述体数据的三维像素值相关的轮廓和渲染条件来计算存在于所述关注区域内的至少一个点来将其作为所述原点的候补点,在通过焦点位置计算处理从预定的视点方向描绘关注区域时,能够求出与存在于关注区域内的几个关心区域内的代表点深度方向位置相一致,并在原有的立体视觉图像(第一视差图像群)的立体视觉中心线L上移动后的位置来作为焦点位置的候补点。
另外,在第二实施方式的图像处理装置100中,可以进一步具备针对所述第二焦点位置的候补点分别生成视差图像群并进行存储的主存储器102或者存储装置103,所述输入装置109或鼠标108输入切换所述候补点的指示,所述CPU101根据所述指示从所述主存储器102或所述存储装置103读出关于不同候补点的视差图像群,并依次切换来进行立体视觉显示。
如此,通过根据操作者的指示来依次切换焦点位置进行显示,操作者能够一边确认视觉方式的差异,一边决定焦点位置。
在上述第二实施方式的图像处理装置100中,特征在于,所述输入装置109或鼠标108输入用于对固定视角来进行立体视觉显示还是变更视角来进行立体视觉显示进行切换的指示,所述CPU101通过与生成第一视差图像时设定的视角相同的视角生成所述第二视差图像群,并且通过和所述第二焦点位置与视点之间的距离相对应的视角生成第二视差图像群,并将其存储到主存储器102或所述存储装置103,根据来自所述输入装置109或鼠标108的指示从所述主存储器102或所述存储装置103读出视角设定不同的视差图像群,进行切换显示。
如此,因为在生成所述第二视差图像群时,通过与生成第一视差图像时设定的视角相同的视角生成所述第二视差图像群,并且通过和所述第二焦点位置与视点之间的距离相对应的视角生成第二视差图像群,所以能够省略生成所述第二视差图像群时的视角的设定,因此能够减少操作者对输入装置109或鼠标108的操作次数,有助于提高可操作性。
[第三实施方式]
接着,参照图15、图16来说明本发明的第三实施方式。
第三实施方式的图像处理装置100构成为,在第一或第二实施方式的立体视觉图像显示处理中,操作者能够切换使用预先固定设定的视角还是使用根据视点与焦点位置之间的距离计算出的视角。
为此,CPU101(第一视差图像生成部25、第二视差图像生成部28)在生成视差图像群时,生成视角固定的视差图像群以及视角变更的视差图像群这两方,并保持在主存储器102或存储装置103中。当操作者输入视角切换操作时,在显示视角固定的立体视觉图像的情况下,从主存储器102或存储装置103读出视角变更的视差图像群来更新显示。另外,当在显示视角变更的立体视觉图像的情况下输入视角切换操作时,CPU101从主存储器102或存储装置103读出视角固定的视差图像群来更新显示。
此外,第三实施方式的图像处理装置100的硬件结构与第一或第二实施方式的图像处理装置100(参照图1)相同,关于功能结构,除了第一视差图像群生成部25以及第二视差图像群生成部28以外的结构与第一或第二实施方式的图像处理装置100(参照图4)相同,所以省略重复的说明。
图15以及图16是表示第三实施方式的立体视觉图像显示处理(3)的流程的流程图。
步骤S501~S504与第二实施方式的步骤S201~S204相同。CPU101从图像数据库111取得作为处理对象的医用图像的体数据(步骤S501),生成条件设定用三维图像,并在显示装置107中进行显示(步骤S502)。操作者一边旋转或平行移动条件设定用三维图像,一边进行用于生成视差图像的条件设定(步骤S503)。条件包含关注区域、视点位置、立体视觉空间的范围、渲染函数等。
接着,CPU101基于在步骤S502设定的条件来计算第一视差图像群g1的原点(步骤S504)。在步骤S204中,例如与第二实施方式的原点计算处理(参照图10)相同,CPU101从关注区域c1内计算作为视差图像群g1的原点O1的多个候补点。
接着,CPU101以在步骤S504计算出的原点O1的各候补点分别成为焦点位置f11、f12、f13、…的方式生成视差图像群g11、g12、g13、…(步骤S505)。
在步骤S505的视差图像群生成处理中,CPU101使视角固定来计算各视差图像群g11A、g12A、g13A、…,并且还计算根据焦点位置变更了视角的视差图像群g11B、g12B、g13B、…。在时视角固定时,例如如图6所示,即使在焦点位置不同的情况下,也可对视点位置进行微调使得各右眼用视差图像的视角(θ1-1和θ2-1)成为同一角度来进行渲染处理。关于左眼用视差图像,同样地即使在焦点位置不同的情况下,也可对视点位置进行微调使得各左眼用视差图像的视角(θ1-2和θ2-2)成为同一角度来进行渲染处理。
另一方面,在变更视角的情况下,基于各焦点f11、f12、f13、…与视点P1、P2之间的距离来计算各视差图像群的视角,并通过计算出的视角来分别生成视差图像群g11B、g12B、g13B、…。
在将视角固定来变更焦点的深度方向位置时,能够不改变图像的形态地显示凹凸感不同的立体视觉图像。另一方面,在与焦点的深度方向位置相符地变更视角时,距离视点近的物体显著而变得凸起图像的形态稍微改变。由于视角设定的不同,立体视觉图像的视觉方式不同,很多时候根据操作者的喜好来选择哪个为好。
CPU101向主存储器102或存储装置103存储生成的视差图像群g11A、g11B、g12A、g12B、g13A、g13B、…。
CPU101读出生成的多个视差图像群中的一个视差图像群(步骤S506),进行立体视觉显示(步骤S507)。例如,在多个视差图像群中取得以从视点开始最靠前的候补点f11作为焦点的视差图像群g11的视角固定的视差图像群g11A来进行立体视觉显示。
在输入了视角切换操作时(步骤S508,是),CPU101取得焦点位置与原有的视差图像群相同视角变更的视差图像群g11B(步骤S506),进行立体视觉显示(步骤S507)。
在输入了候补点切换操作时(步骤S509,是),取得其他焦点的视差图像群的视角与输入候补点切换操作时的设定相同的视差图像群(步骤S506),进行立体视觉显示(步骤S507)。例如,因为在输入候补点切换操作时正在显示视角变更的视差图像群g11B,所以CPU101在从视点来观察近前的第二个焦点位置f12的视差图像群中取得视角变更的视差图像群g12B来进行立体视觉显示。如此,在每次输入视角切换操作时,CPU101交替切换视角固定或视角变更的视差图像群。另外,在每次输入候补点切换操作时,从主存储器102或存储装置103读出下一个深度方向位置的视差图像群来进行立体视觉显示。
在输入了关注区域的变更指示时(步骤S510,是),CPU101从变更后的关注区域c2内计算焦点位置的候补点(图16的步骤S511)。例如,通过第二实施方式的焦点位置计算处理(参照图14)来计算焦点位置的候补点。
接着,CPU101将在步骤S511计算出的焦点位置的各候补点f21、f22、f23、…作为焦点来分别生成视差图像群g21、g22、g23、…(步骤S512)。
在步骤S512的视差图像群生成处理中,CPU101将视角固定来计算各视差图像群g21A、g22A、g23A、…,并且计算变更了视角的视差图像群g21B、g22B、g23B、…。
CPU101向主存储器102或存储装置103存储生成的视差图像群g21A、g21B、g22A、g22B、g23A、g23B、…。
CPU101读出生成的多个视差图像群中的一个视差图像群(步骤S513),并进行立体视觉显示(步骤S514)。例如,在多个视差图像群中取得从视点开始最靠近的焦点位置的视差图像群的视角固定的视差图像群g21A来进行立体视觉显示。
在输入了视角切换操作时(步骤S515,是),CPU101取得焦点位置与原有的视差图像群g21A相同的视角变更的视差图像群g21B(步骤S513),进行立体视觉显示(步骤S514)。
在输入候补点切换操作时(步骤S516,是),取得其他焦点的视差图像群(步骤S513),进行立体视觉显示(步骤S514)。关于视角,应用输入候补点切换操作时的视角设定。因为在输入候补点切换操作时,正显示视角变更的视差图像群g21B,所以CPU101在从视点来观察近前的第二个焦点位置f22的视差图像群g22A、g22B中取得视角变更的视差图像群g22B来进行立体视觉显示。如此,在每次输入视角切换操作时,CPU101交替切换视角固定或视角变更的视差图像群。另外,在每次输入候补点切换操作时,从主存储器102或存储装置103读出下一个深度方向位置的视差图像群来进行立体视觉显示。
在输入了关注区域的变更指示时(步骤S517,是),返回步骤S511,重复进行步骤S511~步骤S516的处理。在没有输入视角切换操作、候补点切换操作、以及关注区域的变更指示时(步骤S515,否、步骤S516,否、步骤S517,是),结束一连串的立体视觉图像显示处理(3)。
如上所述,第三实施方式的图像处理装置100在对焦点位置不同的视差图像群进行立体视觉显示时,操作者能够自由切换设为原有的视角不变(视角固定),还是设为基于视点与焦点的位置计算出的视角(视角变更)。
使视角固定的情况与变更视角的情况相比,哪一个立体视觉图像容易观看根据操作者或观察对象而不同。由此,通过可选择视角设定,能够通过与操作者的嗜好相对应的最佳视角进行立体视觉显示,能够提供对更多的操作者来说容易观察的立体视觉图像。
此外,在第三实施方式中,构成为在变更了焦点位置时操作者可切换固定视角还是变更视角,但是还可以构成为在不变更焦点位置时生成几个只变更了视角的视差图像群,并将它们进行切换显示。
在不变更焦点位置地变更视角时,能够显示凹凸感不同的立体视觉图像,因此操作者能够选择喜好的视角(凹凸感)。
另外,在上述实施方式中,说明了图像处理装置100经由网络110与图像拍摄装置112连接的例子,但是也可以在图像拍摄装置112的内部设置图像处理装置100来发挥功能。
以上,一边参照附图一边对本发明的图像处理装置等的优选实施方式进行了说明,但是本发明并不限于上述的实施例。本领域技术人员在本申请公开的技术的思想范畴内想到并获得各种变形例子或修正例子是不言自明的,并了解到这些属于本发明的技术范围。
符号的说明
1:图像处理***
100:图像处理装置
101:CPU
102:主存储器
103:存储装置
104:通信I/F
105:显示存储器
106a、106b:I/F
107:显示装置
108:鼠标
109:输入装置
110:网络
111:图像数据库
112:图像拍摄装置
114:红外线发射器
115:快门眼镜
21:体数据取得部
22:条件设定部
23:视差图像群生成部
24:第一焦点位置计算部
25:第一视差图像群生成部
26:关注区域变更部
27:第二焦点位置计算部
28:第二视差图像群生成部
29:立体视觉显示控制部
F1:第一焦点(视差图像原点O1)
f11、f12:原点候补点
F2:第二焦点
f21、f22:第二焦点的候补点
g1:第一视差图像群
g2:第二视差图像群
P1、P2:视点
c1、c2:关注区域
L:立体视觉中心线
θ:视角
ROI-1、ROI-2:关心区域。

Claims (13)

1.一种图像处理装置,其特征在于,具备:
输入单元,其接受用于进行条件的设定、基于该条件的第一关注区域的设定、以及用于在与该第一关注区域不同的区域中进行第二关注区域的设定的输入值,所述条件包含为生成立体视觉图像而使用的关注区域、视点位置、立体视觉空间的范围、以及渲染函数;
处理单元,其基于所述条件来计算所述第一关注区域内的第一视差图像群的第一焦点位置,使用从图像拍摄装置得到的体数据来生成来自该第一焦点位置的第一视差图像群,并计算在生成该第一视差图像群时所设定的立体视觉中心线上的,与所述第二关注区域内的点相同的深度方向位置上的第二焦点位置,生成来自该第二焦点位置的第二视差图像群,使用所述第一视差图像群和所述第二视差图像群来生成立体视觉图像。
2.根据权利要求1所述的图像处理装置,其特征在于,
所述输入单元还指定所述体数据的三维位置,
所述处理单元使用所述三维位置来指定所述第二关注区域内的点。
3.根据权利要求1所述的图像处理装置,其特征在于,
所述处理单元从所述第二关注区域抽出关心区域,计算抽出的关心区域的至少一个代表点,将在生成所述第一视差图像群时设定的立体视觉中心线上的、位于与所述各代表点相同的深度方向位置上的各点分别作为第二焦点位置的候补点。
4.根据权利要求3所述的图像处理装置,其特征在于,
所述处理单元基于与所述体数据的三维像素值相关的轮廓和渲染条件来抽出所述关心区域。
5.根据权利要求3所述的图像处理装置,其特征在于,
所述处理单元将所述关心区域的边缘部作为所述代表点。
6.根据权利要求3所述的图像处理装置,其特征在于,
还具备存储单元,该存储单元针对所述第二焦点位置的候补点分别生成视差图像群并进行存储,
所述输入单元输入切换所述候补点的指示,
所述处理单元根据所述指示从所述存储单元读出关于不同的候补点的视差图像群,并依次切换来进行立体视觉显示。
7.根据权利要求1所述的图像处理装置,其特征在于,
所述处理单元生成与所述体数据的三维像素值相关的轮廓,并基于生成的轮廓和渲染条件计算在所述关注区域内存在的至少一个点来作为第一视差图像群的原点的候补点。
8.根据权利要求7所述的图像处理装置,其特征在于,
还具备存储单元,该存储单元针对所述第二焦点位置的候补点分别生成视差图像群并进行存储,
所述输入单元输入切换所述候补点的指示,
所述处理单元根据所述指示从所述存储单元读出关于不同的候补点的视差图像群,并依次切换来进行立体视觉显示。
9.根据权利要求1所述的图像处理装置,其特征在于,
所述处理单元通过与生成第一视差图像群时设定的视角相同的视角来生成所述第二视差图像群。
10.根据权利要求1所述的图像处理装置,其特征在于,
所述处理单元通过和所述第二焦点位置与各视点位置之间的位置关系相对应的视角来生成第二视差图像群。
11.根据权利要求1所述的图像处理装置,其特征在于,
所述输入单元输入用于对固定视角来进行立体视觉显示还是变更视角来进行立体视觉显示进行切换的指示,
所述处理单元通过与生成第一视差图像时设定的视角相同的视角生成所述第二视差图像群,并且通过和所述第二焦点位置与视点之间的距离相对应的视角生成第二视差图像群,并存储到存储单元,
根据来自所述输入单元的指示从所述存储单元读出视角设定不同的视差图像群,进行切换显示。
12.一种图像处理装置,其特征在于,具备:
条件设定部,其设定用于根据从图像拍摄装置取得的体数据生成立体视觉图像的条件;
第一焦点位置计算部,其基于由所述条件设定部设定的条件在预定的关注区域内设定视差图像群的原点,并将该原点作为第一焦点位置;
第一视差图像群生成部,其以在所述第一焦点位置聚焦的方式根据所述体数据生成第一视差图像群;
关注区域变更部,其在与所述关注区域不同的区域设定第二关注区域;
第二焦点位置计算部,其将在生成所述第一视差图像群时所设定的立体视觉中心线上的,位于与所述关注区域变更部设定的第二关注区域内的点相同的深度方向位置上的点作为第二焦点位置;
第二视差图像群生成部,其以在所述第二焦点位置聚焦的方式根据所述体数据生成第二视差图像群;以及
立体视觉显示控制部,其使用所述第一视差图像群或所述第二视差图像群来进行立体视觉图像的显示控制。
13.一种立体视觉显示方法,其使用计算机来生成立体视觉图像,其特征在于,包含:
通过处理单元来取得从图像拍摄装置得到的体数据的步骤;
通过输入单元来设定用于生成立体视觉图像的条件的步骤;
通过所述处理单元基于设定的条件在预定的关注区域内设定视差图像群的原点,并将该原点作为第一焦点位置的步骤;
通过所述处理单元以在所述第一焦点位置聚焦的方式根据所述体数据生成第一视差图像群的步骤;
通过所述输入单元在与所述关注区域不同的区域设定第二关注区域的步骤;
通过所述处理单元将在生成所述第一视差图像群时设定的立体视觉中心线上的,位于与所述第二关注区域内的点相同的深度方向位置上的点作为第二焦点位置的步骤;
通过所述处理单元以在所述第二焦点位置聚焦的方式根据所述体数据生成第二视差图像群的步骤;
通过所述处理单元使用所述第一视差图像群或所述第二视差图像群来进行立体视觉图像的显示控制的步骤。
CN201580023508.6A 2014-06-03 2015-04-17 图像处理装置以及立体视觉显示方法 Pending CN106463002A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014114832 2014-06-03
JP2014-114832 2014-06-03
PCT/JP2015/061792 WO2015186439A1 (ja) 2014-06-03 2015-04-17 画像処理装置及び立体視表示方法

Publications (1)

Publication Number Publication Date
CN106463002A true CN106463002A (zh) 2017-02-22

Family

ID=54766519

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580023508.6A Pending CN106463002A (zh) 2014-06-03 2015-04-17 图像处理装置以及立体视觉显示方法

Country Status (4)

Country Link
US (1) US20170272733A1 (zh)
JP (1) JPWO2015186439A1 (zh)
CN (1) CN106463002A (zh)
WO (1) WO2015186439A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108337497A (zh) * 2018-02-07 2018-07-27 刘智勇 一种虚拟现实视频/图像格式以及拍摄、处理、播放方法和装置
CN112585987A (zh) * 2018-06-22 2021-03-30 皇家飞利浦有限公司 用于生成图像数据流的装置和方法
CN112700365A (zh) * 2019-10-22 2021-04-23 财团法人工业技术研究院 图像转换方法及图像转换网络

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6468907B2 (ja) * 2015-03-25 2019-02-13 キヤノン株式会社 画像処理装置及び画像処理方法及びプログラム
KR20210066797A (ko) * 2018-08-29 2021-06-07 피씨엠에스 홀딩스, 인크. 모자이크 주기적 층에 기반한 광 필드 디스플레이를 위한 광학 방법 및 시스템
US10616567B1 (en) 2018-09-21 2020-04-07 Tanzle, Inc. Frustum change in projection stereo rendering

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012944A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及び撮像装置
CN102821695A (zh) * 2011-04-07 2012-12-12 株式会社东芝 图像处理***、装置、方法以及程序
CN102843564A (zh) * 2011-06-22 2012-12-26 株式会社东芝 图像处理***、装置以及方法
CN102892018A (zh) * 2011-07-19 2013-01-23 株式会社东芝 图像处理***、装置、方法以及医用图像诊断装置
WO2013166215A1 (en) * 2012-05-01 2013-11-07 Pelican Imaging Corporation CAMERA MODULES PATTERNED WITH pi FILTER GROUPS
WO2014024500A1 (ja) * 2012-08-10 2014-02-13 株式会社ニコン 画像処理方法、画像処理装置、撮像装置および画像処理プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005043464A2 (en) * 2003-11-03 2005-05-12 Bracco Imaging S.P.A. Dynamic crop box determination for optimized display of a tube-like structure in endoscopic view (“crop box”)

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012944A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及び撮像装置
CN102821695A (zh) * 2011-04-07 2012-12-12 株式会社东芝 图像处理***、装置、方法以及程序
CN102843564A (zh) * 2011-06-22 2012-12-26 株式会社东芝 图像处理***、装置以及方法
CN102892018A (zh) * 2011-07-19 2013-01-23 株式会社东芝 图像处理***、装置、方法以及医用图像诊断装置
JP2013039351A (ja) * 2011-07-19 2013-02-28 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
WO2013166215A1 (en) * 2012-05-01 2013-11-07 Pelican Imaging Corporation CAMERA MODULES PATTERNED WITH pi FILTER GROUPS
WO2014024500A1 (ja) * 2012-08-10 2014-02-13 株式会社ニコン 画像処理方法、画像処理装置、撮像装置および画像処理プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108337497A (zh) * 2018-02-07 2018-07-27 刘智勇 一种虚拟现实视频/图像格式以及拍摄、处理、播放方法和装置
CN112585987A (zh) * 2018-06-22 2021-03-30 皇家飞利浦有限公司 用于生成图像数据流的装置和方法
CN112585987B (zh) * 2018-06-22 2023-03-21 皇家飞利浦有限公司 用于生成图像数据流的装置和方法
CN112700365A (zh) * 2019-10-22 2021-04-23 财团法人工业技术研究院 图像转换方法及图像转换网络

Also Published As

Publication number Publication date
JPWO2015186439A1 (ja) 2017-04-20
WO2015186439A1 (ja) 2015-12-10
US20170272733A1 (en) 2017-09-21

Similar Documents

Publication Publication Date Title
CN106463002A (zh) 图像处理装置以及立体视觉显示方法
Yuan et al. The 2017 hands in the million challenge on 3d hand pose estimation
CN103702612B (zh) 图像处理***、装置、方法以及医用图像诊断装置
EP2765776A1 (en) Graphical system with enhanced stereopsis
JP2938502B2 (ja) 画像表示装置
EP2977961B1 (de) Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
Čopič Pucihar et al. The use of surrounding visual context in handheld AR: device vs. user perspective rendering
CN102972038A (zh) 图像处理装置、图像处理方法、程序、集成电路
CN102984532A (zh) 图像处理***、图像处理装置以及图像处理方法
CN109983767B (zh) 图像处理装置、显微镜***、图像处理方法及计算机程序
JPWO2012101719A1 (ja) 3次元画像撮影装置及び3次元画像撮影方法
DE202011110655U1 (de) Mehrskalige dreidimensionale Orientierung
CN105640534A (zh) 身体器官的差别标测
JP6353827B2 (ja) 画像処理装置
CN102982233A (zh) 具有立体视觉显示的医学影像工作站
JP2011082829A (ja) 画像生成装置、画像生成方法、および、プログラム
CN103608849A (zh) 图像处理方法和图像处理装置
CN111291746B (zh) 影像处理***及影像处理方法
WO2013080527A1 (ja) 画像処理装置、方法、及びプログラム
CN102892015A (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
Liu et al. Visually imbalanced stereo matching
JP2015050482A (ja) 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
JP2011070415A (ja) 画像処理装置及び画像処理方法
CN109672873B (zh) 光场显示设备及其光场影像的显示方法
CN102846377A (zh) 医用图像处理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20191108

AD01 Patent right deemed abandoned