WO2014126219A1 - X線診断装置 - Google Patents

X線診断装置 Download PDF

Info

Publication number
WO2014126219A1
WO2014126219A1 PCT/JP2014/053532 JP2014053532W WO2014126219A1 WO 2014126219 A1 WO2014126219 A1 WO 2014126219A1 JP 2014053532 W JP2014053532 W JP 2014053532W WO 2014126219 A1 WO2014126219 A1 WO 2014126219A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
unit
sight
line
ray
Prior art date
Application number
PCT/JP2014/053532
Other languages
English (en)
French (fr)
Inventor
材木 隆二
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Priority to CN201480008831.1A priority Critical patent/CN104994787B/zh
Publication of WO2014126219A1 publication Critical patent/WO2014126219A1/ja
Priority to US14/823,550 priority patent/US9968320B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/08Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/545Control of apparatus or devices for radiation diagnosis involving automatic set-up of acquisition parameters

Definitions

  • Embodiments of the present invention relate to an X-ray diagnostic apparatus.
  • image stereoscopic technique that enables a left-eye image and a right-eye image with an angle difference to be displayed on a monitor so that the image can be viewed stereoscopically.
  • Image stereoscopic viewing allows the user to easily grasp the object's front-rear relationship and surface roughness information that was difficult to understand on a normal two-dimensional display.
  • image stereoscopic technology has been applied to the medical field. For example, a left-eye image and a right-eye image for stereoscopically viewing a subject from a specific direction are collected in advance, and the subject is related to the subject. By interpreting the stereoscopic video, the user can grasp in detail the positional relationship between the organs and blood vessels around the subject.
  • the user may want to stereoscopically view the subject from other directions.
  • the user needs to reset the photographing angle by inputting a direction in which the user wants to view stereoscopically.
  • the above-described shooting angle setting operation by the user is a complicated operation. Therefore, by collecting a plurality of images in advance so as to cope with stereoscopic vision from a plurality of directions of the subject, it is possible to easily interpret a stereoscopic video image from other directions with respect to the subject. .
  • a plurality of images are collected by an X-ray imaging apparatus or the like, there is a problem that the exposure dose of the subject increases.
  • the purpose is to provide an X-ray diagnostic apparatus that can improve work efficiency while suppressing the exposure dose in diagnosis and treatment of a subject.
  • the X-ray diagnostic apparatus includes an X-ray generation unit that generates X-rays, an X-ray detection unit that detects X-rays generated from the X-ray generation unit and transmitted through a subject, and the X-ray generation A holding unit that holds the X-ray detection unit and the X-ray detection unit facing each other, a display unit that displays an X-ray image of the subject based on an output of the X-ray detection unit, and the display unit A position specifying unit that specifies the position of the face of the user who is visually recognizing, and a moving unit that moves the holding unit to a shooting position corresponding to the position of the specified user's face.
  • FIG. 1 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus according to this embodiment.
  • FIG. 2 is a diagram showing an appearance of the gantry of the X-ray diagnostic apparatus according to the present embodiment.
  • FIG. 3 is an explanatory diagram for explaining the user movement displacement.
  • FIG. 4A is a diagram illustrating a reference user position in the examination room coordinate system.
  • FIG. 4B is an explanatory diagram for describing a shooting angle set corresponding to the reference user position.
  • FIG. 4C is a diagram illustrating the user position after movement from the reference user position in the examination room coordinate system.
  • FIG. 4D is an explanatory diagram for describing a shooting angle set corresponding to the user position after movement.
  • FIG. 4A is a diagram illustrating a reference user position in the examination room coordinate system.
  • FIG. 4B is an explanatory diagram for describing a shooting angle set corresponding to the reference user position.
  • FIG. 4C is a diagram illustrating the user position after
  • FIG. 5 is a flowchart showing an example of a series of processes using the X-ray diagnostic apparatus according to the present embodiment.
  • FIG. 6 is a diagram illustrating a plurality of lines of sight set with respect to the stereoscopic target position.
  • FIG. 7 is a diagram corresponding to FIG. 6 and showing the screen transition of the display unit during the line-of-sight switching operation.
  • FIG. 1 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus 1 according to this embodiment.
  • the X-ray diagnostic apparatus 1 includes a C-arm 11, a C-arm support mechanism 12, a bed 13, a top plate 14, an X-ray generator 15, and a high voltage generator 16.
  • the gantry unit of the X-ray diagnostic apparatus 1 includes a C-arm 11, a C-arm support mechanism 12, a bed 13, and a top plate 14.
  • the C-arm support mechanism 12 supports the C-arm 11 rotatably.
  • the C-shaped arm 11 holds the X-ray generator 15 at one end thereof.
  • the X-ray generator 15 is a vacuum tube that generates X-rays.
  • the X-ray generator 15 generates X-rays when a high voltage (tube voltage) is applied from the high voltage generator 16.
  • the X-ray generator 15 has a radiation window for emitting generated X-rays.
  • An X-ray diaphragm 17 is attached to the radiation window of the X-ray generator 15.
  • the X-ray diaphragm 17 is a pyramid limiter that can adjust the X-ray irradiation field on the detection surface of the X-ray detector 18. By adjusting the X-ray irradiation field by the X-ray diaphragm 17, unnecessary exposure to the subject can be reduced.
  • the C-arm 11 holds the X-ray detection unit 18 at the other end so as to face the X-ray generation unit 15.
  • the X-ray detection unit 18 has a plurality of X-ray detection elements. The plurality of X-ray detection elements are arranged in a two-dimensional array.
  • the two-dimensional array detector is called an FPD (Flat Panel Display).
  • Each element of the FPD detects X-rays emitted from the X-ray generator 15 and transmitted through the subject. Each element of the FPD outputs an electrical signal corresponding to the detected X-ray intensity.
  • a line connecting the focal point of the irradiation window of the X-ray generation unit 15 and the center position of the X-ray detection surface of the X-ray detection unit 18 is referred to as an imaging axis (fifth rotation axis).
  • the rotation of the X-ray detection unit 18 around the fifth rotation axis determines the top and bottom of the captured image. Note that the top, bottom, left, and right of the image can be changed as appropriate by changing the method of reading out electrical signals from each element of the X-ray detector 18.
  • the C-arm support mechanism 12 may be either a ceiling-suspended type that holds the C-shaped arm 11 suspended from the ceiling, or a floor-mounted type that holds the C-shaped arm 11 with a floor-mounted mechanism. In this embodiment, a floor-standing type will be described as an example.
  • the C-arm support mechanism 12 includes a floor turning arm 121, a stand 122, and an arm holder 123.
  • the floor turning arm 121 is provided on the floor surface at one end so as to be turnable around the first rotation axis.
  • a stand 122 is supported so as to be rotatable around the second rotation axis.
  • the first and second rotation axes are substantially parallel to the orthogonal axis.
  • An arm holder 123 is supported on the stand 122 so as to be rotatable about the third rotation axis.
  • the third rotation axis is an axis substantially orthogonal to the orthogonal axis.
  • the arm holder 123 supports the C-shaped arm 11 so as to be rotatable (slidably rotated) in an arc along the shape of the C-shaped arm 11.
  • the rotation axis of this slide rotation is called the fourth rotation axis.
  • the C-arm support mechanism 12 may support the C-arm 11 so as to be movable in a major axis direction and a minor axis direction, which will be described later.
  • the X-ray generation unit 15 and the X-ray detection unit 18 are held by the C-arm 11 and the C-arm 11 is rotatably supported by the C-arm support mechanism 12.
  • other support mechanisms may be used as long as the X-ray generation unit 15 and the X-ray detection unit 18 can be held so as to face each other.
  • the C-arm 11 and the C-arm support mechanism 12 are replaced by a first holding unit that rotatably holds the X-ray generation unit 15 and a second holding unit that rotatably holds the X-ray detection unit 18.
  • the first holding unit has a mechanism placed on the floor
  • the second holding unit has a mechanism suspended from the ceiling.
  • the X-ray generation unit 15 and the X-ray detection unit 18 are held in a facing direction by the first holding unit and the second holding unit. Then, the rotation operation of the first holding unit and the rotation operation of the second holding unit are controlled to be synchronized, for example, so that continuous X-ray imaging is possible.
  • a bed 13 and a top plate 14 are arranged.
  • the bed 13 supports the top plate 14 on which the subject is placed so as to be movable with respect to three orthogonal axes.
  • the three orthogonal axes are defined by, for example, a short axis of the top plate 14, a long axis of the top plate 14, and an orthogonal axis orthogonal to the short axis and the long axis.
  • the direction along the major axis of the top plate 14 is referred to as the major axis direction.
  • a direction along the short axis of the top plate 14 is referred to as a short axis direction.
  • a direction along the orthogonal axis is referred to as an orthogonal axis direction.
  • the moving unit 19 independently rotates the C-arm 11 and the C-arm support mechanism 12 (in addition to the holding unit) around the first to fifth rotation axes according to control by the imaging control unit 25 described later. Further, the moving unit 19 slides the top plate 14 in the major axis direction or the minor axis direction and moves it up and down in the orthogonal axis direction according to control by the imaging control unit 25 described later. In addition, the moving unit 19 uses the top plate 14 to tilt the top plate 14 with respect to the installation surface of the bed 13 with an axis parallel to at least one of the major axis direction and the minor axis direction as a rotation axis. Rotate and move.
  • the slide movement, the up-and-down movement, and the rotational movement are collectively referred to as movement.
  • the input unit 20 functions as an interface for inputting instruction information from the user to the X-ray diagnostic apparatus 1.
  • input devices such as a mouse, a keyboard, a trackball, a touch panel, and buttons can be used as appropriate.
  • the instruction information includes an instruction to move the C-arm 11, an instruction to start X-ray imaging, an instruction to start an imaging angle setting process, an instruction to set an imaging condition, an instruction to set a reference line of sight, and the like.
  • the input unit 20 includes an operation console for the user to move the C-arm 11 and the C-arm support mechanism 12.
  • the operation console includes, for example, a button, a handle, a trackball, and the like for independently rotating the C-arm 11 around the plurality of rotation axes.
  • the input unit 20 includes a switch (hereinafter referred to as an imaging switch) that triggers the start of X-ray imaging by the X-ray diagnostic apparatus 1.
  • the photographing switch is typically a foot switch.
  • the imaging control unit 25 described later controls each unit in order to start X-ray imaging when the imaging switch is pressed.
  • the input unit 20 includes a switch (hereinafter referred to as a setting switch) that triggers the start of an imaging angle setting process described later by the X-ray diagnostic apparatus 1.
  • the imaging control unit 25 described later executes an imaging angle setting process described later by the X-ray diagnostic apparatus 1 when the setting switch is pressed.
  • the setting switch may be shared with the photographing switch (hereinafter referred to as a common switch).
  • the imaging control unit 25 controls each unit in order to automatically start X-ray imaging after performing an imaging angle setting process described later when the shared switch is pressed.
  • X-ray imaging conditions include conditions such as tube current value, tube voltage value, and imaging time, for example.
  • the shooting conditions are input in accordance with, for example, a user operation on a shooting condition setting support screen displayed on the display unit 32 described later.
  • a shooting condition setting support screen displayed on the display unit 32 described later.
  • an input field for the user to input a plurality of parameters respectively corresponding to the above-described plurality of conditions is displayed.
  • the line of sight is defined by a three-dimensional object position, a line-of-sight direction, and a display direction.
  • the stereoscopic target position is information for determining the center position of the subject that the user wants to stereoscopically view. In the case of stereoscopic viewing by the intersection method, the stereoscopic target position overlaps with the position of the convergence point where the line of sight of the right eye and the line of sight of the left eye intersect.
  • the line-of-sight direction is information for determining the direction of viewing the stereoscopic target position.
  • the display direction is information for determining the up / down / left / right direction of the subject when the stereoscopic target position is viewed from the line-of-sight direction.
  • the video is a stereoscopic image related to the subject when the stereoscopic target position is viewed from the line of sight, and the center position is the stereoscopic target position.
  • the top, bottom, left and right of the stereoscopic video correspond to the top, bottom, left and right defined by the display orientation.
  • the reference line of sight indicates the line of sight in a series of treatments on the subject.
  • the reference line of sight is preferably defined by the position of the subject to be most watched, the direction in which the position is viewed, and the top, bottom, left, and right of the image.
  • the reference line of sight is input in accordance with a user operation on a line-of-sight setting image displayed on the display unit 32 described later, for example.
  • the line-of-sight setting image is a 3D image relating to a reconstructed subject based on data of a plurality of X-ray images captured by the X-ray diagnostic apparatus 1.
  • the user can input the stereoscopic target position, the line-of-sight direction, and the display direction by operating the 3D image displayed on the display unit 32 with the mouse of the input unit 20 or the like. Specifically, the user can input a three-dimensional target position by clicking a specific operation, for example, a mouse on the line-of-sight setting image. Further, the user can input the line-of-sight direction and the display direction by rotating or moving the line-of-sight setting image with a mouse.
  • the line-of-sight direction corresponds to the direction of viewing the line-of-sight setting image being displayed.
  • the display orientation (up / down / left / right of the stereoscopic image) corresponds to up / down / left / right of the line-of-sight setting image being displayed.
  • the line-of-sight setting image is a 3D image relating to the subject collected by the X-ray diagnostic apparatus 1. Accordingly, the X-ray diagnostic apparatus 1 can set the imaging position of the patient placed on the top board 14 according to the stereoscopic target position, the line-of-sight direction, and the display direction set on the line-of-sight setting image. Thereby, the user can set a reference line of sight.
  • the line-of-sight setting image is not limited to the above-described image.
  • the line-of-sight setting image may be a plurality of 2D images taken by the X-ray diagnostic apparatus 1 relating to the subject.
  • the user designates the three-dimensional target position in the first plane on the 2D image of the subject related to the first plane.
  • the 3D target position in the second plane is designated on the 2D image of the subject related to the second plane that is different from the first plane.
  • a stereoscopic target position is determined by a user operation on two 2D images having different planes.
  • the line-of-sight direction and the display direction are determined, for example, by a user operation (such as image rotation) of the 2D image of the subject corresponding to the first plane or the 2D image of the subject corresponding to the second plane. With the above operation, the user can set the reference line of sight.
  • the part of the patient placed on the top 14 is a top plate coordinate system with a predetermined position of the top 14 as the origin. Can be identified. Therefore, the line-of-sight setting image may be a human body model image imitating a human body.
  • the 3D image of the line-of-sight setting image may be an image reconstructed based on volume data collected by another modality, for example, an X-ray CT (Computed Tomography) apparatus.
  • X-ray CT Computed Tomography
  • the reference line of sight may be set according to the positions of the C-arm 11 and the C-arm support mechanism 12 moved to the reference line of sight. Specifically, the user moves the fifth rotation axis to the position of the reference line of sight by operating the input unit 20. The user can set the reference line of sight by pressing a button or the like for setting the reference line of sight.
  • the angle detection unit 21 detects five rotation angles corresponding to the first to fifth rotation axes, respectively.
  • the angle detection unit 21 detects five rotation angles when the button for setting the reference line of sight of the input unit 20 is pressed. Then, a reference line of sight is set based on the detected five rotation angles.
  • the position specifying unit 22 specifies the user movement displacement and the reference user parallax.
  • the user movement displacement is a parameter indicating how much the user's face has moved in which direction from the reference position.
  • the reference position is, for example, the position of the face when the user stands at a position where the user mainly browses the display unit 32.
  • the position where the display unit 32 is mainly viewed corresponds to, for example, a position where the user actually performs a procedure on the subject.
  • the position specifying unit 22 specifies the position of the user's face (hereinafter simply referred to as the user position).
  • the user position represents the position of the feature point of the user's face, and is, for example, the midpoint of a straight line connecting the right eye pupil position and the left eye pupil position.
  • the position specifying unit 22 specifies a user position by detecting facial features such as eyes, nose and mouth by threshold processing for an image relating to the user taken by a camera or the like.
  • the device such as a camera may be an external device.
  • the position specifying unit 22 inputs an image relating to the user input from the external device.
  • the position specifying unit 22 sets the reference user position when a button related to the setting of the reference user position of the input unit 20 is pressed.
  • the position specifying unit 22 may set the reference user position in response to a specific gesture operation by the user.
  • the gesture motion can be detected by a device such as a camera.
  • the gesture motion is preferably a motion that can be easily performed even by a user who is performing a procedure such as “raise his hand” or “shake his / her neck left or right”.
  • the reference user position can be appropriately changed by the gesture operation and the operation of the input unit 20 even before and during the procedure. For example, the user moves the display unit 32 to a mainly viewing position and presses a button related to the setting of the reference user position or performs a gesture operation. Then, the position specifying unit 22 specifies the user position at that time, and the reference user position is set.
  • FIG. 3 is an explanatory diagram for explaining the user movement displacement.
  • the coordinate system is an examination room coordinate system with the display center position O as the origin. Further, the axis along the major axis of the display unit 32 is the X axis, the axis along the minor axis of the display unit 32 is the Y axis, the axis passing through the display center position O, and the axis perpendicular to the display screen of the display unit 32 is the Z axis.
  • P0 is a reference user position. P1 is the user position after moving from the reference user position. It is assumed that the coordinates (x0, y0, z0) of the reference user position P0 are known in advance.
  • the position specifying unit 22 specifies the user position P1 (x1, y1, z1) after the movement in order to specify the user movement displacement. Then, the user movement displacement is specified based on the coordinates (x0, y0, z0) of the reference user position P0 and the coordinates (x1, y1, z1) of the user position P1 after the movement.
  • the user movement displacement is defined as a user movement angle from the reference user position with respect to the display center position O.
  • a straight line connecting the reference user position P0 and the display center position O is one side of the corner
  • a straight line connecting the user position P1 and the display center position O is another side of the corner
  • the display center position O is The angle that is the vertex of the corner.
  • the movement angle is represented by a component of the movement angle on the XZ plane (hereinafter referred to as a horizontal angle) ⁇ and a component of the movement angle on the YZ plane (hereinafter referred to as a vertical angle) ⁇ .
  • the position specifying unit 22 specifies the user movement displacement based on the reference user position and the moved user position. The above is the description of FIG.
  • the reference user parallax is the parallax of the user who is viewing the display unit 32 at the reference user position.
  • the three-dimensional target position is displayed at the display center position of the display unit 32. Therefore, the position specifying unit 22 specifies the reference user parallax based on the distance from the display center position to the reference user position and the distance between the pupils of the user at the reference user position (hereinafter referred to as the reference pupil distance). To do. For example, calculation such as trigonometry is used to specify the parallax.
  • the interpupillary distance is the distance between the right eye pupil position and the left eye pupil position of the user.
  • the reference user parallax may be input by the user via the input unit 20.
  • the position specifying unit 22 includes a device such as a camera for specifying the user movement displacement and the reference user parallax.
  • the device may be another device as long as the user position and the reference inter-pupil distance can be specified.
  • the device may be an infrared sensor, an optical sensor, or the like.
  • the user position is the midpoint of a straight line connecting the right eye pupil position and the left eye pupil position.
  • the position specifying unit 22 can specify how much the user's face has moved.
  • the user position is not limited to the above position.
  • the user position may be the position of another part of the face such as the position of the mouth and the position of the nose, or the position of a marker attached to the face.
  • one of the set of the light receiver and the projector of the optical sensor is attached to the user and the other is attached to the display unit 32, and the position specifying unit 22 specifies the user movement displacement based on the output of the optical sensor. May be.
  • the data related to the reference user position and the reference user parallax may be stored in the storage unit 28 described later by the control unit 30 along with additional information such as user information and inspection information.
  • the reference user position and the reference user parallax are specified by the position specifying unit 22.
  • the reference user position may be determined in advance depending on the type of procedure.
  • the reference user position and the reference interpupillary distance may be determined depending on the user who is in charge of the procedure. Therefore, the reference user position and the reference interpupillary distance may be appropriately selected from a user information database stored in the storage unit 28 described later in accordance with a user instruction.
  • the user movement displacement specifying process by the position specifying unit 22 is executed in conjunction with a shooting angle setting process to be described later.
  • the position specifying unit 22 transmits the specified user movement displacement data to the shooting position setting unit 23.
  • the imaging condition setting unit 24 sets X-ray imaging conditions based on the X-ray imaging conditions input by the user.
  • the photographing position setting unit 23 sets a line of sight and a photographing angle set.
  • the shooting position setting unit 23 sets a shooting angle set according to the reference line of sight input by the user.
  • the shooting angle set has a left-eye shooting angle and a right-eye shooting angle.
  • the line-of-sight angle corresponding to the line-of-sight direction is, for example, with the three-dimensional target position as the origin, the axis parallel to the short axis of the top plate 14 as the X axis, and the axis along the direction orthogonal to the top plate 14 surface as the Y axis
  • the angle formed with the X axis and the angle formed with the Y axis when an axis parallel to the major axis of 14 is defined as the Z axis.
  • the imaging position setting unit 23 resets the line of sight of the subject based on the line of sight corresponding to the image set being displayed on the display unit 32 and the user movement displacement. Then, an imaging angle set is set according to the reset line of sight. Detailed description regarding the setting process of the shooting angle set by the shooting position setting unit 23 will be described later.
  • the shooting position setting unit 23 transmits the set shooting angle set data to the shooting control unit 25 and the image selection unit 29.
  • the imaging control unit 25 controls each unit related to X-ray imaging. Specifically, the high voltage generator 16 is controlled in accordance with the X-ray imaging conditions set by the imaging condition setting unit 24. Further, the imaging control unit 25 controls the moving unit 19 according to the imaging angle set set by the imaging condition setting unit 24. At this time, the imaging control unit 25 executes the X-ray imaging operation in the imaging angle set by controlling the X-ray detection unit 18 together with the control of the high voltage generation unit 16 and the moving unit 19. Then, each operation of the storage unit 28, the image generation unit 27, the preprocessing unit 26, and the like is controlled in synchronization with the X-ray imaging operation.
  • the preprocessing unit 26 performs preprocessing on the electric signal output from the X-ray detection unit 18.
  • the preprocessing includes, for example, various correction processes, amplification processes, A / D conversion processes, and the like.
  • the image generation unit 27 generates X-ray image data based on the electrical signal subjected to the preprocessing. Specifically, the image generation unit 27 includes left-eye image data and right-eye image data corresponding to the left-eye imaging angle, right-eye imaging angle, and (imaging angle set) (hereinafter, also referred to as an image set). Call).
  • the pixel value assigned to each pixel constituting the X-ray image is a value corresponding to the X-ray attenuation coefficient related to the substance on the X-ray transmission path.
  • the storage unit 28 is a semiconductor storage device such as a flash SSD (Solid State Disk) that is a semiconductor storage element, an HDD (Hard Desk Drive), or the like.
  • the storage unit 28 stores the data of the plurality of image sets generated by the image generation unit 27 together with the data relating to the corresponding line-of-sight angle and imaging angle set according to the control by the control unit 30. Further, the storage unit 28 stores, for example, X-ray imaging condition data, X-ray imaging angle condition data, inter-pupil distance data, and user information database data other than data related to the image set.
  • the user information database is a correspondence table in which a plurality of inter-pupil distances and a plurality of reference user positions are associated with a plurality of user IDs, respectively.
  • the storage unit 28 may include a plurality of correspondence tables according to the type of procedure.
  • the image selection unit 29 selects an image set to be displayed on the display unit 32 described later from a plurality of image sets stored in the storage unit 28 described later based on the shooting angle set set by the shooting position setting unit 23.
  • the image selection unit 29 transmits a signal indicating the start of shooting to the shooting control unit 25. Note that ON / OFF of the image set selection processing from the storage unit 28 by the image selection unit 29 can be appropriately changed according to a user instruction.
  • the control unit 30 includes a CPU (Central Processing Unit) and a memory circuit.
  • the control unit 30 receives the instruction information input via the input unit 20 and temporarily stores the memory circuit.
  • the control unit 30 controls each unit of the X-ray diagnostic apparatus 1 based on the input information.
  • the display control unit 31 displays the image set selected by the image selection unit 29 on the display unit 32 described later so that the user can stereoscopically view at the reference user position.
  • the display control unit 31 transmits a video signal obtained by dividing the left-eye image and the right-eye image vertically into strips to the display unit 32.
  • the display unit 32 displays the left-eye image and the right-eye image that are vertically divided into strips so as to be alternately arranged.
  • the divided left-eye images and right-eye images are displayed side by side so as to alternate.
  • the display unit 32 has a lenticular lens on the display surface.
  • the lenticular lens is a lens that changes the position where the line of sight reaches depending on the position viewed by the user. By adjusting the arrangement of the lenticular lenses, the right eye can see the right eye image and the left eye can see only the left eye image.
  • the display control unit 31 transmits the right-eye image signal to the display unit 32 after the left-eye image signal within one frame synchronization period.
  • the display unit 32 displays an image based on the transmitted image signal.
  • the user wears liquid crystal shutter glasses and looks at the display unit 32.
  • the liquid crystal shutter alternately blocks the left and right fields of view in synchronization with the display operation by the display unit 32. Since the shutter of the eyeglasses opens and closes completely in synchronization with the two images, the right eye image and the left eye only the left eye image are visible, so that stereoscopic viewing is possible.
  • the display control unit 31 and the display unit 32 of the present embodiment have been described by taking two stereoscopic viewing methods as an example, but the present embodiment can be applied to any stereoscopic viewing method using parallax. The present embodiment can also be applied to a stereoscopic method that can use multiple parallaxes.
  • the imaging angle setting function includes the line of sight corresponding to the image set being displayed on the display unit 32 by the imaging position setting unit 23 of the X-ray diagnostic apparatus 1 according to the present embodiment, and the user movement displacement specified by the position specifying unit 22. This is a function for resetting the line of sight regarding the subject and automatically setting an imaging angle set corresponding to the reset line of sight. Processing associated with the shooting angle setting function (hereinafter referred to as shooting angle setting processing) will be described with reference to FIG. The shooting angle setting process is executed under the control of the shooting control unit 25.
  • FIG. 4A, 4B, 4C, and 4D are explanatory diagrams for explaining the imaging angle setting process of the X-ray diagnostic apparatus 1 according to the present embodiment.
  • FIG. 4A is a diagram illustrating a reference user position in the examination room coordinate system.
  • FIG. 4B is an explanatory diagram for describing a shooting angle set corresponding to the reference user position.
  • FIG. 4C is a diagram illustrating the user position after movement from the reference user position in the examination room coordinate system.
  • FIG. 4D is an explanatory diagram for describing a shooting angle set corresponding to the user position after movement.
  • the display center position O is the origin
  • the axis along the major axis of the display unit 32 is the X axis
  • the axis along the minor axis of the display unit 32 is the Y axis
  • the display center position O is displayed.
  • 7 shows an examination room coordinate system in which the axis perpendicular to the display screen of the unit 32 is the Z axis.
  • the predetermined position of the top plate 14 is the origin, the Z axis is parallel to the long axis of the top plate 14, the X axis is parallel to the short axis of the top plate 14, and the Y axis is orthogonal to the top plate 14 surface. Represents the top plate coordinate system.
  • shooting angle set J0 the left-eye shooting angle and the right-eye shooting angle corresponding to the reference line of sight (hereinafter referred to as shooting angle set J0) are set to ⁇ 0L and ⁇ 0R, respectively.
  • the shooting angle set J0 is set by the shooting position setting unit 23 based on the reference line of sight and the reference user parallax. Specifically, when the reference line-of-sight is set via the input unit 20 on the line-of-sight setting image, the imaging position setting unit 23 specifies the line-of-sight angle ⁇ 0 based on the line-of-sight direction included in the reference line of sight.
  • the shooting position setting unit 23 tilts the viewing angle ⁇ 0 to the left-eye shooting angle ( ⁇ / 2) and tilts the viewing angle ⁇ 0 to the right-eye shooting angle ( ⁇ / 2). And identify. Further, the shooting position setting unit 23 specifies the direction of tilting from the line-of-sight angle ⁇ 0 to the left-eye shooting angle and the right-eye shooting angle based on the display orientation included in the reference line of sight.
  • the tilting direction is a direction that is orthogonal to a straight line indicating the line-of-sight direction and parallel to a straight line that represents the left and right of the display direction.
  • the direction tilted from the line-of-sight angle to the left-eye shooting angle is opposite to the direction tilted from the line-of-sight angle to the right-eye shooting angle.
  • the shooting position setting unit 23 can set the left-eye shooting angle ⁇ 0L and the right-eye shooting angle ⁇ 0R based on the reference line of sight and the reference user parallax. Then, under the control of the imaging control unit 25, the left-eye imaging angle ⁇ 0L, the right-eye imaging angle ⁇ 0R, and the left-eye image K0L and the right-eye image K0R (image set K0) respectively corresponding to the (imaging angle set J0) are Collected and stored in the storage unit 28.
  • the display control unit 31 displays the left-eye image K0L and the right-eye image K0R on the display unit 32.
  • the user can recognize a stereoscopic video image related to the subject as seen from the visual line angle ⁇ 0.
  • the shooting control unit 25 executes shooting angle setting processing when a specific gesture operation is performed by the user or when a setting switch is pressed.
  • the photographing angle setting process is executed according to the following procedure. First, the user position P1 (X1, 0, Z1) after movement is specified by the position specifying unit 22.
  • the position specifying unit 22 specifies the movement angle ⁇ 1 (user movement displacement) based on the reference user position P0 and the moved user position P1.
  • the movement angle ⁇ 1 includes information related to the movement direction from the reference user position.
  • the viewing position setting unit 23 identifies the viewing angle ⁇ 1 based on the viewing angle ⁇ 0 corresponding to the image set being displayed on the display unit 32, the display orientation, and the movement angle ⁇ 1.
  • the line-of-sight angle ⁇ 1 is an angle obtained by adding the movement angle ⁇ 1 to the line-of-sight angle ⁇ 0.
  • the reset line of sight is different in the line-of-sight direction from the line of sight before the reset.
  • the shooting position setting unit 23 tilts the viewing angle ⁇ 1 from the viewing angle ⁇ 1 to the left-eye shooting angle ( ⁇ / 2) and the tilting angle from the viewing angle ⁇ 1 to the right-eye shooting angle ( ⁇ / 2). And identify. Then, the shooting position setting unit 23 specifies the direction of tilting from the line-of-sight angle ⁇ 1 to the left-eye shooting angle and the right-eye shooting angle based on the display orientation included in the reset line-of-sight.
  • the shooting position setting unit 23 determines the left-eye shooting angle ⁇ 1L and the right-eye shooting angle ⁇ 1R (hereinafter, referred to as “right-eye shooting angle ⁇ 1R”) based on the line of sight corresponding to the image set displayed on the display unit 32 and the reference user parallax.
  • a shooting angle set J1 Then, according to the control of the imaging control unit 25, the left-eye imaging angle ⁇ 1L, the right-eye imaging angle ⁇ 1R, and the left-eye image K1L and the right-eye image K1R (image set K1) respectively corresponding to the (imaging angle set J1) are Collected and stored in the storage unit 28.
  • the collection operation of the image set K1 by the photographing control unit 25 is automatically executed after the photographing angle set J1 is set. Then, the display control unit 31 displays the left-eye image K1L and the right-eye image K1R on the display unit 32. By visually recognizing the display unit 32 from the reference user position P0, the user can recognize a stereoscopic image as if the stereoscopic target position was viewed from the viewing angle ⁇ 1.
  • the X-ray diagnostic apparatus 1 may include a sound detection unit (not shown) including a sound detection device for detecting a specific word uttered by the user.
  • FIG. 5 is a flowchart showing an example of a series of processes using the X-ray diagnostic apparatus 1 according to this embodiment. (Step S11) Based on the X-ray imaging conditions input by the user via the input unit 20, the X-ray imaging conditions are set by the imaging condition setting unit 24.
  • Step S12 Based on the reference line of sight input by the user via the input unit 20 and the reference user parallax specified by the position specifying unit 22, the shooting position setting unit 23 sets a shooting angle set corresponding to the reference line of sight. .
  • Step S13 When the process proceeds from step S12, it corresponds to the imaging angle set set by the imaging position setting unit 23 according to the control of the imaging control unit 25 under the X-ray imaging conditions set by the imaging condition setting unit 24. An image set is collected by each part. The collected image set data is stored in the storage unit 28 together with information on the reference line of sight, information on the imaging angle set, and the like.
  • step S17 an image set corresponding to the shooting angle set set in step S17 is collected by each unit according to the control of the shooting control unit 25. The collected image set data is stored in the storage unit 28 together with information on the reference line of sight, information on the imaging angle set, and the like.
  • Step S14 When the process proceeds to step S12 and step S13, the display control unit 31 displays the collected image set on the display unit 32 so that the user viewing the display unit 32 at the reference user position can view stereoscopically. The The user can recognize the stereoscopic image corresponding to the reference line of sight by visually recognizing the display unit 32 from the reference user position.
  • the display control unit 31 displays on the display unit 32 the image set read so that the user viewing the display unit 32 at the reference user position can view stereoscopically. Is done.
  • the user can recognize a stereoscopic image as if the stereoscopic target position was viewed from the line-of-sight angle set in step S16.
  • the image selection unit 29 reads an image set corresponding to the reset line of sight from the storage unit 28.
  • the display control unit 31 displays on the display unit 32 an image set read so that a user viewing the display unit 32 at the reference user position can view stereoscopically.
  • the user can recognize a stereoscopic video image corresponding to the line of sight reset in step S16.
  • Step S15 The position specifying unit 22 executes a process for detecting a specific gesture action by the user.
  • the process proceeds to step S16, and the shooting angle setting process is executed.
  • the series of processes by the X-ray diagnostic apparatus 1 is ended.
  • the transition to the shooting angle setting process may be triggered by pressing a setting switch of the input unit 20 or may be triggered by a specific word spoken by the user.
  • Step S16 A shooting angle setting process is executed by the position specifying unit 22 and the shooting position setting unit 23. Then, by the imaging angle setting process, the line of sight with respect to the subject is reset, and an imaging angle set corresponding to the reset line of sight is set.
  • Step S17 If an image set corresponding to the shooting angle set set in step S16 is stored in the storage unit 28, the process proceeds to step S14. On the other hand, if the image set corresponding to the shooting angle set set in step S16 is not stored in the storage unit 28, the process proceeds to step S13.
  • the imaging angle setting process of the X-ray diagnostic apparatus 1 can be repeatedly executed when a specific gesture operation is executed by the user.
  • the image set selection processing by the image selection unit 29 is OFF, the X-ray diagnostic apparatus 1 always collects an image set corresponding to the reset line of sight when the line of sight is reset. Thereby, the user can recognize a stereoscopic video image corresponding to another line of sight in real time.
  • the X-ray diagnostic apparatus 1 can set a reference line of sight according to a user instruction on the line-of-sight setting image displayed on the display unit 32.
  • the user can recognize a stereoscopic video image corresponding to the reference visual line of the subject.
  • This stereoscopic image is an image in which the stereoscopic target position is viewed from the viewing direction corresponding to the reference visual line, and is centered on the stereoscopic target position corresponding to the reference visual line.
  • the top, bottom, left, and right of the stereoscopic video correspond to the display orientation corresponding to the reference line of sight.
  • the shooting angle setting function allows the user to recognize a stereoscopic image obtained by rotating the recognized stereoscopic image simply by moving the face position from the reference user position.
  • the up / down / left / right direction of the stereoscopic image after rotation is the same as the up / down / left / right direction of the stereoscopic image before rotation.
  • the X-ray diagnostic apparatus 1 executes the following processing.
  • the X-ray diagnostic apparatus 1 specifies the user movement displacement from the reference user position to the moved user position.
  • the X-ray diagnostic apparatus 1 resets the line of sight corresponding to the moved user position based on the user movement displacement and the line of sight corresponding to the image set being displayed on the display unit 32.
  • the X-ray diagnostic apparatus 1 sets an imaging angle set (imaging angle for left eye and imaging angle for right eye) corresponding to the reset line of sight based on the reset line of sight.
  • the X-ray diagnostic apparatus 1 collects an image set (left-eye image and right-eye image) corresponding to the imaging angle set (left-eye imaging angle and right-eye imaging angle) and displays it on the display unit 32.
  • the user can recognize a stereoscopic video image corresponding to the reset line of sight by visually recognizing the display unit 32 at the reference user position.
  • the stereoscopic video image corresponding to the reset line of sight is a stereoscopic video image related to the subject as seen from the user position after movement from the stereoscopic target position. That is, when the user wants to view the recognized stereoscopic video image from a different direction, the user can recognize the stereoscopic video image as viewed from the moved position simply by moving the face in the desired direction. .
  • the user can recognize a stereoscopic image related to the subject when the stereoscopic target position is viewed from a plurality of directions by an intuitive operation such as movement of the face, so that the efficiency of the operation and the like by the user is improved.
  • the X-ray diagnostic apparatus 1 does not collect a plurality of image sets corresponding to a plurality of lines of sight, but collects only an image set corresponding to the reset line of sight. Therefore, the present X-ray diagnostic apparatus 1 can also suppress the exposure dose. That is, according to the X-ray diagnostic apparatus 1 having the imaging angle setting function, it is possible to improve work efficiency while suppressing the exposure dose in diagnosis, treatment, and the like using the image stereoscopic technique.
  • the image selection unit 29 selects an image set corresponding to the reset line of sight from the storage unit 28, and the display unit 32. Is displayed. Therefore, the user can recognize a stereoscopic video image corresponding to the reset line of sight without newly photographing. Therefore, the X-ray diagnostic apparatus 1 can suppress the exposure dose.
  • the shooting angle setting process may be automatically and repeatedly executed under the control of the shooting control unit 25.
  • the imaging control unit 25 executes imaging angle setting processing at predetermined time intervals. The predetermined time interval is set in advance by the user, and can be appropriately changed according to the user instruction. Whether the shooting angle setting process is automatically executed or according to a user instruction can be appropriately changed according to the user instruction.
  • the shooting angle setting process can be automatically executed, the user does not need to perform a specific gesture operation, a specific word generation, and an operation of the input unit 20, thereby improving work efficiency compared to manual operation. Can do.
  • the shooting angle setting process by the shooting control unit 25 may not be executed. Thereby, it is possible to avoid execution of the shooting angle setting process that is not intended by the user.
  • the line-of-sight angle ⁇ 1 corresponding to the line of sight after movement is described as an angle obtained by adding the movement angle ⁇ 1 to the line-of-sight angle ⁇ 0 corresponding to the line of sight before movement.
  • the user can recognize a stereoscopic image as if the stereoscopic target position was viewed from the position after the movement only by moving the face from the reference position. That is, since the movement angle from the reference position with respect to the display center position and the difference in the line-of-sight angle before and after the movement correspond one-to-one, the user can intuitively change the line of sight of the subject.
  • the line-of-sight angle ⁇ 1 may be an angle obtained by adding the line-of-sight angle ⁇ 0 to an angle obtained by multiplying the movement angle ⁇ 1 by a coefficient ⁇ set in advance by the user.
  • the user movement displacement is the user movement angle from the reference user position with respect to the display center position O. That is, the movement displacement of the user is specified according to the movement operation of the face by the user. However, the user may not be able to move from the reference position during the procedure. Therefore, the user movement displacement does not have to be based on the face movement operation by the user.
  • the user movement displacement may be an operation of tilting the user's face, an operation of changing the orientation of the user's face, or the like.
  • the position specifying unit 22 specifies the tilt angle and direction of the user's face from the reference user position. Specifically, the position specifying unit 22 specifies the position of the left eye pupil and the position of the right eye pupil of the user. Then, the position specifying unit 22 specifies an angle (hereinafter referred to as an inclination angle) of a line connecting the pupil of the left eye and the pupil of the right eye when the line is at the reference user position and after the face is tilted. . Then, the shooting position setting unit 23 resets the line of sight based on the line of sight and the tilt angle corresponding to the stereoscopic image being displayed.
  • an angle hereinafter referred to as an inclination angle
  • a method for resetting the line of sight according to the tilt angle is set in advance by the user. For example, when the tilt angle is 10 degrees to the right, the shooting position setting unit 23 resets the line of sight corresponding to the stereoscopic video image being displayed to a line of sight rotated 10 degrees to the right in the horizontal direction.
  • the position specifying unit 22 determines the orientation of the user's face based on the movement direction of the facial feature point and the movement distance of the feature point per unit time. Specify how quickly the face changes direction. Then, the shooting position setting unit 23 resets the line of sight based on the line of sight corresponding to the displayed stereoscopic video, the face direction, and the speed at which the face direction is changed. Specifically, for example, the shooting position setting unit 23 determines the direction of changing the line of sight based on the line of sight direction and the face direction. Then, the angle for changing the line of sight is determined based on the speed at which the direction of the face is changed.
  • the shooting position setting unit 23 resets the shooting angle set corresponding to the reset line of sight. Then, under the control of the imaging control unit 25, an image set corresponding to the reset imaging angle set is collected and displayed on the display unit 32. The user can recognize a stereoscopic video image corresponding to the reset line of sight by visually recognizing the display unit 32 at the reference user position. Through the above processing, the imaging position setting unit 23 resets the line of sight based on the operation of tilting the user's face or the operation of changing the orientation of the user's face.
  • Modification 1 An X-ray diagnostic apparatus 1 according to Modification 1 will be described.
  • the user visually recognizes the display unit 32 at the reference user position. This is because the position at which the user visually recognizes the display unit 32 is substantially fixed when the user has a lot of work at a predetermined position (reference user position).
  • the user wants to view the currently recognized stereoscopic video image by rotating it in a specific direction for a short time.
  • the user can rotate the stereoscopic video image by moving the X-ray diagnostic apparatus 1 in a specific direction from the reference user position, for example.
  • the user can recognize the stereoscopic video image after the rotation by viewing the display unit 32 at the reference user position.
  • the user needs to move the face in the direction opposite to the specific direction described above from the reference user position. This is because the rotation of the stereoscopic video is performed according to the user movement displacement from the reference user position. Therefore, when the user wants to rotate the stereoscopic video image in a specific direction and watch it for a short time to return to the original stereoscopic video image, the user needs to make two reciprocal movements starting from the reference user position. Even when it is desired to rotate a stereoscopic image in a different direction for a short time and view it, if two reciprocal movements are required, the work efficiency may be reduced.
  • the X-ray diagnostic apparatus 1 according to the first modification is intended to solve the above-described problems.
  • the X-ray diagnostic apparatus 1 according to Modification 1 can change the reference user position. That is, the user can recognize a stereoscopic video image in which the stereoscopic target position is viewed from the user position after movement at the user position after movement. Then, when it is desired to return to the stereoscopic video image before the movement, it is only necessary to return the face to the user position before the movement. As a result, even when it is desired to view a stereoscopic video image from a different direction for a short time, only one reciprocal face movement is required.
  • the X-ray diagnostic apparatus 1 according to the modified example 1 improves work efficiency when it is desired to view a stereoscopic image from a different direction for a short time. can do.
  • the change instruction may be switched according to the gesture operation of the user or the utterance of a specific word.
  • Modification 2 An X-ray diagnostic apparatus 1 according to Modification 2 will be described.
  • the user when the user wants to view the recognized stereoscopic image from a different direction, the user simply moves the face in the desired direction and looks from the moved position. 3D images can be recognized.
  • the vertical and horizontal directions of the stereoscopic video after resetting the line of sight are the same as the vertical and horizontal directions of the stereoscopic video before resetting the line of sight. Therefore, the vertical and horizontal directions of the stereoscopic video recognized by the user are always the same.
  • the user wants to view the recognized stereoscopic video image in an inclined manner (changes the vertical and horizontal directions of the video image).
  • the user wants the catheter moving direction to correspond to the top and bottom of the image during the catheter procedure, the user recognizes the stereoscopic image that is currently recognized, and the image is displayed according to the moving direction of the catheter without changing the line-of-sight direction. Sometimes you want to tilt.
  • the X-ray diagnostic apparatus 1 according to the present embodiment is used, this corresponds to resetting the line-of-sight direction among the lines of sight. However, it does not support resetting the display orientation.
  • the X-ray diagnostic apparatus 1 according to Modification 2 is intended to solve the above-described problems. Specifically, the X-ray diagnostic apparatus 1 according to the modified example 2 can reset the display orientation according to the angle at which the user's face is inclined. Since the display orientation can be reset, the recognized stereoscopic image can be tilted according to the angle at which the user's face is tilted.
  • the position specifying unit 22 specifies the tilt angle of the user's face from the reference user position. Specifically, the position specifying unit 22 specifies the position of the left eye pupil and the position of the right eye pupil of the user. Then, the position specifying unit 22 specifies an angle (hereinafter referred to as an inclination angle) of a line connecting the pupil of the left eye and the pupil of the right eye when the line is at the reference user position and after the face is tilted. .
  • the imaging position setting unit 23 resets the line of sight based on the line of sight and the tilt angle corresponding to the image set currently displayed on the display unit 32. Specifically, the shooting position setting unit 23 resets the display direction according to the tilt angle.
  • the shooting position setting unit 23 resets the shooting angle set based on the reset line of sight and the reference user parallax.
  • an image set corresponding to the reset imaging angle set is collected and displayed on the display unit 32.
  • the user can recognize the stereoscopic image corresponding to the reset line of sight by visually recognizing the display unit 32 at the reference user position.
  • the stereoscopic image corresponding to the reset line of sight is an image obtained by tilting the stereoscopic image corresponding to the line of sight before being reset.
  • the tilt direction corresponds to the direction in which the user tilts the face. Therefore, in addition to the effects of the X-ray diagnostic apparatus 1 according to the embodiment, the X-ray diagnostic apparatus 1 according to the modified example 2 can realize an improvement in work efficiency when it is desired to recognize a stereoscopic image by tilting.
  • Modification 3 An X-ray diagnostic apparatus 1 according to Modification 3 will be described.
  • the X-ray diagnostic apparatus 1 according to the present embodiment the X-ray diagnostic apparatus 1 according to Modification Example 1, and the X-ray diagnostic apparatus 1 according to Modification Example 2, the reset line of sight depends on the user movement displacement. .
  • the line-of-sight direction, the display direction, etc., in which the subject needs to be seen may be determined in advance depending on the type of the part, the type of procedure, and the like.
  • the X-ray diagnostic apparatus 1 when the user wants to change the line of sight corresponding to the stereoscopic image being displayed to a predetermined line of sight, the user cares about the face movement direction and the face movement amount. It is necessary to. If the movement amount is large, the user cannot recognize a stereoscopic video image in a predetermined direction. Therefore, in order to obtain a stereoscopic video image corresponding to a predetermined line of sight, the user may have to move the face repeatedly. However, if the user needs to move repeatedly, the user's work efficiency may be reduced.
  • the X-ray diagnostic apparatus 1 according to Modification 3 is intended to solve the above-described problems.
  • the user can set a plurality of lines of sight by operating the line-of-sight setting image via the input unit 20.
  • a method for setting a plurality of lines of sight on the line-of-sight setting image there are a manual setting method and a semi-automatic setting method.
  • a plurality of lines of sight are set one by one in accordance with a user instruction.
  • the method for setting the line of sight according to the user instruction is as described in the method for setting the reference line of sight in the X-ray diagnostic apparatus 1 according to the present embodiment.
  • the reference line of sight among the plurality of lines of sight is set according to a user instruction.
  • the other line of sight is set according to the reference line of sight and a preset method.
  • a plurality of lines of sight are set at predetermined angular intervals along the vertical direction of the line-of-sight setting image when the reference line of sight is set.
  • a plurality of lines of sight are set at predetermined angular intervals along the vertical direction of the line-of-sight setting image when the reference line of sight is set. Furthermore, the above two methods may be combined.
  • the position specifying unit 22 specifies the line-of-sight switching operation by the user.
  • the line-of-sight switching operation is an operation for switching the line of sight corresponding to the image set displayed on the display unit 32 to another line of sight set in advance. Therefore, after the line-of-sight switching operation, an image set corresponding to another line of sight is displayed on the display unit 32.
  • the user can recognize a stereoscopic video image corresponding to another line of sight by visually recognizing the display unit 32 at the reference user position.
  • the line-of-sight switching operation by the user is, for example, movement of the user's face and a gesture. Note that the line-of-sight switching operation can be replaced by the utterance of a specific word by the user.
  • the position specifying unit 22 specifies user movement displacement. Further, the position specifying unit 22 specifies the gesture operation of the user. Gesture operations include, for example, tilting hands, waving hands, and pointing fingers.
  • the line-of-sight switching operation can be set according to a user instruction via the input unit 20.
  • the modes for specifying the line-of-sight switching operation by the position specifying unit 22 include a continuous mode and a manual mode. These modes can be appropriately changed in accordance with user instructions.
  • the position specifying unit 22 specifies whether or not the line-of-sight switching operation has been executed by the user.
  • the specified time interval can be appropriately changed according to the user instruction.
  • the line-of-sight switching operation is an operation that the user does not normally perform because the line-of-sight switching not intended by the user does not occur, and an operation that does not burden the user during the procedure is preferable.
  • the position specifying unit 22 may specify the line-of-sight switching operation according to the speed of the gesture operation, the size of the operation, and the duration of the operation. .
  • the position specifying unit 22 specifies the line-of-sight switching operation when a switch (hereinafter referred to as a transition switch) for shifting to the line-of-sight switching operation specifying mode by the position specifying unit 22 is pressed.
  • a switch hereinafter referred to as a transition switch
  • the transition switch is triggered, but the transition to the specific mode of the line-of-sight switching operation by the position identifying unit 22 is triggered even when the user detects the utterance of a specific word, gesture motion, or the like. Good.
  • the user performs a line-of-sight switching operation after pressing the transition switch.
  • FIGS. 6 and 7 are explanatory diagrams for explaining the line-of-sight switching operation in the X-ray diagnostic apparatus 1 according to Modification 3.
  • FIG. FIG. 6 is a diagram illustrating a plurality of lines of sight set with respect to the stereoscopic target position.
  • FIG. 7 corresponds to FIG. 6 and shows the screen transition of the display unit 32 during the line-of-sight switching operation.
  • the user's line-of-sight switching operation and an image displayed on the display unit 32 after the line-of-sight switching operation will be described with reference to FIGS. 6 and 7.
  • P indicates a cylindrical tube simulating a subject.
  • O indicates a three-dimensional target position.
  • C indicates the line-of-sight direction of the reference line-of-sight with respect to the stereoscopic target position.
  • the upward direction of the image corresponds to the + X direction
  • the downward direction of the image corresponds to the ⁇ X direction
  • the right direction of the image corresponds to + Z
  • the left direction of the image corresponds to the ⁇ Z direction.
  • L1 to L3, R1 to R3, U1 to U2, and S1 to S2 respectively indicate a plurality of lines of sight with respect to the stereoscopic target position.
  • P1 to P4 indicate images related to the user taken by the camera included in the position specifying unit 22.
  • P1 shows an image of the user viewing the display unit 32 at the reference user position.
  • P2, P3, and P4 show images related to the user after performing the line-of-sight switching operation E, operation F, and operation G, respectively.
  • the line-of-sight switching operations E, F, and G are operations in which the user turns to the right, to the left, and to the top, respectively.
  • the stereoscopic video image c is a stereoscopic video image related to the subject P as if the stereoscopic target position O was viewed from the visual line direction corresponding to the reference visual line C.
  • the shooting position setting unit 23 changes the line of sight from the reference line of sight C to the line of sight L1.
  • the line-of-sight switching operation E is an operation in which the user turns to the right. This operation means that the user wants to rotate the stereoscopic image c to the right, that is, the user wants to see the stereoscopic target position O from the left direction. Therefore, the line of sight is changed from the reference line of sight C to the line of sight L1.
  • image control data corresponding to the line of sight L ⁇ b> 1 is read from the storage unit 28 under the control of the imaging control unit 25.
  • the image set data corresponding to the line of sight L1 is not stored in the storage unit 28, the data of the image set corresponding to the line of sight L1 is collected by each unit according to the control of the imaging control unit 25.
  • an image set corresponding to the line of sight L1 is displayed on the display unit 32.
  • the user can recognize the stereoscopic image l1 corresponding to the line of sight L1 by visually recognizing the display unit 32 at the reference user position.
  • the stereoscopic video image 11 is a stereoscopic video image of the subject as seen from the stereoscopic target position O from the direction of the line of sight L1.
  • the line-of-sight switching operation F is an operation in which the user faces upward. This operation means that the user wants to rotate the stereoscopic image c upward, that is, the user wants to see the stereoscopic target position O from the lower direction. Therefore, the line of sight is changed from the reference line of sight C to the line of sight S1. The user can recognize the stereoscopic video s1 corresponding to the line of sight S1.
  • the line-of-sight switching operation G is an operation in which the user turns to the left. This operation means that the user wants to rotate the stereoscopic image c to the left, that is, the user wants to see the stereoscopic target position O from the right direction. Therefore, the line of sight is changed from the reference line of sight C to the line of sight R1. The user can recognize a stereoscopic video image r1 of the subject as seen from the stereoscopic target position O from the direction of the visual line R1.
  • the imaging position setting unit 23 changes the line of sight from the line of sight L1 to the line of sight L2. The user can recognize a stereoscopic video image corresponding to the line of sight L2.
  • the imaging position setting unit 23 changes the line of sight from the reference line of sight to the line of sight L1 according to the line-of-sight switching operation E.
  • the imaging position setting unit 23 may change the line of sight from the reference line of sight to the line of sight L2 or L3 according to the size, speed, and duration of the line-of-sight switching operation.
  • the imaging position setting unit 23 determines the direction of switching the line of sight according to the type of line of sight switching operation, and sets the amount of switching the line of sight according to at least one of the size, speed, and duration of the line of sight switching operation. It may be determined.
  • the X-ray diagnostic apparatus 1 can switch the line of sight corresponding to the image set being displayed to another line of sight.
  • the other line of sight is one of a plurality of lines of sight set in advance by the user.
  • the X-ray diagnostic apparatus 1 identifies the other line of sight described above from a plurality of lines of sight set in advance by the user according to the line of sight corresponding to the displayed image set and the specified line of sight switching operation. To do.
  • the user can recognize a stereoscopic video image corresponding to another line of sight.
  • the user simply moves the face and displays the line-of-sight corresponding to the recognized stereoscopic video image in advance. It can reset to one of the set several eyes
  • a plurality of image sets respectively corresponding to a plurality of lines of sight are not collected in advance, and an image set corresponding to a line of sight reset according to the user movement displacement is collected each time. Further, if an image set corresponding to the reset line of sight has already been collected, it can be set not to collect again. Therefore, the X diagnostic apparatus 1 according to the modified example 3 can realize improvement in work efficiency while suppressing the exposure dose in diagnosis, treatment, etc. on the subject.
  • the line-of-sight direction can be reset among the lines of sight of the subject according to the user movement displacement, but there is no description that the display direction can be reset.
  • Modification 2 does not indicate that the line-of-sight direction can be reset among the lines of sight of the subject according to the user movement displacement, but describes that the display orientation can be reset.
  • the X-ray diagnostic apparatus 1 can reset the line-of-sight direction and the display direction among the lines of sight with respect to the subject according to the user movement displacement.
  • an object of the present invention is to realize an improvement in work efficiency while suppressing an exposure dose in diagnosis, treatment, etc. on a subject.
  • the embodiment has been described by taking stereoscopic vision as an example, but the present invention resets the imaging position in accordance with the position of the user's face or the displacement of the face, and collects X-ray images corresponding to the reset imaging position. There is in point to do. Therefore, the scope of the present invention is not limited to stereoscopic viewing.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 被検体の診断、治療等において、被曝量を抑えながらも、作業効率の向上を実現する。 本実施形態によるX線診断装置において、X線発生部15はX線を発生する。X線検出部18は、X線発生部15から発生され、被検体を透過したX線を検出する。C形アーム支持機構12は、X線発生部15とX線検出部18とを、互いに対峙する向きで保持する。表示部32は、X線検出部18の出力に基づいて、被検体に関するX線画像を表示する。位置特定部22は、表示部32を視認しているユーザの顔の位置を特定する。移動部19は、特定されたユーザの顔の位置に応じた撮影位置にC形アーム支持機構12を移動させる。

Description

X線診断装置
 本発明の実施形態は、X線診断装置に関する。
 角度差のある左目用画像と右目用画像とをモニタに表示することにより、立体的に画像を視覚できるようにする画像立体視の技術がある。画像立体視は、通常の2次元ディスプレイでは分かりにくかった物体の前後関係及び物体表面の凹凸情報をユーザに容易に把握させることができる。近年、画像立体視の技術が医療分野にも適用されるようになり、例えば、被検体を特定の方向から立体視するための左目用画像と右目用画像とを事前に収集し、被検体に関する立体映像を読影することにより、ユーザは、被検体の周辺の臓器及び血管等の位置関係を詳細に把握することができる。そのため、画像立体視の技術により安全で高精度な手術等が可能となっている。しかしながら、ユーザは、被検体を他の方向からも立体視したいという場合がある。この時、ユーザは、立体視したい方向の入力等により撮影角度を再設定する必要がある。しかし、例えば、手術中等において、ユーザによる上述の撮影角度の設定作業は、煩雑な作業である。そこで、被検体の複数の方向からの立体視に対応できるように、事前に複数の画像を収集しておくことにより、容易に被検体に対する他の方向からの立体視映像を読影することができる。しかし、複数の画像をX線撮影装置等により収集する場合、被検体の被曝量が増加するという問題がある。
特開2011-259373号公報 特開2011-181991号公報 特開2012-080294号公報
 目的は、被検体の診断、治療等において、被曝量を抑えながらも、作業効率の向上を実現するX線診断装置を提供することにある。
 本実施形態によるX線診断装置は、X線を発生するX線発生部と、前記X線発生部から発生され、被検体を透過したX線を検出するX線検出部と、前記X線発生部と前記X線検出部とを、互いに対峙する向きで保持する保持部と、前記X線検出部の出力に基づいて、前記被検体に関するX線画像を表示する表示部と、前記表示部を視認しているユーザの顔の位置を特定する位置特定部と、前記特定されたユーザの顔の位置に応じた撮影位置に前記保持部を移動させる移動部と、を具備することを特徴とする。
 被曝量を抑えながらも、作業効率の向上を実現。
図1は、本実施形態に係るX線診断装置の構成の一例を示すブロック図である。 図2は、本実施形態に係るX線診断装置の架台部の外観を示す図である。 図3は、ユーザ移動変位を説明するための説明図である。 図4Aは、検査室座標系における基準ユーザ位置を示した図である。 図4Bは、基準ユーザ位置に対応する撮影角度セットを説明するための説明図である。 図4Cは、検査室座標系における基準ユーザ位置から移動後のユーザ位置を示した図である。 図4Dは、移動後のユーザ位置に対応する撮影角度セットを説明するための説明図である。 図5は、本実施形態に係るX線診断装置を用いた一連の処理の一例を示すフローチャートである。 図6は、立体対象位置に対して設定された複数の視線を示した図である。 図7は、図6に対応し、視線切り替え動作時の表示部の画面遷移を示した図である。
 以下、図面を参照しながら本実施形態に係るX線診断装置1を説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
 図1は、本実施形態に係るX線診断装置1の構成の一例を示すブロック図である。図1に示すように、本X線診断装置1は、C形アーム11と、C形アーム支持機構12と、寝台13と、天板14と、X線発生部15と、高電圧発生部16と、X線絞り器17と、X線検出部18と、移動部19と、入力部20と、角度検出部21と、位置特定部22と、撮影位置設定部23と、撮影条件設定部24と、撮影制御部25と、前処理部26と、画像発生部27と、記憶部28と、画像選択部29と、制御部30と、表示制御部31と、表示部32と、を有する。
 本X線診断装置1の架台部は、C形アーム11、C形アーム支持機構12、寝台13、及び天板14を有する。 
 C形アーム支持機構12は、C形アーム11を回転自在に支持する。C形アーム11は、その一端にX線発生部15を保持する。X線発生部15は、X線を発生する真空管である。X線発生部15は、高電圧発生部16からの高電圧(管電圧)の印加によりX線を発生する。X線発生部15は、発生したX線を放射するための放射窓を有する。X線発生部15の放射窓には、X線絞り器17が取り付けられる。X線絞り器17は、X線検出部18の検出面上のX線照射野を調整することができる線錐制限器である。X線絞り器17により、X線照射野が調整されることで、被検体への不要な被曝を低減できる。C形アーム11は、その他端に、X線発生部15と対向するように、X線検出部18を保持する。X線検出部18は、複数のX線検出素子を有する。複数のX線検出素子は、2次元のアレイ状に配列される。2次元のアレイ状の検出器はFPD(Flat Panel Display:平面検出器)と呼ばれる。FPDの各素子は、X線発生部15から放射され被検体を透過したX線を検出する。FPDの各素子は、検出したX線強度に対応した電気信号を出力する。X線発生部15の照射窓の焦点とX線検出部18のX線検出面の中心位置とを結ぶ線を撮影軸(第5回転軸)と呼ぶ。第5回転軸まわりのX線検出部18の回転は、撮影画像の上下を決定する。なお、画像の上下左右は、X線検出部18の各素子からの電気信号の読み出す方法を変更することにより、適宜変更が可能である
 図2は、本実施形態に係るX線診断装置1の架台部の外観を示す図である。なお、C形アーム支持機構12は、C形アーム11を天井から吊り下げて保持する天井吊り下げ式、またはC形アーム11を床置きされた機構で保持する床置き式のいずれでもよい。本実施形態では、床置き式を例に説明する。C形アーム支持機構12は、床旋回アーム121、スタンド122、及びアームホルダ123を有する。床旋回アーム121は、その一端において、第1回転軸まわりに旋回自在に床面上に設けられる。床旋回アーム121は、その他端において第2回転軸まわりに回転自在にスタンド122が支持される。第1、第2回転軸は、直交軸と略平行である。スタンド122には、第3回転軸まわりに回転自在にアームホルダ123が支持される。第3回転軸は、直交軸と略直交する軸である。アームホルダ123には、C形アーム11の形状に沿って円弧状に回転(スライド回転)自在にC形アーム11が支持される。このスライド回転の回転軸は第4回転軸という。なお、C形アーム支持機構12は、C形アーム11を後述する長軸方向と短軸方向とに移動可能に支持してもよい。
 なお、本実施形態では、X線発生部15及びX線検出部18をC形アーム11により保持され、C形アーム支持機構12により、C形アーム11が回転自在に支持される旨を記載している。しかしながら、X線発生部15とX線検出部18とが、対峙するように保持できるのであれば、他の支持機構であってもよい。例えば、C形アーム11及びC形アーム支持機構12は、X線発生部15を回転自在に保持する第1保持部と、X線検出部18を回転自在に保持する第2保持部とにより代替可能である。この時、例えば、第1保持部は床置きされた機構を有し、第2保持部は、天井から吊り下げられた機構を有する。第1保持部と第2保持部とにより、X線発生部15とX線検出部18とは、対峙する向きに保持される。そして、第1保持部の回転動作と第2保持部の回転動作とが、例えば、同期するように制御されることで、X線の連続撮影が可能である。
 X線発生部15とX線検出部18との間には、寝台13と天板14とが配置される。寝台13は、被検体が載置される天板14を直交3軸に関して移動可能に支持する。直交3軸とは、例えば、天板14の短軸と、天板14の長軸、及び短軸と長軸とに直交する直交軸とで定義されるものとする。以下、天板14の長軸に沿った方向を長軸方向と呼ぶ。また、天板14の短軸に沿った方向を短軸方向と呼ぶ。また、直交軸に沿った方向を直交軸方向と呼ぶ。
 移動部19は、後述する撮影制御部25による制御に従って、C形アーム11とC形アーム支持機構12と(併せて保持部)を第1乃至第5回転軸回りにそれぞれ独立に回転させる。また、移動部19は、後述する撮影制御部25による制御に従って、天板14を長軸方向または短軸方向にスライド移動させ、直交軸方向に昇降移動させる。加えて、移動部19は、長軸方向と短軸方向とのうち少なくとも一つの方向に平行な軸を回転軸として、天板14を寝台13の設置面に対して傾けるために天板14を回転移動させる。以下、C形アーム11とC形アーム支持機構12との移動に関して、スライド移動、昇降移動、及び回転移動をまとめて移動と呼ぶ。
 入力部20は、本X線診断装置1に対して、ユーザによる指示情報を入力するための、インターフェースとして機能する。入力部20には、マウス、キーボード、トラックボール、タッチパネル、及びボタン等の入力デバイスが適宜利用可能である。指示情報とは、C形アーム11の移動指示、X線撮影の開始指示、撮影角度設定処理の開始指示、撮影条件の設定指示、及び基準視線の設定指示等である。 
 入力部20は、ユーザがC形アーム11及びC形アーム支持機構12を移動させるための操作コンソールを有する。操作コンソールは、例えば、C形アーム11を前述の複数の回転軸周りにそれぞれ独立に回転させるための、ボタン、ハンドル、及びトラックボール等を有する。ユーザは、操作コンソールを操作することにより、C形アーム11及びC形アーム支持機構12を所望の位置に移動させることができる。 
 入力部20は、本X線診断装置1によるX線撮影の開始の契機となるスイッチ(以下、撮影スイッチと呼ぶ。)を有する。撮影スイッチは、典型的にはフットスイッチである。後述の撮影制御部25は、撮影スイッチが押されたのを契機に、X線撮影を開始するために各部を制御する。
 入力部20は、本X線診断装置1による後述の撮影角度設定処理を開始の契機となるスイッチ(以下、設定スイッチと呼ぶ。)を有する。後述の撮影制御部25は、設定スイッチが押されたのを契機に、本X線診断装置1による後述の撮影角度設定処理を実行する。なお、設定スイッチは、撮影スイッチと共用(以下、共用スイッチと呼ぶ)であってもよい。撮影制御部25は、共用スイッチが押されたのを契機に、後述の撮影角度設定処理を実行した後、自動的にX線撮影を開始するために各部を制御する。
 X線の撮影条件は、例えば、管電流値、管電圧値、及び撮影時間等の条件を含む。撮影条件は、例えば、後述の表示部32に表示された撮影条件の設定支援画面上のユーザ操作に従って入力される。撮影条件の設定支援画面には、上述の複数の条件にそれぞれ対応する複数のパラメータをユーザが入力するための入力欄が表示される。
 視線は、立体対象位置、視線方向、及び表示向きで定義される。立体対象位置とは、ユーザが立体的に見たい被検体の中心位置を決めるための情報である。交差法による立体視の場合、立体対象位置は右目の視線と左目の視線とが交差する輻輳点の位置と重なる。視線方向とは、立体対象位置を見る方向を決めるための情報である。表示向きとは、視線方向から立体対象位置を見た時の被検体の上下左右を決めるための情報である。ユーザが設定した被検体の視線に対応する立体視映像を認識したとき、その映像は、立体対象位置を視線方向から見たときの被検体に関する立体視映像であり、中心位置は立体対象位置に対応し、立体視映像の上下左右は表示向きで定義した上下左右に対応する。
 基準視線は、被検体に関する一連の治療等における視線の基準を示す。基準視線は、例えば、被検体に関する一連の治療等において、最も注視したい被検体の位置、その位置を見る方向、画像の上下左右により設定されるのが好適である定義される。基準視線は、例えば、後述の表示部32に表示された視線設定画像上のユーザ操作に従って入力される。視線設定画像とは、本X線診断装置1により撮影された複数のX線画像のデータに基づいて、再構成された被検体に関する3D画像である。ユーザは、表示部32に表示された3D画像上を入力部20のマウス等で操作することにより、立体対象位置、視線方向、及び表示向きを入力することができる。具体的には、ユーザは、視線設定画像上で、特定の操作、例えばマウスでクリックすることで、立体対象位置を入力することができる。また、ユーザは視線設定画像をマウスで、回転させたり、移動させたりすることで、視線方向及び表示向きを入力することができる。視線方向は、表示中の視線設定画像を見る方向に対応する。また、表示向き(立体視映像の上下左右)は、表示中の視線設定画像の上下左右に対応する。視線設定画像は、本X線診断装置1で収集された被検体に関する3D画像である。したがって、本X線診断装置1は、視線設定画像上で設定された立体対象位置、視線方向、及び表示向きに従って、天板14に載置された患者の撮影位置を設定することができる。これにより、ユーザは基準視線を設定することができる。なお、視線設定画像の座標系と撮影に関わる座標系が、例えば、天板14の所定の位置を原点とした天板座標系またはC形アーム11の座標系と対応できているのであれば、視線設定画像は、上述の画像に限定されない。
 例えば、視線設定画像は、被検体に関する本X線診断装置1により撮影された複数の2D画像であってもよい。このとき、例えば、ユーザは、第1平面に関する被検体の2D画像上で第1平面における立体対象位置を指定する。そして、第1平面と平面が異なる第2平面に関する被検体の2D画像上で第2平面における立体対象位置を指定する。平面の異なる2つの2D画像上のユーザ操作により、立体対象位置が決定される。視線方向及び表示向きは、例えば、第1平面に対応する被検体の2D画像、または、第2平面に対応する被検体の2D画像のユーザ操作(画像の回転等)により決定される。以上の操作により、ユーザは基準視線を設定することができる。
 また、患者の姿勢、体型、年齢、及び性別等の患者情報がわかっていれば、天板14に載置された患者の部位を天板14の所定の位置を原点とした天板座標系において特定することができる。そのため、視線設定画像は、人体を模した人体モデル画像等でもよい。
 また、視線設定画像の3D画像は、他のモダリティ、例えば、X線CT(Computed Tomography:コンピュータ断層撮影)装置により収集されたボリュームデータに基づいて、再構成された画像であってもよい。
 また、基準視線は、基準視線に移動されたC形アーム11及びC形アーム支持機構12の位置に従って設定されてもよい。具体的には、ユーザは、入力部20を操作することにより、第5回転軸を基準視線の位置に移動させる。そして、ユーザは、基準視線を設定するボタン等を押すことにより、基準視線を設定することができる。
 角度検出部21は、第1乃至第5の回転軸にそれぞれに対応する5つの回転角度を検出する。角度検出部21は、上述の入力部20の基準視線を設定するボタンが押されたのを契機に、5つの回転角度を検出する。そして、検出された5つの回転角度に基づいて、基準視線を設定する。
 位置特定部22は、ユーザ移動変位と基準ユーザ視差とを特定する。 
 ユーザ移動変位とは、基準位置からどの方向にどれだけユーザの顔が移動したかを示すパラメータである。基準位置は、例えば、ユーザが表示部32を主に閲覧する位置に立ったときの、顔の位置である。表示部32を主に閲覧する位置は、例えば、ユーザが被検体への手技を実際に行う位置に対応する。位置特定部22は、ユーザの顔の位置(以下、単にユーザ位置と呼ぶ。)を特定する。ユーザ位置は、ユーザの顔の特徴点の位置を表し、例えば、ユーザの右目の瞳孔位置と左目の瞳孔位置とを結んだ直線の中点である。位置特定部22は、カメラ等により撮影されたユーザに関する画像に対して、目、鼻、及び口等の顔の特徴部分を閾値処理により検出することによりユーザ位置を特定する。カメラ等のデバイスは、外部デバイスであってもよい。このとき、位置特定部22は、外部デバイスから入力されたユーザに関する画像を入力する。位置特定部22は、基準ユーザ位置を、入力部20の基準ユーザ位置の設定に関わるボタンが押されたのを契機に設定する。なお、位置特定部22は、基準ユーザ位置を、ユーザによる特定のジェスチャー動作を契機に設定してもよい。ジェスチャー動作は、カメラ等のデバイスにより検出可能である。ジェスチャー動作とは、例えば、「手を上げる」、「首を左右に振る」等の手技中のユーザであっても、容易にできる動作が好適である。基準ユーザ位置は、手技前及び手技中であってもジェスチャー動作及び入力部20の操作により適宜変更が可能である。ユーザは、例えば、表示部32を主に閲覧する位置に移動し、基準ユーザ位置の設定に関わるボタンを押すか、または、ジェスチャー動作を行う。すると、位置特定部22は、そのときのユーザ位置を特定し、基準ユーザ位置が設定される。
 図3は、ユーザ移動変位を説明するための説明図である。座標系は、表示中心位置Oを原点とした検査室座標系とする。また、表示部32の長軸に沿った軸をX軸、表示部32の短軸に沿った軸をY軸、表示中心位置Oを通り、表示部32の表示画面に垂直な軸をZ軸とする。P0は、基準ユーザ位置である。P1は、基準ユーザ位置から移動した後のユーザ位置である。なお、予め基準ユーザ位置P0の座標(x0、y0、z0)はわかっているものとする。
 位置特定部22は、ユーザ移動変位を特定するために、移動後のユーザ位置P1(x1、y1、z1)を特定する。そして、基準ユーザ位置P0の座標(x0、y0、z0)と移動後のユーザ位置P1の座標(x1、y1、z1)とに基づいて、ユーザ移動変位を特定する。ここでは、ユーザ移動変位を、表示中心位置Oに対する基準ユーザ位置からのユーザの移動角度とする。移動角度は、基準ユーザ位置P0と表示中心位置Oとを結んだ直線を角の1辺、ユーザ位置P1と表示中心位置Oとを結んだ直線を角の他の1辺、表示中心位置Oを角の頂点とする角度である。移動角度は、移動角度のXZ平面上の成分(以下、水平角度と呼ぶ)θと移動角度のYZ平面上の成分(以下、垂直角度と呼ぶ)φとで表される。以上の処理により、位置特定部22は、基準ユーザ位置と移動後のユーザ位置とに基づいて、ユーザ移動変位を特定する。 
 以上が図3の説明である。
 基準ユーザ視差とは、基準ユーザ位置で表示部32を視認しているユーザの視差である。立体対象位置は、表示部32の表示中心位置に表示される。そのため、位置特定部22は、表示中心位置から基準ユーザ位置までの距離と、基準ユーザ位置におけるユーザの瞳孔間距離(以下、基準瞳孔間距離と呼ぶ。)とに基づいて、基準ユーザ視差を特定する。視差の特定には、例えば、三角法等の計算が用いられる。瞳孔間距離は、ユーザの右目の瞳孔位置と左目の瞳孔位置との間の距離である。なお、基準ユーザ視差は、入力部20を介してユーザにより入力されてもよい。
 位置特定部22は、ユーザ移動変位及び基準ユーザ視差を特定するためのカメラ等のデバイスを有する。なお、デバイスは、ユーザ位置及び基準瞳孔間距離を特定できるのであれば、他のデバイスであってもよい。例えば、デバイスは、赤外線センサ及び光センサ等であってもよい。なお、上述では、ユーザ位置を右目の瞳孔位置と左目の瞳孔位置とを結んだ直線の中点としているが、位置特定部22により、ユーザの顔がどれだけ移動したかが特定できるのであれば、ユーザ位置は、上述の位置に限定されない。例えば、ユーザ位置は、口の位置及び鼻の位置等の顔の他のパーツの位置でもよいし、顔に付けられたマーカの位置でもよい。また、光センサの受光器と投光器とのセットのうち、一方がユーザに、他方を表示部32に取り付けられ、位置特定部22は、その光センサの出力に基づいて、ユーザ移動変位を特定してもよい。
 なお、基準ユーザ位置及び基準ユーザ視差に関するデータは、制御部30により、ユーザ情報及び検査情報等の付帯情報とともに後述の記憶部28に記憶されてもよい。また、上述では、基準ユーザ位置及び基準ユーザ視差は、位置特定部22により特定されると記載している。しかし、手技の種類に応じて、基準ユーザ位置が予め決まる場合もある。また、手技を担当するユーザに応じて、基準ユーザ位置及び基準瞳孔間距離が決まる場合もある。そのため、基準ユーザ位置及び基準瞳孔間距離は、ユーザ指示に従って、後述の記憶部28に記憶されているユーザ情報データベースから、適宜選択されてもよい。位置特定部22によるユーザ移動変位の特定処理は、後述の撮影角度設定処理に連動して実行される。位置特定部22は、特定したユーザ移動変位のデータを撮影位置設定部23に送信する。
 撮影条件設定部24は、ユーザにより入力されたX線の撮影条件に基づいて、X線の撮影条件を設定する。 
 撮影位置設定部23は、視線及び撮影角度セットを設定する。撮影位置設定部23は、ユーザにより入力された基準視線に従って、撮影角度セットを設定する。撮影角度セットは、左目用撮影角度と右目用撮影角度とを有する。視線方向に対応する視線角度は、例えば、立体対象位置を原点とし、天板14の短軸に並行な軸をX軸、天板14面に直交する方向に沿った軸をY軸、天板14の長軸に平行な軸をZ軸としたときのX軸と成す角度とY軸と成す角度で表される。また、撮影位置設定部23は、表示部32に表示中の画像セットに対応する視線と、ユーザ移動変位とに基づいて、被検体に関する視線を再設定する。そして、再設定された視線に従って、撮影角度セットを設定する。撮影位置設定部23による、撮影角度セットの設定処理に関する詳細説明は後述する。撮影位置設定部23は、設定した撮影角度セットのデータを撮影制御部25と画像選択部29とに送信する。
 撮影制御部25は、X線撮影に関わる各部を制御する。具体的には、撮影条件設定部24により設定されたX線の撮影条件に従って、高電圧発生部16を制御する。また、撮影制御部25は、撮影条件設定部24により設定された撮影角度セットに応じて、移動部19を制御する。このとき、撮影制御部25は、高電圧発生部16及び移動部19の制御とともに、X線検出部18を制御することにより、撮影角度セットにおけるX線の撮影動作を実行する。そして、そのX線撮影動作と同期して記憶部28、画像発生部27、及び前処理部26等の各動作を制御する。
 前処理部26は、X線検出部18から出力された電気信号に対して前処理を実行する。前処理とは、例えば、各種補正処理、増幅処理、及びA/D変換処理等である。
 画像発生部27は、前処理を実行された電気信号に基づいて、X線画像のデータを発生する。具体的には、画像発生部27は、左目用撮影角度と右目用撮影角度と(撮影角度セット)にそれぞれ対応する左目用画像のデータと右目用画像のデータと(以下、併せて画像セットと呼ぶ)を発生する。X線画像を構成する各画素に割り付けられた画素値は、X線の透過経路上の物質に関するX線減弱係数に応じた値等である。
 記憶部28は、半導体記憶素子であるFlash SSD(Solid State Disk)などの半導体記憶装置及びHDD(Hard Desk Drive)等である。記憶部28は、制御部30による制御に従って、画像発生部27で発生された複数の画像セットのデータを、それぞれ対応する視線角度と撮影角度セットとに関するデータとともに記憶する。また、記憶部28は、画像セットに関するデータ以外の、例えば、X線の撮影条件のデータ、X線の撮影角度条件のデータ、瞳孔間距離のデータ、及びユーザ情報データベースのデータを記憶する。ユーザ情報データベースは、複数のユーザIDに対して、複数の瞳孔間距離と複数の基準ユーザ位置とをそれぞれ対応させた対応表である。記憶部28は、手技の種類に応じた対応表を複数備えても良い。
 画像選択部29は、撮影位置設定部23により設定された撮影角度セットに基づいて、後述の表示部32に表示する画像セットを、後述の記憶部28されている複数の画像セットから選択する。撮影位置設定部23により設定された撮影角度セットに対応する画像セットが記憶部28に記憶されていない場合において、画像選択部29は、撮影開始を示す信号を撮影制御部25に送信する。なお、画像選択部29による、上述の記憶部28からの画像セットの選択処理のON/OFFは、ユーザ指示に従って適宜変更が可能である。
 制御部30は、CPU(Central Processing Unit)とメモリ回路等を有する。制御部30は、入力部20を介して入力された指示情報を受け取り、一時的にメモリ回路を記憶する。制御部30は、入力情報に基づいてX線診断装置1の各部を制御する。
 表示制御部31は、画像選択部29により選択された画像セットを、基準ユーザ位置において、ユーザが立体視できるように後述の表示部32に表示する。
 例えば、裸眼式の2視差のレンチキュラーレンズ方式において、表示制御部31は、左目用画像と右目用画像とを、それぞれ縦に帯状に分割した映像信号を表示部32に送信する。表示部32は、縦に帯状に分割された左目用画像と右目用画像とを交互になるように並べて表示する。分割された左目用画像と右目用画像とが交互になるように並べて表示部32に表示される。表示部32は、表示面上にレンチキュラーレンズを有する。レンチキュラーレンズは、ユーザの見る位置により、視線の届く位置を変化させるレンズである。レンチキュラーレンズの配置を調整することにより、右目には右目用画像が、左目には左目用画像だけが見えるため、立体視ができる。
 また、眼鏡式のフレーム・シーケンシャル方式において、表示制御部31は、1フレーム同期期間内で、左目用画像信号の後に右目用画像信号を表示部32に送信する。表示部32は、送信された画像信号に基づいて、画像を表示する。ユーザは、液晶シャッター眼鏡を装着して表示部32を見る。液晶シャッターは、表示部32による表示動作と同期して、左右の視界を交互に遮蔽する。眼鏡のシャッターが2つの画像と完全に同期して開閉することで右目には右目用画像が、左目には左目用画像だけが見えるため、立体視ができる。
 本実施形態の表示制御部31及び表示部32について、2つの立体視方式を例に説明したが、視差を利用するいずれの立体視方式に対して、本実施形態の適用が可能である。また、多視差を利用可能な立体視方式に対しても、本実施形態の適用が可能である。
  (撮影角度設定機能) 
 撮影角度設定機能は、本実施形態に係るX線診断装置1の撮影位置設定部23が、表示部32に表示中の画像セットに対応する視線と位置特定部22により特定されたユーザ移動変位とに基づいて、被検体に関する視線を再設定し、再設定された視線に対応する撮影角度セットを自動的に設定する機能である。撮影角度設定機能に伴う処理(以下、撮影角度設定処理と呼ぶ)について図4を参照して説明する。撮影角度設定処理は、撮影制御部25の制御に従って実行される。
 図4A、図4B,図4C及び図4Dは、本実施形態に係るX線診断装置1の撮影角度設定処理を説明するための説明図である。 
 図4Aは、検査室座標系における基準ユーザ位置を示した図である。
 図4Bは、基準ユーザ位置に対応する撮影角度セットを説明するための説明図である。 
 図4Cは、検査室座標系における基準ユーザ位置から移動後のユーザ位置を示した図である。 
 図4Dは、移動後のユーザ位置に対応する撮影角度セットを説明するための説明図である。 
 図4A及び図4Cでは、表示中心位置Oを原点、表示部32の長軸に沿った軸をX軸、表示部32の短軸に沿った軸をY軸、表示中心位置Oを通り、表示部32の表示画面に垂直な軸をZ軸とした検査室座標系を表している。
 図4B及び図4Dでは、天板14の所定の位置を原点、天板14の長軸に平行なZ軸、天板14の短軸に平行なX軸、天板14面に直交するY軸とした天板座標系を表している。
 図4Aに示すように、ユーザは、基準ユーザ位置P0(0,0、Z0)にいるものとする。基準視線に対応する左目用撮影角度と右目用撮影角度と(以下、撮影角度セットJ0と呼ぶ)は、それぞれρ0Lとρ0Rとに設定されているものとする。撮影角度セットJ0は、基準視線と基準ユーザ視差とに基づいて、撮影位置設定部23により設定される。具体的には、視線設定画像上で入力部20を介して基準視線が設定されると、撮影位置設定部23は、基準視線に含まれる視線方向に基づいて、視線角度ρ0を特定する。そして、撮影位置設定部23は、基準ユーザ視差αに基づいて、視線角度ρ0から左目用撮影角度に傾ける角度(α/2)と視線角度ρ0から右目用撮影角度に傾ける角度(α/2)とを特定する。また、撮影位置設定部23は、基準視線に含まれる表示向きに基づいて、視線角度ρ0から、左目用撮影角度及び右目用撮影角度に傾ける方向を特定する。傾ける方向は、視線方向を示す直線に直交し、表示向きの左右を表す直線に平行な方向である。視線角度から左目用撮影角度に傾ける方向は、視線角度から右目用撮影角度に傾ける方向の逆方向である。以上の処理から、撮影位置設定部23は、基準視線と基準ユーザ視差とに基づいて、左目用撮影角度ρ0Lと右目用撮影角度ρ0Rとを設定することができる。そして、撮影制御部25の制御に従って、左目用撮影角度ρ0Lと右目用撮影角度ρ0Rと(撮影角度セットJ0)にそれぞれ対応する左目用画像K0Lと右目用画像K0Rと(画像セットK0)が各部により収集され、記憶部28に記憶される。そして、表示制御部31により、左目用画像K0Lと右目用画像K0Rとが表示部32に表示される。ユーザは、基準ユーザ位置P0から表示部32を視認することにより、視線角度ρ0から立体対象位置を見たような被検体に関する立体視映像を認識することができる。 
 そして、ユーザは、図4Aの基準ユーザ位置P0から図4Cのユーザ位置P1に移動したとする。ユーザにより特定のジェスチャー動作が実行されたのを契機に、または、設定スイッチが押されたのを契機に、撮影制御部25により、撮影角度設定処理が実行される。 
 撮影角度設定処理は以下の手順で実行される。まず、位置特定部22により移動後のユーザ位置P1(X1、0、Z1)が特定される。なお、説明を簡単にするため、ユーザは、水平方向に移動したものとする。次に、位置特定部22は、基準ユーザ位置P0と移動後のユーザ位置P1とに基づいて、移動角度θ1(ユーザ移動変位)を特定する。移動角度θ1には、基準ユーザ位置からの移動方向に関する情報が含まれる。次に、撮影位置設定部23により、表示部32に表示中の画像セットに対応する視線角度ρ0と、表示向きと、及び移動角度θ1とに基づいて、視線角度ρ1を特定する。視線角度ρ1は、視線角度ρ0に移動角度θ1を加算した角度である。以上の処理により、被検体に関する視線が再設定される。再設定された視線は、再設定される前の視線と視線方向が異なる。そして、撮影位置設定部23は、基準ユーザ視差αに基づいて、視線角度ρ1から左目用撮影角度に傾ける角度(α/2)と視線角度ρ1から右目用撮影角度に傾ける角度(α/2)とを特定する。そして、撮影位置設定部23は、再設定された視線に含まれる表示向きに基づいて、視線角度ρ1から、左目用撮影角度及び右目用撮影角度に傾ける方向を特定する。以上の処理から、撮影位置設定部23は、表示部32に表示されている画像セットに対応する視線と基準ユーザ視差とに基づいて、左目用撮影角度ρ1Lと右目用撮影角度ρ1Rと(以下、撮影角度セットJ1と呼ぶ)を設定することができる。そして、撮影制御部25の制御に従って、左目用撮影角度ρ1Lと右目用撮影角度ρ1Rと(撮影角度セットJ1)にそれぞれ対応する左目用画像K1Lと右目用画像K1Rと(画像セットK1)が各部により収集され、記憶部28に記憶される。撮影制御部25による画像セットK1の収集動作は、撮影角度セットJ1が設定された後、自動的に実行される。そして、表示制御部31により、左目用画像K1Lと右目用画像K1Rとが表示部32に表示される。ユーザは、基準ユーザ位置P0から表示部32を視認することにより、視線角度ρ1から立体対象位置を見たような立体視映像を認識することができる。
 なお、ここでは、撮影角度設定処理に移行する契機として、ユーザのジェスチャー動作及びユーザによる入力部20の操作を挙げているが、他の方法であってもよい。撮影角度設定処理に移行は、例えば、ユーザが発声した特定の単語の検出であってもよい。そのため、本X線診断装置1は、ユーザから発声された特定の単語を検出するための音検出デバイスを備える音検出部(図示せず)が構成要素にあってもよい。
 次に、本実施形態に係るX線診断装置1を用いた一連の処理について図5を参照して説明する。なお、画像選択部29による選択処理の機能はONとする。 
 図5は、本実施形態に係るX線診断装置1を用いた一連の処理の一例を示すフローチャートである。 
 (ステップS11) 
 入力部20を介してユーザにより入力されたX線の撮影条件に基づいて、撮影条件設定部24により、X線の撮影条件が設定される。
 (ステップS12) 
 入力部20を介してユーザにより入力された基準視線と、位置特定部22により特定された基準ユーザ視差とに基づいて、撮影位置設定部23により、基準視線に対応する撮影角度セットが設定される。
 (ステップS13) 
 ステップS12から処理が移行した場合、撮影条件設定部24により設定されたX線の撮影条件の下、撮影制御部25の制御にしたがって、撮影位置設定部23により設定された撮影角度セットに対応する画像セットが各部により収集される。収集された画像セットのデータは、基準視線に関する情報及び撮影角度セットに関する情報等とともに、記憶部28に記憶される。 
 ステップS17から処理が移行した場合、撮影制御部25の制御にしたがって、ステップS17において設定された撮影角度セットに対応する画像セットが各部により収集される。収集された画像セットのデータは、基準視線に関する情報及び撮影角度セットに関する情報等とともに、記憶部28に記憶される。
 (ステップS14) 
 ステップS12、ステップS13と処理が移行した場合、表示制御部31により、基準ユーザ位置で表示部32を視認しているユーザが、立体視できるように収集された画像セットが表示部32に表示される。ユーザは、基準ユーザ位置から表示部32を視認することにより、基準視線に対応する立体視映像を認識することができる。 
 ステップS17、ステップS13と処理が移行した場合、表示制御部31により、基準ユーザ位置で表示部32を視認しているユーザが、立体視できるように読み出された画像セットが表示部32に表示される。ユーザは、基準ユーザ位置から表示部32を視認することにより、ステップS16で設定された視線角度から立体対象位置を見たような立体視映像を認識することができる。 
 ステップS16から処理が移行した場合、画像選択部29により、再設定された視線に対応する画像セットが、記憶部28から読み出される。そして、表示制御部31により、基準ユーザ位置で表示部32を視認しているユーザが、立体視できるように読み出された画像セットが表示部32に表示される。ユーザは、基準ユーザ位置から表示部32を視認することにより、ステップS16で再設定された視線に対応する立体視映像を認識することができる。
 (ステップS15) 
 位置特定部22により、ユーザによる特定のジェスチャー動作の検出処理が実行される。位置特定部22により、ユーザによる特定のジェスチャー動作が検出された場合、ステップS16に処理が移行され、撮影角度設定処理が実行される。位置特定部22により、ユーザによる特定のジェスチャー動作が検出されない場合は、本X線診断装置1による一連の処理は終了される。撮影角度設定処理への移行は、入力部20の設定スイッチが押されたのを契機としてもよいし、ユーザにより特定の単語が発声されたのを契機でもよい。
 (ステップS16) 
 位置特定部22及び撮影位置設定部23により、撮影角度設定処理が実行される。そして、撮影角度設定処理により、被検体に対する視線が再設定されるとともに、再設定された視線に対応する撮影角度セットが設定される。
 (ステップS17) 
 ステップS16で設定された撮影角度セットに対応する画像セットが記憶部28に記憶されている場合は、ステップS14に処理が移行する。一方、記憶部28にステップS16で設定された撮影角度セットに対応する画像セットが記憶されていない場合は、ステップS13に処理が移行する。
 本X線診断装置1の撮影角度設定処理は、ユーザにより特定のジェスチャー動作が実行されたのを契機に、繰り返し実行が可能である。なお、画像選択部29による画像セットの選択処理がOFFのとき、本X線診断装置1は、視線が再設定されると、再設定された視線に対応する画像セットを常に収集する。これにより、ユーザは、リアルタイムで他の視線に対応する立体視映像を認識することができる。
 以上に述べた撮影角度設定機能によれば、以下の効果を得ることができる。 
 本X線診断装置1は、表示部32に表示された視線設定画像上のユーザ指示に従って、基準視線を設定することができる。基準ユーザ位置にて、ユーザは表示部32を視認することにより、被検体の基準視線に対応する立体視映像を認識することができる。この立体視映像は、基準視線に対応する視線方向から立体対象位置を見たような映像であり、基準視線に対応する立体対象位置を中心としている。また、立体視映像の上下左右は、基準視線に対応する表示向きに対応する。
 そして、撮影角度設定機能により、ユーザは、顔の位置を基準ユーザ位置から移動させるだけで、認識していた立体視映像を回転させた立体視映像を認識することができる。このとき回転後の立体視映像の上下左右方向は、回転前の立体視映像の上下左右方向と同じである。
 この一連の処理の中で、本X線診断装置1は以下のような処理を実行する。本X線診断装置1は、基準ユーザ位置から移動後のユーザ位置までのユーザ移動変位を特定する。本X線診断装置1は、ユーザ移動変位と、表示部32に表示中の画像セットに対応する視線に基づいて、移動後のユーザ位置に対応する視線を再設定する。本X線診断装置1は、再設定された視線に基づいて、再設定された視線に対応する撮影角度セット(左目用撮影角度と右目用撮影角度)を設定する。そして、本X線診断装置1は、撮影角度セット(左目用撮影角度と右目用撮影角度)に対応する画像セット(左目用画像と右目用画像)を収集し、表示部32に表示する。ユーザは、基準ユーザ位置で、表示部32を視認することにより、再設定された視線に対応する立体視映像を認識することができる。再設定された視線に対応する立体視映像は、移動後のユーザ位置から立体対象位置を見たような被検体に関する立体視映像である。つまり、ユーザは、認識している立体視映像を異なる方向から見たいとき、その見たい方向に顔を移動させるだけで、移動後の位置から見たような立体視映像を認識することができる。ユーザは、顔の移動という直観的な動作により、立体対象位置を複数の方向から見た場合の被検体に関する立体視映像を認識可能となるため、ユーザによる手術等の効率が向上する。また、本X線診断装置1は、複数の視線に対応する複数の画像セットを予め収集しているのではなく、再設定した視線に対応する画像セットのみを収集する。したがって、本X線診断装置1は、被曝量を抑えることもできる。すなわち、撮影角度設定機能を備える本X線診断装置1によれば、画像立体視の技術を用いた診断、治療等において、被曝量を抑えながらも、作業効率の向上を実現することができる。
 また、再設定された視線に対応する画像セットが記憶部28に記憶されている場合、画像選択部29により、再設定された視線に対応する画像セットが記憶部28から選択され、表示部32に表示される。したがって、新たに撮影することなく、ユーザは、再設定された視線に対応する立体視映像を認識することができる。したがって、本X線診断装置1は、被曝量を抑えることができる。
 なお、図5では、ユーザの特定のジェスチャー動作の検出を契機、ユーザの特定の単語の発生の検出を契機、または入力部20の設定スイッチが押されたのを契機、つまりユーザ指示に従って撮影角度設定処理が実行されると記載している。しかしながら、撮影角度設定処理は、撮影制御部25の制御に従って、自動的に繰り返し実行されてもよい。このとき、撮影制御部25は、所定の時間間隔毎に撮影角度設定処理を実行する。所定の時間間隔は、予めユーザにより設定されており、ユーザ指示に従って、適宜変更が可能である。撮影角度設定処理を自動的に実行するか、ユーザ指示に従って実行するかは、ユーザ指示に従って、適宜変更が可能である。自動的に撮影角度設定処理が実行できることで、ユーザは特定のジェスチャー動作、特定の単語の発生、及び入力部20の操作を行う必要がないため、手動のときに比べて作業効率を向上させることができる。このとき、ユーザ移動変位が、予め設定した閾値よりも小さい場合において、撮影制御部25による撮影角度設定処理が実行されないようにしてもよい。これにより、ユーザが意図しない撮影角度設定処理の実行を回避することができる。
 また、図4において、移動後の視線に対応する視線角度ρ1は、移動前の視線に対応する視線角度ρ0に移動角度θ1を加算した角度であると記載している。これにより、ユーザは、基準位置から顔を移動するだけで、移動後の位置から立体対象位置を見たような立体視映像を認識することができる。つまり、表示中心位置に対する基準位置からの移動角度と、移動前後の視線角度の差とが1対1で対応しているため、ユーザは、被検体に対する視線を直観的に変更することができる。しかし、例えば、今、認識している立体視映像を70度回り込んで見たい場合、ユーザは、表示中心位置に対して、基準位置から70度の水平方向まわりに顔を移動させる必要がある。ユーザにとって、手技中に、基準位置から大きく移動することは難しい場合がある。そのため、視線角度ρ1は、移動角度θ1に予めユーザにより設定された係数βを乗じた角度に視線角度ρ0を加算した角度であってもよい。これにより、ユーザの顔が少し動いただけでも、ユーザの顔が大きく移動したのと同じように、視線を再設定することができる。すなわち、動ける範囲が限られている手技中のユーザであっても、被検体に関する立体視映像を様々な方向から認識することができる。
 また、本実施形態では、ユーザ移動変位を、表示中心位置Oに対する基準ユーザ位置からのユーザの移動角度としている。すなわち、ユーザの移動変位は、ユーザによる顔の移動動作に従って特定される。しかしながら、ユーザは、手技中に基準位置から移動できない場合もある。そのため、ユーザ移動変位は、ユーザによる顔の移動動作に基づかなくてもよい。例えば、ユーザ移動変位は、ユーザの顔を傾ける動作、ユーザの顔の向きを変える動作等であってもよい。
 ユーザ移動変位が、ユーザの顔を傾ける動作に基づくとき、位置特定部22は、基準ユーザ位置からのユーザの顔の傾き角度と方向とを特定する。具体的には、位置特定部22は、ユーザの左目の瞳孔の位置と右目の瞳孔の位置とを特定する。そして、位置特定部22は、左目の瞳孔と右目の瞳孔とを結んだ線の、基準ユーザ位置にいる時と顔を傾けた後とで成す角度(以下、傾き角度と呼ぶ。)を特定する。そして、撮影位置設定部23は、表示中の立体視映像に対応する視線と傾き角度とに基づいて、視線を再設定する。傾き角度に応じて視線が再設定される方法は、予めユーザにより設定されている。例えば、傾き角度が右に10度のとき、撮影位置設定部23は、表示中の立体視映像に対応する視線を水平方向に10度右に回転した視線に再設定する。
 ユーザ移動変位が、ユーザの顔の向きを変える動作に基づくとき、位置特定部22は、顔の特徴点の移動方向及び特徴点の単位時間あたりの移動距離に基づいて、ユーザの顔の向きと顔の向きを変えた速さとを特定する。そして、撮影位置設定部23は、表示中の立体視映像に対応する視線と顔の向きと顔の向きを変えた速さとに基づいて、視線を再設定する。具体的には、例えば、撮影位置設定部23は、視線方向と顔の向きとに基づいて、視線を変更する方向を決定する。そして、顔の向きを変えた速さに基づいて、視線を変更する角度を決定する。
 撮影位置設定部23は、再設定された視線に対応する撮影角度セットを再設定する。そして、撮影制御部25の制御に従って、再設定された撮影角度セットに対応する画像セットが収集され、表示部32に表示される。ユーザは、基準ユーザ位置で表示部32を視認することにより、再設定された視線に対応する立体視映像を認識することができる。以上の処理により、撮影位置設定部23は、ユーザの顔の傾ける動作またはユーザの顔の向きを変える動作に基づいて、視線を再設定する。
 (変形例1) 
 変形例1に係るX線診断装置1について説明する。 
 本実施形態に係るX線診断装置1では、ユーザが、基準ユーザ位置で、表示部32を視認することを前提としている。これは、ユーザが、所定の位置(基準ユーザ位置)での作業が多い場合、ユーザが表示部32を視認する位置もほぼ固定されるためである。しかしながら、ユーザは、今、認識している立体視映像を、少しの時間、特定の方向に回転させて見たい場合もある。本X線診断装置1を用いた場合、ユーザは、例えば、基準ユーザ位置から特定の方向に移動させることで立体視映像を回転させることができる。ユーザは、回転させた後の立体視映像を、基準ユーザ位置で表示部32を視認することにより認識することができる。しかし、回転させた後の立体視映像を回転させる前の立体視映像に戻す場合、ユーザは、基準ユーザ位置から上述の特定の方向とは逆の方向に顔を移動させる必要がある。これは、立体視映像の回転が、基準ユーザ位置からのユーザ移動変位に従って行われるからである。そのため、ユーザは、立体視映像を特定の方向に回転させて少しの時間見て、元の立体視映像に戻したい場合、基準ユーザ位置を起点とした2往復のユーザの移動が必要となる。立体視映像を少しの時間だけ異なる方向に回転させて見たい場合でも、2往復の移動が必要となれば、作業効率が低下してしまう可能性がある。
 変形例1に係るX線診断装置1は、上述の課題を解決することを目的としている。変形例1に係るX線診断装置1は、基準ユーザ位置の変更が可能である。つまり、ユーザは、移動後のユーザ位置で、移動後のユーザ位置から立体対象位置を見たような立体視映像を認識することができる。そして、移動前の立体視映像に戻したい場合は、移動前のユーザ位置に顔を戻せばよいだけである。これにより、立体視映像を少しの時間だけ異なる方向から見たい場合でも、1往復の顔の移動で済む。したがって、変形例1に係るX線診断装置1は、実施形態に係るX線診断装置1の効果に加え、少しの時間、立体視映像を異なる方向から見たい場合において、作業効率の向上を実現することができる。
 なお、基準ユーザ位置を変更できるようにするか否かは、入力部20を介したユーザ指示に従って、適宜変更である。その変更指示は、ユーザのジェスチャー動作や特定の単語の発声に従って切り替えが可能であってもよい。
 (変形例2) 
 変形例2に係るX線診断装置1について説明する。 
 本実施形態に係るX線診断装置1では、ユーザは、認識している立体視映像を異なる方向から見たいとき、その見たい方向に顔を移動させるだけで、移動後の位置から見たような立体視映像を認識することができる。このとき、視線を再設定した後の立体視映像の上下左右の方向は、視線を再設定する前の立体視映像の上下左右方向と同じである。したがって、ユーザが認識する立体視映像の上下左右の方向は常に同じである。しかしながら、ユーザは、認識している立体視映像を傾けて見たい(映像の上下左右を変更したい)場合もある。例えば、ユーザは、カテーテル手技中にカテーテルの進行方向が映像の上下に対応してほしいとき、今、認識している立体視映像を、視線方向はそのままで、映像をカテーテルの進行方向に応じて傾けたい場合もある。本実施形態に係るX線診断装置1を用いた場合、視線のうち、視線方向を再設定することに対応している。しかしながら、表示向きを再設定することに対応していない。
 変形例2に係るX線診断装置1は、上述の課題を解決することを目的としている。具体的には、変形例2に係るX線診断装置1は、ユーザの顔が傾く角度に従って、表示向きを再設定することができる。表示向きが再設定できるため、ユーザの顔が傾く角度に従って、認識している立体視映像を傾けることができる。
 位置特定部22は、基準ユーザ位置からのユーザの顔の傾き角度を特定する。具体的には、位置特定部22は、ユーザの左目の瞳孔の位置と右目の瞳孔の位置とを特定する。そして、位置特定部22は、左目の瞳孔と右目の瞳孔とを結んだ線の、基準ユーザ位置にいる時と顔を傾けた後とで成す角度(以下、傾き角度と呼ぶ。)を特定する。撮影位置設定部23は、今、表示部32に表示されている画像セットに対応する視線と傾き角度とに基づいて、視線を再設定する。具体的には、撮影位置設定部23は、表示向きを傾き角度に従って再設定する。そして、撮影位置設定部23は、再設定された視線と基準ユーザ視差に基づいて、撮影角度セットを再設定する。撮影制御部25の制御に従って、再設定された撮影角度セットに対応する画像セットが収集され、表示部32に表示される。ユーザは、基準ユーザ位置で表示部32を視認することで、再設定された視線に対応する立体視映像を認識することができる。再設定された視線に対応する立体視映像は、再設定される前の視線に対応する立体視映像を傾けた映像である。その傾く方向は、ユーザが、顔を傾けた方向に対応する。したがって、変形例2に係るX線診断装置1は、実施形態に係るX線診断装置1の効果に加え、立体視映像を傾けて認識したい場合において、作業効率の向上を実現することができる。
 (変形例3) 
 変形例3に係るX線診断装置1について説明する。 
 本実施形態に係るX線診断装置1、変形例1に係るX線診断装置1、及び変形例2に係るX線診断装置1において、再設定された視線は、ユーザ移動変位に依存している。しかしながら、被検体の診断、治療等において、部位の種類、手技の種類等に応じて、被検体を見る必要のある視線方向、表示向き等は予め決められている場合もある。本実施形態に係るX線診断装置1を用いた場合、ユーザは、表示中の立体視映像に対応する視線を予め決められた視線に変更したいとき、顔の移動方向及び顔の移動量を気にする必要がある。移動量が多ければ、ユーザは、決められた方向の立体視映像を認識することはできない。そのため、予め決められた視線に対応する立体視映像を得るために、ユーザは繰り返し顔を移動させなければいけない場合がある。しかし、繰り返しのユーザの移動が必要となれば、ユーザの作業効率が低下してしまう可能性がある。
 変形例3に係るX線診断装置1は、上述の課題を解決することを目的としている。変形例2に係るX線診断装置1において、ユーザは、入力部20を介して視線設定画像を操作することにより、複数の視線を設定することができる。視線設定画像上での複数の視線の設定方法については、手動で設定する方法及び半自動で設定する方法がある。
 全手動で設定する方法において、複数の視線は、ユーザ指示に従って、1つずつ設定される。ユーザ指示に従って、視線を設定する方法は、本実施形態に係るX線診断装置1での基準視線の設定方法で述べた通りである。 
 半自動で設定する方法において、複数の視線のうち基準視線は、ユーザ指示に従って設定される。そして、他の視線は、基準視線と予め設定された方法とに従って設定される。半自動で設定する方法において、例えば、基準視線がユーザにより設定されると、基準視線を設定したときの視線設定画像の上下方向に沿って、所定の角度間隔で複数の視線が設定される。また、例えば、基準視線がユーザにより設定されると、基準視線を設定したときの視線設定画像の上下方向に沿って、所定の角度間隔で複数の視線が設定される。さらに、上述の2つの方法が組み合わされてもよい。
 位置特定部22は、ユーザによる視線切り替え動作を特定する。視線切り替え動作とは、表示部32に表示されている画像セットに対応する視線を、予め設定された他の視線に切り替えるための動作である。したがって、視線切り替え動作後、表示部32には、他の視線に対応する画像セットが表示される。ユーザは、基準ユーザ位置で表示部32を視認することにより、他の視線に対応する立体視映像を認識することができる。ユーザによる視線切り替え動作は、例えば、ユーザの顔の移動及びジェスチャー等である。なお、視線切り替え動作は、ユーザによる特定の単語の発声でも代替が可能である。位置特定部22は、ユーザ移動変位を特定する。また、位置特定部22は、ユーザのジェスチャー動作を特定する。ジェスチャー動作は、例えば、手を傾ける、手を振る、及び指をさす等がある。視線切り替え動作は、入力部20を介したユーザ指示に従って、設定が可能である。位置特定部22による視線切り替え動作の特定するモードには、連続モードと手動モードとがある。これらのモードは、ユーザ指示に従って、適宜変更が可能である。
 連続モードにおいて、位置特定部22は、ユーザにより視線切り替え動作が実行されたか否かを特定する。特定する時間間隔は、ユーザ指示に従って適宜変更が可能である。視線切り替え動作は、ユーザの意図しない視線の切り替えが発生しないために、ユーザが普段行わない動作であり、かつ、手技中のユーザに負担のかからない動作が好適である。また、視線切り替え動作であるか否かを明確にするために、位置特定部22は、ジェスチャー動作の速さ、動作の大きさ、及び動作の継続時間に従って、視線切り替え動作を特定してもよい。
 手動モードにおいて、位置特定部22は、位置特定部22による視線切り替え動作の特定モードに移行するためのスイッチ(以下、移行スイッチと呼ぶ。)が押されたのを契機に、視線切り替え動作の特定を開始する。ここでは、移行スイッチが契機となると記載しているが、位置特定部22による視線切り替え動作の特定モードへの移行は、ユーザによる特定の単語の発声、ジェスチャー動作等の検出が契機となってもよい。ユーザは、移行スイッチを押した後、視線切り替え動作を実行する。
 図6及び図7は、変形例3に係るX線診断装置1における視線切り替え動作を説明するための説明図である。 
 図6は、立体対象位置に対して設定された複数の視線を示した図である。 
 図7は、図6に対応し、視線切り替え動作時の表示部32の画面遷移を示した図である。 
 以下、図6と図7とを参照しながら、ユーザの視線切り替え動作と、視線切り替え動作後の表示部32に表示される画像とを説明する。
 図6において、Pは被検体を模した円柱状の筒を示している。Oは立体対象位置を示している。Cは立体対象位置に対する基準視線の視線方向を示している。表示向きは、画像の上方向が+X方向と、画像の下方向が-X方向と、画像の右方向が+Zと、及び画像の左方向が-Z方向とそれぞれ対応している。L1~L3、R1~R3、U1~U2、及びS1~S2は、それぞれ立体対象位置に対する複数の視線を示している。
 図7において、P1~P4は、位置特定部22の有するカメラにより撮影されたユーザに関する画像を示している。P1は、基準ユーザ位置において表示部32を視認しているユーザの画像を示している。P2、P3、及びP4は、それぞれ視線切り替え動作E、動作F、及び動作Gを行った後のユーザに関する画像を示している。視線切り替え動作E、動作F、動作Gは、それぞれユーザが右を向く、左を向く、及び上を向く動作である。今、表示部32には、基準視線Cに対応する画像セットが表示されているものとする。したがって、ユーザは、基準ユーザ位置にて、表示部32を視認することにより、基準視線Cに対応する立体視映像cを認識している。立体視映像cは、基準視線Cに対応する視線方向から立体対象位置Oを見たような被検体Pに関する立体視映像である。位置特定部22により視線切り替え動作Eが特定されたとき、撮影位置設定部23により、視線が基準視線Cから視線L1に変更される。視線切り替え動作Eは、ユーザが右を向く動作である。この動作は、ユーザが立体視映像cを右に回転させたい、つまり、ユーザが立体対象位置Oを左の方向から見たいことを意味している。そのため、視線が基準視線Cから視線L1に変更される。そして、撮影制御部25による制御により、視線L1に対応する画像セットのデータが記憶部28から読み出される。記憶部28に視線L1に対応する画像セットのデータが記憶されていない場合、撮影制御部25の制御に従って、各部により視線L1に対応する画像セットのデータが収集される。そして、表示部32に視線L1に対応する画像セットが表示される。ユーザは、基準ユーザ位置にて、表示部32を視認することにより、視線L1に対応する立体視映像l1を認識することができる。立体視映像l1は、視線L1の方向から立体対象位置Oを見たような被検体の立体視映像である。
 上述の視線切り替え動作Eの代わりに視線切り替え動作Fが特定されたとする。視線切り替え動作Fは、ユーザが上を向く動作である。この動作は、ユーザが立体視映像cを上に回転させたい、つまり、ユーザが立体対象位Oを下の方向から見たいことを意味している。そのため、視線が基準視線Cから視線S1に変更される。ユーザは、視線S1に対応する立体視映像s1を認識することができる。
 上述の視線切り替え動作Eの代わりに視線切り替え動作Gが特定されたとする。視線切り替え動作Gは、ユーザが左を向く動作である。この動作は、ユーザが立体視映像cを左に回転させたい、つまり、ユーザが立体対象位Oを右の方向から見たいことを意味している。そのため、視線が基準視線Cから視線R1に変更される。ユーザは、視線R1の方向から立体対象位置Oを見たような被検体の立体視映像r1を認識することができる。
 また、上述の視線切り替え動作Eが特定された後に、さらに位置特定部22により視線切り替え動作Eが特定されたとき、撮影位置設定部23は、視線を視線L1から視線L2に変更する。ユーザは、視線L2に対応する立体視映像を認識することができる。
 なお、撮影位置設定部23は、視線切り替え動作Eに従って、視線を基準視線から視線L1に変更する。しかしながら、撮影位置設定部23は、視線切り替え動作の大きさ、速さ、及び継続時間に従って、視線を基準視線から視線L2またはL3に変更してもよい。つまり、撮影位置設定部23は、視線切り替え動作の種類に従って、視線を切り替える方向を決定し、視線切り替え動作の大きさ、速さ、及び継続時間のうち、少なくとも1つに従って、視線を切り替える量を決定するようにしてもよい。
 また、上述の視線の切り替え処理において、ユーザが右を向けば、立体視映像は右に回転される。すなわち、ユーザ位置の移動方向と、視線が切り替わる方向とが対応している。そのため、ユーザは直観的に視線を切り替えることができる。しかしながら、ユーザ位置の移動方向と視線が切り替わる方向とが対応していなくてもよい。上述の切り替え処理の機能を有する変形例3に係るX線診断装置1は、表示中の画像セットに対応する視線を他の視線に切り替えることができる。他の視線は、予めユーザにより設定された複数の視線のうちの1つの視線である。変形例3に係るX線診断装置1は、表示中の画像セットに対応する視線と、特定された視線切り替え動作とに従って、予めユーザにより設定された複数の視線から、上述の他の視線を特定する。ユーザは、他の視線に対応する立体視映像を認識することができる。被検体を見る必要のある立体対象位置、視線方向、及び表示向きが予め決められている場合において、ユーザは、顔を移動させるだけで、認識している立体視映像に対応する視線を、予め設定された複数の視線のうちの1つに再設定することができる。複数の視線にそれぞれ対応する複数の画像セットは、予め収集されているわけではなく、ユーザ移動変位に従って再設定された視線に対応する画像セットが、その都度収集される。また、再設定された視線に対応する画像セットが既に収集済であれば、再度収集しないように設定することもできる。したがって、変形例3に係るX診断装置1は、被検体に対する診断、治療等において、被曝量を抑えながらも、作業効率の向上を実現することができる
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の趣旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。 
 例えば、本実施形態では、ユーザ移動変位に従って、被検体に対する視線のうち、視線方向を再設定できる旨を記載しているが表示向きを再設定できる旨の記載をしていない。一方、変形例2では、ユーザ移動変位に従って、被検体に対する視線のうち、視線方向を再設定できる旨の記載をしていないが、表示向きを再設定できる旨を記載している。しかしながら、本実施形態に、変形例2の機能を追加してもよい。これにより、X線診断装置1は、ユーザ移動変位に従って、被検体に対する視線のうち、視線方向と表示向きとを再設定することができる。
 また、本発明の目的は、被検体に対する診断、治療等において、被曝量を抑えながらも、作業効率の向上を実現する点にある。実施形態として、立体視を例に説明したが、本発明は、ユーザの顔の位置または顔の移動変位に応じて撮影位置を再設定し、再設定した撮影位置に対応するX線画像を収集する点にある。したがって、本発明の範囲は立体視に限定されない。これら実施形態やその変形は、発明の範囲や趣旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものある。
1…X線診断装置、11…C形アーム、12…C形アーム支持機構、13…寝台、14…天板、15…X線発生部、16…高電圧発生部、17…X線絞り器、18…X線検出部、19…移動部、20…入力部、21…角度検出部、22…位置特定部、23…撮影位置設定部、24…撮影条件設定部、25…撮影制御部、26…前処理部、27…画像発生部、28…記憶部、29…画像選択部、30…制御部、31…表示制御部、32…表示部、121…床旋回アーム、122…スタンド、123…アームホルダ

Claims (11)

  1.  X線を発生するX線発生部と、
     前記X線発生部から発生され、被検体を透過したX線を検出するX線検出部と、
     前記X線発生部と前記X線検出部とを、互いに対峙する向きで保持する保持部と、
     前記X線検出部の出力に基づいて、前記被検体に関するX線画像を表示する表示部と、
     前記表示部を視認しているユーザの顔の位置を特定する位置特定部と、
     前記特定されたユーザの顔の位置に応じた撮影位置に前記保持部を移動させる移動部と、
     を具備することを特徴とするX線診断装置。
  2.  前記位置特定部は、移動前後の前記ユーザの顔の位置に基づいて前記ユーザの移動変位を特定し、
     前記移動部は、前記特定されたユーザの移動変位に応じた撮影位置に前記保持部を移動させること、
     を特徴とする請求項1記載のX線診断装置。
  3.  前記位置特定部は、基準位置と移動後の前記ユーザの顔の位置とに基づいて、前記ユーザの移動変位を特定すること、
     を特徴とする請求項2記載のX線診断装置。
  4.  前記位置特定部は、前記移動変位を、前記基準位置から前記ユーザの顔の傾いた角度及び方向に基づいて特定する、または、前記ユーザの顔の動いた速さ及び前記ユーザの顔の向きに基づいて特定すること、
     を特徴とする請求項3記載のX線診断装置。
  5.  前記被検体に対する複数の撮影位置候補を入力する入力部をさらに具備し、
     前記移動部は、前記撮影位置を変更するために、前記ユーザの移動変位に基づいて、前記複数の撮影位置候補から選択された一撮影位置候補に前記保持部を移動させること、
     を特徴とする請求項2記載のX線診断装置。
  6.  前記被検体に関する視線を入力する入力部と、
     前記視線と視差とに基づいて、前記視線に対応する左目用の撮影位置及び右目用の撮影位置を設定する撮影位置設定部と、
     をさらに具備し、
     前記撮影位置設定部は、前記ユーザの移動変位に基づいて、前記視線を再設定するとともに、前記再設定した視線に対応する左目用の撮影位置及び右目用の撮影位置を再設定し、
     前記移動部は、前記設定された左目用の撮影位置及び右目用の撮影位置に前記保持部を移動させること、
     を特徴とする請求項2記載のX線診断装置。
  7.  前記ユーザの指示に従って、前記被検体の撮影位置を設定する撮影位置設定部をさらに具備し、
     前記撮影位置設定部は、前記ユーザの移動前の顔の位置に対応する撮影位置と前記ユーザの移動変位とに基づいて、前記ユーザの移動後の顔の位置に対応する撮影位置を設定し、
     前記移動部は、前記ユーザの移動後の顔の位置に対応する撮影位置に前記保持部を移動させること、
     を特徴とする請求項2記載のX線診断装置。
  8.  前記撮影位置設定部は、前記ユーザの移動変位に含まれる前記ユーザの顔の移動量を表すパラメータに所定の係数を乗算した値、前記ユーザの移動変位に含まれる前記ユーザの移動方向、及び前記ユーザの移動前の顔の位置に対応する撮影位置に基づいて、前記ユーザの移動後の顔の位置に対応する撮影位置を設定すること、
     を特徴とする請求項7記載のX線診断装置。
  9.  前記移動部は、前記ユーザの移動変位に含まれる前記ユーザの顔の移動量が所定の値よりも大きい場合において、前記特定されたユーザの移動変位に応じた撮影位置に前記保持部を移動させること、
     を特徴とする請求項2記載のX線診断装置。
  10.  前記移動部は、前記ユーザの特定のジェスチャー動作が検出されたのを契機に、または、前記ユーザによる特定の単語の発声が検出されたのを契機に前記特定されたユーザの顔の位置に応じて前記保持部を移動させること、
     を特徴とする請求項2記載のX線診断装置。
  11.  前記表示部は、前記再設定された左目用の撮影位置及び右目用の撮影位置にそれぞれ対応する左目用画像及び右目用画像を、前記ユーザの移動前の位置または前記ユーザの移動後の位置で立体視できるように表示すること、
     を特徴とする請求項6記載のX線診断装置。
PCT/JP2014/053532 2013-02-14 2014-02-14 X線診断装置 WO2014126219A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201480008831.1A CN104994787B (zh) 2013-02-14 2014-02-14 X射线诊断装置
US14/823,550 US9968320B2 (en) 2013-02-14 2015-08-11 X-ray diagnostic apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-026637 2013-02-14
JP2013026637 2013-02-14
JP2014026604A JP6222835B2 (ja) 2013-02-14 2014-02-14 X線診断装置
JP2014-026604 2014-02-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/823,550 Continuation US9968320B2 (en) 2013-02-14 2015-08-11 X-ray diagnostic apparatus

Publications (1)

Publication Number Publication Date
WO2014126219A1 true WO2014126219A1 (ja) 2014-08-21

Family

ID=51354217

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053532 WO2014126219A1 (ja) 2013-02-14 2014-02-14 X線診断装置

Country Status (4)

Country Link
US (1) US9968320B2 (ja)
JP (1) JP6222835B2 (ja)
CN (1) CN104994787B (ja)
WO (1) WO2014126219A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6352057B2 (ja) * 2013-05-31 2018-07-04 キヤノンメディカルシステムズ株式会社 X線診断装置
JP6559966B2 (ja) * 2015-02-04 2019-08-14 キヤノンメディカルシステムズ株式会社 X線診断装置
US11241206B2 (en) * 2017-03-21 2022-02-08 Canon Medical Systems Corporation X-ray imaging apparatus
CN108172291B (zh) * 2017-05-04 2020-01-07 深圳硅基智能科技有限公司 基于眼底图像的糖尿病视网膜病变识别***
WO2018232037A1 (en) 2017-06-14 2018-12-20 Eaves Christopher Fluoroscope with movable head and barrier to vary source to skin distance
EP3897389A4 (en) * 2018-12-19 2022-12-28 Onyx Technical Consulting, LLC MOVABLE IMAGING HEAD/X-RAY DETECTOR FLUOROSCOPY SYSTEM

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0984000A (ja) * 1995-09-07 1997-03-28 Toshiba Corp 画像表示システム
JP2008529707A (ja) * 2005-02-18 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療機器の自動制御
JP2009072360A (ja) * 2007-09-20 2009-04-09 Toshiba Corp X線診断装置
JP2012080294A (ja) * 2010-09-30 2012-04-19 Toshiba Corp 電子機器、映像処理方法、及びプログラム
JP2012223363A (ja) * 2011-04-20 2012-11-15 Tokyo Institute Of Technology 手術用撮像システム及び手術用ロボット
JP2014028123A (ja) * 2012-06-28 2014-02-13 Toshiba Corp X線診断装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1162129C (zh) * 2002-04-09 2004-08-18 张祥康 X射线对靶目标的计算机立体定位装置及其方法
ES2262423B1 (es) * 2005-02-18 2007-11-16 Manuel Fernandez Guerrero Sistema de activacion y desactivacion automatica de radiacion ionizante controlado por la mirada del operador.
US20090281452A1 (en) * 2008-05-02 2009-11-12 Marcus Pfister System and method for a medical procedure using computed tomography
JP2011181991A (ja) 2010-02-26 2011-09-15 Hitachi Consumer Electronics Co Ltd 3d映像表示装置
JP2011259373A (ja) 2010-06-11 2011-12-22 Sony Corp 立体画像表示装置及び立体画像表示方法
JP2012213583A (ja) * 2011-03-31 2012-11-08 Fujifilm Corp 立体視表示装置
US9408582B2 (en) * 2011-10-11 2016-08-09 Amish Sura Guided imaging system
JP6125154B2 (ja) * 2012-05-09 2017-05-10 東芝メディカルシステムズ株式会社 X線撮影装置及び医用画像処理装置
JP6042095B2 (ja) * 2012-05-09 2016-12-14 東芝メディカルシステムズ株式会社 X線撮影装置及び医用画像処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0984000A (ja) * 1995-09-07 1997-03-28 Toshiba Corp 画像表示システム
JP2008529707A (ja) * 2005-02-18 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療機器の自動制御
JP2009072360A (ja) * 2007-09-20 2009-04-09 Toshiba Corp X線診断装置
JP2012080294A (ja) * 2010-09-30 2012-04-19 Toshiba Corp 電子機器、映像処理方法、及びプログラム
JP2012223363A (ja) * 2011-04-20 2012-11-15 Tokyo Institute Of Technology 手術用撮像システム及び手術用ロボット
JP2014028123A (ja) * 2012-06-28 2014-02-13 Toshiba Corp X線診断装置

Also Published As

Publication number Publication date
US20150342548A1 (en) 2015-12-03
US9968320B2 (en) 2018-05-15
CN104994787B (zh) 2018-03-13
JP6222835B2 (ja) 2017-11-01
JP2014176640A (ja) 2014-09-25
CN104994787A (zh) 2015-10-21

Similar Documents

Publication Publication Date Title
JP6222835B2 (ja) X線診断装置
JP6279341B2 (ja) X線診断装置
JP2019523663A (ja) ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体
US10492873B2 (en) Medical spatial orientation system
CN103930033B (zh) 实况3d x射线察看
US9615802B2 (en) Direct control of X-ray focal spot movement
US10863960B2 (en) X-ray diagnosis apparatus
JP2012045032A (ja) 立体視画像表示方法および装置
JP6425884B2 (ja) X線診断装置
JP2012254286A (ja) 立体視画像表示装置およびその動作方法
JP2013031169A (ja) 立体視画像表示装置およびその動作方法
WO2012066753A1 (ja) 立体視画像表示方法および装置
JP6245801B2 (ja) 画像表示装置及び医用画像診断装置
JP2012095274A (ja) 立体視画像表示装置および立体視画像表示方法
WO2012102127A1 (ja) 放射線画像表示装置および方法
WO2012102022A1 (ja) 立体視画像表示方法、並びに、立体視画像表示制御装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14751265

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14751265

Country of ref document: EP

Kind code of ref document: A1