WO2023188796A1 - 姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体 - Google Patents

姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023188796A1
WO2023188796A1 PCT/JP2023/003302 JP2023003302W WO2023188796A1 WO 2023188796 A1 WO2023188796 A1 WO 2023188796A1 JP 2023003302 W JP2023003302 W JP 2023003302W WO 2023188796 A1 WO2023188796 A1 WO 2023188796A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
image
posture evaluation
evaluation device
spinal column
Prior art date
Application number
PCT/JP2023/003302
Other languages
English (en)
French (fr)
Inventor
修平 野寄
洵 安川
康介 西原
勇気 小阪
昭元 二村
浩二 藤田
拓哉 井原
Original Assignee
日本電気株式会社
国立大学法人 東京医科歯科大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, 国立大学法人 東京医科歯科大学 filed Critical 日本電気株式会社
Publication of WO2023188796A1 publication Critical patent/WO2023188796A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present disclosure relates to a posture evaluation device, a posture evaluation system, a posture evaluation method, and a non-transitory computer-readable medium.
  • Patent Document 1 discloses that features are extracted from video data acquired by imaging the body with a terminal owned by the user, the position of each part of the body is specified, and the movement of bones connecting each part is recorded in a video. A motion evaluation system for overlapping display is described.
  • An object of the present disclosure is to provide a posture evaluation device, a posture evaluation system, a posture evaluation method, and a non-transitory computer-readable medium that can evaluate posture with high accuracy at a relatively low cost.
  • the posture evaluation device performs a posture evaluation on the image based on an image obtained by capturing a side view of a subject's body, and position information of at least the cervical vertebrae, hip joint, and knee joint of the body on the image.
  • vertebral column extraction means for extracting a vertebral column edge point group consisting of a predetermined number of points representing the vertebral column shape in
  • a feature amount calculation means for calculating at least a feature amount regarding the vertebral column based on the position information and the vertebral column edge point group.
  • a state estimating means for estimating at least the state of the spinal column based on the feature amount.
  • a posture evaluation system includes a posture evaluation device and a subject terminal capable of communicating with the posture evaluation device, and the posture evaluation device is configured to measure the side surface of the subject's body acquired by the subject terminal.
  • Spinal column extraction means for extracting a spinal column edge point group consisting of a predetermined number of points representing the shape of the spinal column on the image, based on the image and position information of at least the cervical vertebrae, hip joints, and knee joints of the body on the image.
  • a feature amount calculation means for calculating at least a feature amount related to the spinal column based on the position information and the spinal column edge point group; and a state estimation means for estimating at least a state of the spinal column based on the feature amount.
  • a posture evaluation device is based on an image obtained by capturing a side view of a subject's body and positional information of at least the cervical vertebrae, hip joint, and knee joint of the body on the image. extract a spinal column edge point group consisting of a predetermined number of points representing the spinal column shape on the image, calculate at least a feature amount related to the spinal column based on the position information and the spinal column edge point group, and This is a method of estimating at least the condition of the spinal column based on the amount.
  • a non-transitory computer-readable medium provides a posture evaluation device with an image obtained by capturing a side view of a subject's body, and the positions of at least the cervical vertebrae, hip joints, and knee joints of the body on the image. a process of extracting a spinal column edge point group consisting of a predetermined number of points representing the spinal column shape on the image based on the position information and the spinal column edge point group;
  • This is a non-transitory computer-readable medium that stores a program that executes a process of calculating a vertebral column and a process of estimating at least a state of a spinal column based on the feature amount.
  • FIG. 1 is a block diagram showing the configuration of a posture evaluation device according to Embodiment 1.
  • FIG. FIG. 2 is a block diagram showing the configuration of a posture evaluation device according to a second embodiment.
  • 7 is a diagram illustrating an example of an image captured by an imaging unit according to Embodiment 2.
  • FIG. 7 is a diagram showing an example of key points according to Embodiment 2.
  • FIG. 7 is a diagram showing an example of a spinal column edge point group according to Embodiment 2.
  • FIG. FIG. 7 is a diagram illustrating processing of a spinal column extracting unit according to Embodiment 2.
  • FIG. FIG. 7 is a diagram illustrating processing of a feature value calculation unit according to Embodiment 2.
  • FIG. 7 is a diagram illustrating processing of a feature value calculation unit according to Embodiment 2.
  • FIG. 7 is a diagram illustrating processing of a state estimation unit according to Embodiment 2.
  • FIG. 7 is a diagram illustrating an example of an image displayed on a display unit according to Embodiment 2.
  • FIG. 7 is a diagram showing another example of an image displayed on the display unit according to the second embodiment.
  • 7 is a diagram showing a data structure of a reference value list according to Embodiment 2.
  • FIG. 7 is a flowchart showing a posture evaluation method according to Embodiment 2.
  • FIG. FIG. 3 is a block diagram showing the configuration of a posture evaluation device according to a third embodiment. 7 is a diagram showing another example of an image displayed on the display unit in the posture evaluation device according to Embodiment 3.
  • FIG. FIG. 7 is a diagram showing a posture evaluation system according to a fourth embodiment.
  • FIG. 1 is a block diagram showing the configuration of posture evaluation device 100 according to the first embodiment.
  • Posture evaluation device 100 in the first embodiment is a device that evaluates posture based on an image obtained by capturing a side view of a body using a camera such as a smartphone.
  • the posture evaluation device 100 estimates the shape of the spinal column, which is the shape of the spinal column in the image, and evaluates the posture based on the shape of the spinal column. This makes it possible to evaluate posture relatively inexpensively and with high accuracy in situations such as online training and self-training.
  • the posture evaluation device 100 includes a spinal column extraction section 103, a feature amount calculation section 105, and a state estimation section 106.
  • the spinal column extraction unit 103 extracts a predetermined image representing the shape of the spinal column on the image based on an image obtained by capturing a side view of the subject's body and position information of at least the cervical vertebrae, hip joints, and knee joints of the body on the image. Extract the spine edge point group consisting of the number of points.
  • the subject refers to a person whose posture is evaluated by the posture evaluation device 100.
  • the image obtained by capturing the side surface of the subject's body is a two-dimensional image, and may be a two-dimensional RGB image.
  • the spine edge point group is a point group consisting of a plurality of points that display the spine on an image.
  • each point constituting the spinal column edge point group may be one pixel, or may be an image area consisting of N pixels vertically by M pixels horizontally.
  • N and M are positive integers, and N and M may be equal or different.
  • the positional information of the cervical vertebrae on the image is, for example, the positional information of any one of the seven vertebrae that constitute the cervical vertebrae, and is, for example, the positional information of the ridge (C7).
  • the positional information of the knee joint on the image is the positional information of the lower end of the femur, the patella, the upper end of the tibia, the upper end of the fibula, or the knee joint space.
  • the positional information of the lower end of the femur is be.
  • the position information of the ridge is, for example, the position information of a pixel located at the center of an image area corresponding to the ridge on the image.
  • the positional information of the lower end of the femur is, for example, the positional information of a pixel located at the center of an image area corresponding to the lower end of the femur on the image.
  • the position information on the image is, for example, image coordinates.
  • the image coordinates are coordinates for indicating the position of a pixel on a two-dimensional image.
  • the origin is the center of the pixel located on the leftmost and uppermost side of the two-dimensional image
  • the left-right direction or horizontal direction is the coordinate defined as the x direction, and the vertical or vertical direction as the y direction.
  • the feature amount calculation unit 105 calculates feature amounts related to at least the spinal column based on the positional information of at least the cervical vertebrae, hip joints, and knee joints on the image and the spinal column edge point group.
  • the state estimation unit 106 estimates at least the state of the spinal column based on the feature amount calculated by the feature amount calculation unit 105.
  • the spine extraction unit 103 extracts a group of spine edge points representing the shape of the spine on the image
  • the feature calculation unit 105 extracts the position information of the cervical vertebrae, hip joint, and knee joint on the image and the spine edge point group.
  • the feature amount related to the spinal column is calculated based on.
  • the state estimating unit 106 estimates the state of the spinal column based on the feature amount.
  • methods for measuring the shape of the spinal column include a method using a depth camera, a method using an acceleration sensor, a method of scanning a probe along the spinal column, and the like. These methods aim to accurately estimate the position and inclination of each of the multiple vertebral bodies that make up the spinal column.
  • experts such as therapists and trainers evaluate the balance of the curvature of the entire spinal column, but do not evaluate the position or inclination of individual vertebral bodies. Therefore, there is no need for ordinary people to aim for accuracy equivalent to these methods for the purpose of evaluating their own posture at an expert level.
  • the posture evaluation device 100 according to the first embodiment is capable of evaluating posture with as high accuracy as that of experts such as therapists and trainers, based on the spine edge point group representing the spine shape on the image. can.
  • FIG. 2 is a block diagram showing the configuration of posture evaluation device 100A according to the second embodiment.
  • the posture evaluation device 100A is, for example, a user terminal such as a smartphone, a tablet terminal, or a personal computer owned by the user.
  • the user includes both a subject whose posture is evaluated by the posture evaluation device 100A and an evaluator who evaluates the posture of another person using the posture evaluation device 100A.
  • the subject when a subject evaluates his or her own posture using the posture evaluation device 100A in self-training or the like, the subject is also an evaluator.
  • the evaluator is, for example, a therapist or a trainer.
  • the posture evaluation device 100A of the second embodiment includes an imaging section 101, a skeleton extraction section 102, a spinal column extraction section 103, a posture judgment section 104, a feature amount calculation section 105, a state estimation section 106, an image It includes a generation section 107, a display section 108, an input section 109, a storage section 110, and a communication section 111.
  • the input unit 109 and the display unit 108 may be configured as one display with a touch panel, or may be provided separately.
  • the storage unit 110 also stores a reference value list 112, a skeleton database (indicated as "skeleton DB" in FIG. 2) 113, a skeleton extraction model 114, and the like.
  • the imaging unit 101 captures an image of the side of the subject's body.
  • FIG. 3 shows an example of an image captured by the imaging unit 101 of the side of the subject's body.
  • the image shown in FIG. 3 shows a side view of a person O corresponding to the subject bending forward.
  • the image captured by the imaging unit 101 is a two-dimensional image, and may be a two-dimensional RGB image.
  • the imaging unit 101 inputs the captured image to the skeleton extraction unit 102 and the spinal column extraction unit 103.
  • the imaging unit 101 may also capture an image by capturing a video of the side of the subject's body.
  • the user may operate the input unit 109 to specify the time point at which posture evaluation is to be performed. Then, the image at the time specified by the user may be input to the skeleton extraction section 102 and the spinal column extraction section 103.
  • the skeleton extraction unit 102 extracts positional information of at least the cervical vertebrae, hip joints, and knee joints (hereinafter also referred to as “positional information of key points”) from the image captured by the imaging unit 101.
  • FIG. 4 shows an example of key points P1, P2, and P3 extracted by the skeleton extraction unit 102 from the image shown in FIG. 3.
  • P1 is the key point of the ridge (hereinafter referred to as "the ridge key point”)
  • P2 is the key point of the hip joint (hereinafter referred to as the "hip joint key point”)
  • P3 is the key point of the hip joint (hereinafter referred to as the "hip joint key point”).
  • the skeleton extraction unit 102 uses the trained skeleton extraction model 114 to extract position information of key points from the image captured by the imaging unit 101.
  • the posture evaluation device 100A performs machine learning in advance using the skeleton extraction model 114, which is a machine learning model, and the skeleton database 113, which is teacher data, to generate a learned skeleton extraction model 114.
  • the skeleton extraction unit 102 inputs the position information of the extracted key points to the spinal column extraction unit 103.
  • the position information of the key points includes the x direction, which is the left-right direction or horizontal direction, the y direction, which is the up-down direction, or the vertical direction, of the two-dimensional image captured by the imaging unit 101, as well as the z direction, which is the depth direction.
  • the information may be expressed in three-dimensional coordinates defined by . This is possible by using a skeleton extraction model 114 that extracts position information of key points expressed in three-dimensional coordinates from a two-dimensional image.
  • the body parts from which the skeleton extraction unit 102 extracts key points are not limited to the above-mentioned cervical vertebrae, hip joints, and knee joints, but include, for example, ankle joints, shoulder joints, elbow joints, and wrist joints. You can also extract key points.
  • the skeleton extraction unit 102 may extract the eyes, ears, center of the head, etc. as key points in addition to the joints.
  • the key point may be specified by displaying an image captured by the imaging unit 101 on the display unit 108 and allowing the user to operate the input unit 109. Then, the position information of the key point specified by the user may be input to the spinal column extracting unit 103.
  • the spine extraction unit 103 extracts the spine on the image as a spine edge point group based on the image input from the imaging unit 101 and the position information of the key points input from the skeleton extraction unit 102.
  • FIG. 5 shows an example of the vertebral column edge point group P extracted by the vertebral column extraction unit 103 from the image shown in FIG. 3. Note that the details of the spine edge point group are the same as described in Embodiment 1, so a description thereof will be omitted.
  • the spinal column extraction unit 103 calculates the length of the line segment l trunk connecting the ridge key point P1 and the hip joint key point P2, and the length of the line segment l high connecting the hip joint key point P2 and the knee joint key point P3.
  • the size of the image input from the imaging unit 101 is normalized.
  • the ridge key point P1, the hip joint key point P2, the knee joint key point P3, the length of the line segment l trunk , and the length of the line segment l high are also converted to normalized values.
  • the spinal column extraction unit 103 identifies the back line of the person O appearing in the image based on the line segment l trunk and the line segment l high , and identifies a group of candidate edge points that are candidates for the spinal column edge point group P. Extract. Specifically, the spinal column extraction unit 103 specifies a bounding box that includes at least the back of the person O shown in the image based on the line segment l trunk and the line segment l high . Next, the spine extraction unit 103 performs edge extraction processing on the image data within the bounding box to extract a group of candidate edge points.
  • the spinal column extraction unit 103 calculates an external angle ⁇ 0 of the angle formed by the line segment l trunk and the line segment l high .
  • the spinal column extraction unit 103 calculates the angle ⁇ 1 between the line segment l 1 that defines the cranial side of the spinal column and the line segment l trunk , and the line segment l 2 that defines the caudal side of the spinal column. and the angle ⁇ 2 between the line segment l trunk and the line segment l trunk are determined.
  • an angle table (not shown) in which the external angle ⁇ 0 , the angle ⁇ 1 , and the angle ⁇ 2 are associated with each other is stored in the storage unit 110 in advance, and the spinal column extraction unit 103 refers to the angle table. By doing so, the angle ⁇ 1 and the angle ⁇ 2 are determined based on the exterior angle ⁇ 0 . Further, the storage unit 110 stores in advance an angle determination model (not shown) that has undergone machine learning using the angle table as teacher data, and the spinal column extraction unit 103 uses the angle determination model to determine the external angle ⁇ 0 The angle ⁇ 1 and the angle ⁇ 2 may be determined based on .
  • the spinal column extraction unit 103 determines the intersection of the line segment l1 and the candidate edge point group as the cranial end point of the spinal column edge point group P, and determines the intersection of the line segment l2 and the candidate edge point group as the spinal column edge point group P. This is determined as the tail end point of the edge point group P. As a result, the range that will become the spinal column edge point group P among the candidate edge point groups is determined. In other words, the spine edge point group P is extracted.
  • the spinal column extracting unit 103 inputs the calculated external angle ⁇ 0 to the posture determining unit 104. Further, the spinal column extraction unit 103 inputs the normalized ridge key point P1, hip joint key point P2, and knee joint key point P3, and the extracted spine edge point group P to the feature value calculation unit 105. Further, the spinal column extraction unit 103 inputs the normalized image, the normalized key points P1, P2, and P3, and the extracted spinal column edge point group P to the image generation unit 107.
  • the posture determining unit 104 determines the type of posture of the person O shown in the image captured by the imaging unit 101 based on the external angle ⁇ 0 input from the spinal column extracting unit 103 .
  • a posture table (not shown) that associates the exterior angle ⁇ 0 with the type of posture is stored in the storage unit 110 in advance, and the posture determining unit 104 refers to the posture table to determine the posture.
  • the type of posture is determined based on the external angle ⁇ 0 .
  • the types of postures include, for example, forward bending, standing position, backward bending, and the like.
  • Posture determining section 104 inputs the determined posture type to state estimating section 106 .
  • the type of posture may be specified by the user operating the input unit 109. Then, the type of posture specified by the user may be input to the state estimation unit 106.
  • the feature amount calculation unit 105 calculates at least feature amounts related to the spinal column based on the key points P1, P2, P3 and the spinal column edge point group P input from the spinal column extraction unit 103. Specifically, the feature calculation unit 105 calculates the spinal curvature, spinal curvature angle, hip joint angle, upper The thoracic vertebrae curvature angle, lower thoracic vertebrae curvature angle, lumbar vertebrae curvature angle, etc. are calculated as feature quantities.
  • the feature calculation unit 105 calculates the curvature of the spine for all points included in the spine edge point group P by fitting an n-th power function or a spline function to the spine edge point group P. Calculate the spinal curvature. For example, the feature value calculation unit 105 fits a cubic function to the spine edge point group P at all points in the spine edge point group P, and calculates the spine curvature at each point included in the spine edge point group P. Calculate.
  • the feature value calculation unit 105 calculates the normal to the spinal column edge point group P at the cranial end point P4 of the spinal column edge point group P, and the spinal column edge at the caudal end point P5 of the spinal column edge point group P.
  • the angle ⁇ 3 formed with the normal to the point group P is calculated as the spinal curvature angle.
  • the feature calculation unit 105 calculates the upper thoracic curvature angle, the lower thoracic curvature angle, and the lumbar curvature angle.
  • the positions of the upper thoracic vertebrae, lower thoracic vertebrae, and lumbar vertebrae in the spinal column are determined in advance from the cranial side of the spinal column to 0% to A%, A% to B%, and B% to C%, respectively. It is determined that the location of Then, the feature calculation unit 105 calculates the angle between the normal to the spinal column edge point group P at the cranial end point of the upper thoracic vertebra and the normal to the spinal column edge point group P at the caudal end point of the upper thoracic vertebra. Calculate as the curvature angle.
  • the feature calculation unit 105 calculates the angle between the normal to the spinal column edge point group P at the cranial end point of the lower thoracic vertebrae and the normal to the spinal column edge point group P at the caudal end point of the lower thoracic vertebrae. Calculated as the thoracic curvature angle.
  • the feature value calculation unit 105 also calculates the angle between the normal to the spinal column edge point group P at the cranial end point of the lumbar vertebrae and the normal to the spinal column edge point group P at the caudal end point of the lumbar vertebrae as the lumbar curvature angle. calculate.
  • the feature calculation unit 105 calculates a tangent l4 to the spinal column edge point group P at the caudal end point P5 of the spinal column edge point group P.
  • the tangent line l4 represents the angle of the posterior surface of the sacrum.
  • the feature calculation unit 105 calculates the angle ⁇ 4 between the line segment l 3 connecting the hip joint key point P2 and the knee joint key point P3 and the tangent line l 4 as the hip joint angle.
  • the feature amount calculation unit 105 inputs the calculated features such as the spinal column curvature, spinal curvature angle, hip joint angle, upper thoracic spine curvature angle, lower thoracic spine curvature angle, lumbar spine curvature angle, etc. to the state estimation unit 106.
  • the state estimation unit 106 estimates at least the state of the spinal column based on the feature amount input from the feature amount calculation unit 105. Specifically, the state estimation unit 106 calculates the upper thoracic vertebrae based on the spinal column curvature, spinal column curvature angle, hip joint angle, upper thoracic vertebrae curvature angle, lower thoracic vertebrae curvature angle, lumbar vertebrae curvature angle, etc. , the condition of the lower thoracic vertebrae, lumbar vertebrae, lumbo-sacral transition region (L5/S1), and hip joints. Then, the state estimation unit 106 inputs the estimation result to the image generation unit 107.
  • the state estimation unit 106 inputs the estimation result to the image generation unit 107.
  • the state estimating unit 106 estimates the degree of curvature of each part of the spinal column based on the spinal curvature input from the feature calculation unit 105. For example, when the sign of the spinal column curvature at a certain point in the spinal column edge point group P is positive, the degree of curvature of the spinal column at that point is assumed to be convex toward the front of the person O reflected in the image captured by the imaging unit 101. In this case, if the sign of the spinal column curvature at the relevant point in the spinal column edge point group P is negative, the degree of curvature of the spinal column at the relevant point is convex to the rear side of the person O.
  • the state estimation unit 106 estimates the degree of curvature of each part of the spinal column based on the sign of the spinal column curvature. In other words, when the sign of the spinal column curvature is positive, the state estimating unit 106 estimates that the degree of curvature of the spinal column at that point is convex toward the front of the person O. Further, when the sign of the spinal column curvature is negative, the state estimating unit 106 estimates that the degree of curvature of the spinal column at that point is convex toward the back of the person O.
  • the state estimating unit 106 estimates the state of the spinal column and the like based on the type of posture input from the posture determining unit 104 and the feature amount input from the feature amount calculating unit 105.
  • the storage unit 110 stores in advance a reference value list 112 that associates the type of posture with the reference value of the feature amount for the posture.
  • the state estimating unit 106 then refers to the reference value list 112 based on the type of posture input from the posture determining unit 104 and the feature amount input from the feature amount calculating unit 105. Estimate the state.
  • the reference value is a value within a range that the feature value can take when a body part such as the spinal column is normal.
  • the state estimation unit 106 compares the reference value of the upper thoracic vertebrae curvature angle when the posture type is forward bending with the upper thoracic vertebrae curvature angle input from the feature value calculation unit 105. By doing so, the condition of the upper thoracic vertebrae is estimated to be "hyperflexion.” Similarly, the state estimating unit 106 compares the reference value of the lower thoracic vertebrae curvature angle when the posture type is forward bending with the lower thoracic vertebrae curvature angle input from the feature value calculation unit 105.
  • the condition is estimated to be "insufficient bending.”
  • the state estimation unit 106 compares the reference value of the lumbar curvature angle when the posture type is forward bending with the lumbar curvature angle input from the feature quantity calculation unit 105 to estimate the state of the lumbar vertebrae. Presumed to be “normal”.
  • the state estimating unit 106 compares the reference value of the lumbar curvature angle when the posture type is forward bending with the lumbar curvature angle input from the feature value calculating unit 105, thereby determining the lumbar-sacral transition area.
  • the state of (L5/S1) is estimated to be "normal”.
  • the state estimating unit 106 determines the state of the hip joint by comparing the reference value of the hip joint angle when the posture type is forward bending with the hip joint angle input from the feature calculation unit 105. It is estimated that there is a shortage.
  • a machine-learned state estimation model (not shown) is stored in advance in the storage unit 110, and the state estimation unit 106 may estimate at least the state of the spinal column using the state estimation model.
  • the storage unit 110 stores training data in which at least feature amounts related to the spine are associated with state labels such as "overflexion", "normal”, or "insufficient flexion” as correct data. It may be stored. Then, the storage unit 110 may store in advance a state estimation model that has undergone machine learning using the teacher data.
  • the image generation unit 107 receives the normalized image, the normalized key points P1, P2, P3, and the extracted spine edge point group P input from the spinal column extraction unit 103, and the input from the state estimation unit 106. An estimation result display image to be displayed on the display unit 108 is generated based on the estimation results obtained. The image generation unit 107 also generates a correction image for the user to modify the spine edge point group P based on the normalized image and the extracted spine edge point group P input from the spine extraction unit 103. may be generated. Then, the image generation unit 107 inputs the generated image to the display unit 108.
  • the display unit 108 displays the estimation result display image input from the image generation unit 107.
  • the display unit 108 is composed of various display means such as an LCD (Liquid Crystal Display) and an LED (Light Emitting Diode).
  • FIG. 10 shows an example of an estimation result display image displayed on the display unit 108.
  • FIG. 11 shows another example of the estimation result display image displayed on the display unit 108.
  • an image portion G1 in which a key point P6 and a line segment l5 connecting the key point P6 are superimposed on the image captured by the imaging unit 101 is displayed above the display unit 108 of the posture evaluation device 100A.
  • An image portion G2 indicating the estimation result of the state estimating section 106 is displayed on the lower side of the display section 108.
  • estimation results other than "normal” may be displayed with emphasis in bold, red, or the like.
  • a group of spinal column edge points P that are color-coded based on the key point P7 and the estimation result of the state estimation unit 106 are superimposed on the image captured by the imaging unit 101.
  • a combined image G3 is displayed.
  • the display unit 108 shown in FIG. They are displayed in different colors based on whether they are convex or not.
  • the color coding of each part A, B, C, D, and E of the spinal column edge point group P is done based on the degree of protrusion (the magnitude of the spinal column curvature value) of each part A, B, C, D, and E. .
  • the display unit 108 may divide the spinal column edge point group P into, for example, upper thoracic vertebrae, lower thoracic vertebrae, and lumbar vertebrae, and display them in colors according to the states of the respective parts. Furthermore, the spinal column edge point group P may be color-coded using a gradation in which the colors gradually change.
  • the display unit 108 may display the correction image input from the image generation unit 107. With this, for example, if the range extracted by the spine extraction unit 103 of the spine edge point group P is incorrect, the user can correct it by dragging the spine edge point group P displayed on the correction required screen. I can do it.
  • the input unit 109 receives operation instructions from the user.
  • the input unit 109 may be configured with a keyboard or a touch panel type display device.
  • the input unit 109 may be configured by a keyboard or touch panel connected to the main body of the posture evaluation device 100A.
  • the storage unit 110 stores a reference value list 112, a skeleton database 113, a skeleton extraction model 114, and the like. Furthermore, the storage unit 110 can include a nonvolatile memory (for example, ROM (Read Only Memory)) in which various programs and various data necessary for processing are fixedly stored. Furthermore, the storage unit 110 may use an HDD (Hard Disk Drive) or SSD. Furthermore, the storage unit 110 can include a volatile memory (eg, RAM (Random Access Memory)) used as a work area.
  • the program may be read from a portable recording medium such as an optical disc or a semiconductor memory, or may be downloaded from a server device on a network.
  • the reference value list 112 is a list in which types of postures are associated with reference values of feature amounts for the postures.
  • FIG. 12 shows an example of the data structure of the reference value list 112.
  • the reference value list 112 includes a posture type 112A, a reference value 112B of spinal column curvature in the posture, a reference value 112C of spinal curvature angle, a reference value 112D of hip joint angle, and upper thoracic curvature.
  • This is a list in which the reference value 112E of the angle, the reference value 112F of the lower thoracic curvature angle, and the reference value 112G of the lumbar curvature angle are associated with each other.
  • the skeletal database 113 is a database in which a plurality of images obtained by capturing side views of the body are associated with positional information of key points as correct labels.
  • the skeleton extraction model 114 is a machine learning model that extracts position information of key points from an image obtained by capturing a side view of the body.
  • the skeleton extraction model 114 is a machine learning model that uses as input an image obtained by capturing a side view of the body, infers and outputs positional information of key points.
  • machine learning may be deep learning, but is not particularly limited.
  • the communication unit 111 communicates with external servers, other terminal devices, and the like.
  • the communication unit 111 may include an antenna (not shown) for wireless communication, or may include an interface such as a NIC (Network Interface Card) for wired communication.
  • NIC Network Interface Card
  • the imaging unit 101 images the side surface of the body (step S101), and inputs the obtained image to the skeleton extraction unit 102 and the spinal column extraction unit 103.
  • the skeleton extracting unit 102 extracts positional information of key points from the image captured by the imaging unit 101 in step S101 (step S102), and inputs the extracted positional information of the key points to the spinal column extracting unit 103.
  • the skeleton extraction unit 102 extracts positional information of the vertebra key point P1, hip joint key point P2, and knee joint key point P3.
  • the spine extraction unit 103 extracts a spine edge point group based on the image captured by the imaging unit 101 in step S101 and the position information of key points P1, P2, and P3 extracted by the skeleton extraction unit 102 in step S102. Extract. (Step S103). Specifically, the spinal column extraction unit 103 normalizes the image captured by the imaging unit 101, calculates the external angle ⁇ 0 of the angle between the line segment l trunk and the line segment l high , and extracts the spinal column edge point group P. do. Then, the spinal column extracting unit 103 inputs the calculated external angle ⁇ 0 to the posture determining unit 104.
  • the spine extraction unit 103 inputs the key points P1, P2, P3 and the spine edge point group P to the feature value calculation unit 105. Further, the spinal column extraction unit 103 inputs the normalized image, key points P1, P2, P3, and the spine edge point group P to the image generation unit 107.
  • the feature calculation unit 105 calculates the spinal curvature, spinal curvature angle, hip joint angle, upper thoracic curvature angle, based on the key points P1, P2, P3 input from the spinal column extraction unit 103 and the spinal column edge point group P. , lower thoracic vertebrae curvature angle, lumbar vertebrae curvature angle, etc. are calculated as feature quantities. (Step S104). Then, the feature value calculation unit 105 inputs the calculated spinal column curvature, spinal column curvature angle, hip joint angle, upper thoracic spine curvature angle, lower thoracic spine curvature angle, lumbar spine curvature angle, etc. to the state estimation unit 106.
  • the posture determining unit 104 determines the type of posture of the person O shown in the image captured by the imaging unit 101 based on the external angle ⁇ 0 input from the spinal column extracting unit 103 (step S105). Then, the posture determining section 104 inputs the determined posture type to the state estimating section 106.
  • the state estimation unit 106 determines the type of posture input from the posture determination unit 104 and the spinal curvature, spinal curvature angle, hip joint angle, upper thoracic curvature angle, and lower thoracic curvature angle input from the feature value calculation unit 105. , the lumbar curvature angle, etc., the states of the upper thoracic vertebrae, lower thoracic vertebrae, lumbar vertebrae, lumbo-sacral transition region (L5/S1), and hip joint are estimated (step S106). Then, the state estimation unit 106 inputs the estimation result to the image generation unit 107.
  • the image generation unit 107 based on the image captured in step S101 and the states of the upper thoracic vertebrae, lower thoracic vertebrae, lumbar vertebrae, lumbo-sacral transition region (L5/S1), and hip joint estimated in step S106, An image to be displayed on the display unit 108 is generated (step S107). The image generated by the image generation unit 107 is then input to the display unit 108.
  • step S108 the display unit 108 displays the image generated in step S107 (step S108), and this process ends.
  • the key points P1, P2, and P3 may be specified by displaying an image captured by the imaging unit 101 on the display unit 108 and allowing the user to operate the input unit 109.
  • the process of step S102 may be omitted.
  • a correction image displaying the spinal column edge point group P extracted in step S103 is displayed on the display unit 108, and the user can view the image on the correction required screen. It may be modified by dragging the displayed spinal column edge point group P.
  • the order of the processing in step S104 and the processing in step S105 may be reversed, or the processing in step S104 and the processing in step S105 may be performed at the same time.
  • the type of posture may be specified by the user operating the input unit 109 before the process of step S106 is performed. In this case, the process of step S105 may be omitted.
  • the spine extraction unit 103 extracts a spine edge point group P representing the spine shape on the image
  • the feature amount calculation unit 105 extracts the spine edge point group P from the key points P1, P2, P3 on the image. Based on this, the spinal curvature, spinal curvature angle, hip joint angle, upper thoracic curvature angle, lower thoracic curvature angle, and lumbar curvature angle are calculated as feature quantities.
  • the state estimating unit 106 estimates the states of the upper thoracic vertebrae, lower thoracic vertebrae, lumbar vertebrae, lumbo-sacral transition region (L5/S1), and hip joint based on the feature amounts.
  • posture can be evaluated based on the shape of the spinal column on the image
  • posture can be evaluated with high accuracy.
  • posture can be evaluated based on the shape of the spinal column without using expensive specialized equipment, posture can be evaluated relatively inexpensively. Therefore, it is possible to provide a posture evaluation device 100A that can evaluate posture with high accuracy at a relatively low cost.
  • the skeleton extraction unit 102 extracts key points P1, P2, and P3 from the image captured by the imaging unit 101. This eliminates the need for the user to specify key points P1, P2, and P3 on the image.
  • the skeleton extraction unit 102 uses the trained skeleton extraction model 114 to move the two-dimensional image captured by the imaging unit 101 in the x-direction, which is the left-right or horizontal direction, and in the y-direction, which is the up-down or vertical direction. Then, key points represented by three-dimensional coordinates defined in the z direction, which is the depth direction, may be extracted. This makes it possible to perform more precise posture evaluation.
  • the state estimating unit 106 estimates the state of the spinal column and the like by referring to the reference value list 112 based on the type of posture and the feature amount.
  • the reference value is a value within a range that the feature value can take when a body part such as the spinal column is normal. Therefore, the state estimating unit 106 can estimate whether a body part such as a spinal column is normal or not.
  • the posture determining unit 104 determines the type of posture of the person O whose posture is to be evaluated based on the key points extracted by the skeleton extracting unit 102. Therefore, there is no need for the user to specify the type of posture for posture evaluation.
  • the display unit 108 displays an estimation result display image that displays the image captured by the imaging unit 101 and the estimation result by the state estimation unit 106. This allows the user to visually grasp the state of the posture.
  • the display unit 108 displays the state estimated by the state estimation unit 106 by color-coding the spinal column edge point group P. This allows the user to visually grasp the state of the posture.
  • FIG. 14 is a block diagram showing the configuration of posture evaluation device 100B according to the third embodiment.
  • Posture evaluation device 100B according to Embodiment 3 differs from posture evaluation device 100A according to Embodiment 2 in that it includes a first imaging section 101A and a second imaging section 101B. Further, as shown in FIG. 15, the image generated by the image generation unit 107A, that is, the image displayed on the display unit 108A is also different. Therefore, among the configurations of posture evaluation device 100B according to Embodiment 3, the same components as posture evaluation device 100A according to Embodiment 2 are given the same reference numerals, and the explanation thereof will be omitted.
  • the first imaging unit 101A similarly to the imaging unit 101 according to the second embodiment, captures an image of the side surface of the subject's body.
  • the first imaging unit 101A inputs the captured image to the skeleton extraction unit 102, the spinal column extraction unit 103, and the image generation unit 107A.
  • the first imaging unit 101A may capture an image by capturing a video of the side surface of the subject's body, similarly to the imaging unit 101 according to the second embodiment.
  • the user operates the input unit 109 to specify the time point at which posture evaluation is to be performed in the image selection area G4 (see FIG. 15) displayed on the display unit 108A. Then, the image at the time specified by the user is input to the skeleton extraction section 102 and the spinal column extraction section 103.
  • Embodiment 3 will be described using an example in which the first imaging unit 101A takes a video of the side surface of the subject.
  • the second imaging unit 101B images another surface of the subject's body at the same time as the first imaging unit 101A.
  • the other surface of the subject's body may be any surface other than the side surface of the subject's body.
  • the second imaging unit 101B inputs the captured image to the image generation unit 107A. Further, the second imaging unit 101B may capture images of other surfaces of the subject's body. Embodiment 3 will be described using an example in which the second imaging unit 101B captures a moving image of the front of the subject's body.
  • the image generation unit 107A generates an image selection area G4 to be displayed on the display unit 108A based on the image input from the second imaging unit 101B. As shown in FIG. 15, the image selection area G4 is used for arranging a plurality of thumbnail images G5 of the moving image input from the second imaging unit 101B along the time scale T1, and for specifying the time point at which posture evaluation is to be performed.
  • a designation bar T2 is an image area displayed movably along the time scale T1. Further, the image generation unit 107A generates a front image area G6 indicating a front image that displays an image at the time specified by the user in the image selection area G4 displayed on the display unit 108A.
  • the image generation unit 107A superimposes the key point P8 and the line segment l6 connecting the key point P8 on the image based on the normalized image and key points input from the spinal column extraction unit 103.
  • a side image portion G7 is generated.
  • the image generation unit 107A generates a result image region G8 indicating the estimation result of the state estimation unit 106, based on the estimation result input from the state estimation unit 106. Then, the image generation unit 107A inputs the generated image selection area G4, front image area G6, side image area G7, and result image area G8 to the display unit 108A.
  • the display unit 108A displays the image selection area G4, front image area G6, side image area G7, and result image area G8 input from the image generation unit 107.
  • FIG. 15 shows an example of an image displayed on the display section 108A.
  • an image selection area G4 is displayed on the lower side of the display unit 108A of the posture evaluation device 100B, a front image area G6 is displayed on the upper left side of the display unit 108A, and a front image area G6 is displayed in the upper center of the display unit 108A.
  • a side image area G7 is displayed on the screen, and a result image area G8 is displayed on the upper right side of the display section 108A.
  • the user moves the designation bar T2 in the image selection area G4 to designate 0 minutes and 11 seconds as the time point for posture evaluation.
  • the user can check information about the posture that cannot be found just by checking the side of the body. For example, the user can check whether the left and right sides of the body are moving equally from the front image area G6.
  • FIG. 16 is a diagram showing the configuration of a posture evaluation system 200 according to the fourth embodiment.
  • the posture evaluation system 200 includes a posture evaluation device 100C and a subject terminal 300 that can communicate with the posture evaluation device 100C.
  • the posture evaluation device 100C and the subject terminal 300 can communicate via the network N.
  • one or more subject terminals 300, . . . may be able to communicate with the posture evaluation device 100C.
  • the target person terminal 300 is a smartphone, a tablet terminal, a personal computer, etc. owned by the target person.
  • Posture evaluation device 100C acquires an image of the side surface of the subject's body from subject terminal 300. Therefore, the posture evaluation device 100C differs from the posture evaluation device 100A according to the second embodiment in that the imaging unit 101 may be omitted. Further, the estimation result display image created by the image generation unit 107 of the posture evaluation device 100C may be transmitted to the subject terminal 300 and displayed on the display unit (not shown) of the subject terminal 300.
  • the subject terminal 300 includes an imaging unit (not shown) that captures an image of the side surface of the subject's body. The subject terminal 300 transmits the image to the posture evaluation device 100C.
  • Posture evaluation systems are modified examples of posture evaluation system 200.
  • a posture evaluation device 100C acquires images of a side surface and other surfaces of the subject's body simultaneously from the subject's terminal 300.
  • the posture evaluation device 100C differs from the posture evaluation device 100B according to the third embodiment in that the first imaging section 101A and the second imaging section 101B may be omitted.
  • the image selection area G4, front image area G6, side image area G7, and result image area G8 created by the image generation unit 107A of the posture evaluation device 100C are transmitted to the subject terminal 300, and the display unit of the subject terminal 300 (not shown).
  • the subject terminal 300 includes a first imaging unit (not shown) that captures an image of a side surface of the subject's body, and a second imaging unit (not shown) that captures an image of another surface of the subject's body at the same time as the first imaging unit. Equipped with The subject terminal 300 transmits an image of a side surface of the body and an image of another surface of the body to the posture evaluation device 100C.
  • At least one side of the subject's body is imaged by the subject terminal 300, and the acquired image is transmitted to the posture evaluation device 100C via the network N.
  • Posture evaluation can be performed in the evaluation device 100C. Therefore, for example, even if the subject and the evaluator are located far apart, the evaluator can remotely evaluate the subject's posture.
  • the posture evaluation system 200 according to the fourth embodiment or other embodiments has particularly advantageous effects, for example, in situations such as remote therapy and remote training.
  • the present disclosure has been described as a hardware configuration, but the present disclosure is not limited to this.
  • the present disclosure can also be realized by causing a CPU (Central Processing Unit) to execute a computer program, such as the processing procedure described in the flowchart of FIG. 13 and the processing procedure described in other embodiments.
  • a CPU Central Processing Unit
  • the program includes a set of instructions (or software code) that, when loaded into a computer, causes the computer to perform one or more of the functions described in the embodiments.
  • the program may be stored on a non-transitory computer readable medium or a tangible storage medium.
  • computer readable or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drive (SSD) or other memory technology, CD - Including ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or a communication medium.
  • transitory computer-readable or communication media includes electrical, optical, acoustic, or other forms of propagating signals.
  • the spine extraction unit 103 extracts the spine edge point group P using the edge point group extracted by the edge extraction process as a candidate edge point group. I can't. Therefore, the spine extraction unit 103 performs a process of estimating a candidate edge point group based on the edge point group extracted by the edge extraction process, the ridge key point P1, the hip joint key point P2, and the knee joint key point P3. It's okay.
  • a predetermined number of images representing the shape of the spinal column on the image are based on an image obtained by capturing a side view of the subject's body and positional information of at least the cervical vertebrae, hip joints, and knee joints of the body on the image.
  • a posture evaluation device comprising: (Additional note 2) comprising a skeleton extraction means for extracting the position information from the image; Posture evaluation device according to appendix 1. (Additional note 3) comprising a storage means for storing the type of body posture and the reference value of the feature amount for the type of posture in association with each other; The state estimation means estimates at least the state of the spinal column based on the type of posture, the feature amount calculated by the feature amount calculation means, and the reference value.
  • Posture evaluation device according to supplementary note 1 or 2.
  • (Additional note 4) comprising posture determining means for determining the type of posture based on the position information;
  • Posture evaluation device according to appendix 3.
  • (Appendix 5) comprising display means for displaying the image and the state estimated by the state estimating means;
  • Posture evaluation device according to any one of Supplementary Notes 1 to 4.
  • (Appendix 6) The display means displays the state by color-coding the spinal column edge point group.
  • Posture evaluation device according to appendix 5.
  • (Appendix 7) The display means displays the vertebral column edge point group together with the image in a manner that allows the user to modify the vertebral column edge point group when the vertebral column edge point group is extracted by the vertebral column extracting means.
  • Posture evaluation device according to appendix 5 or 6. (Appendix 8) comprising a first imaging means for imaging a side surface of the body, and a second imaging means for imaging another surface of the body simultaneously with the first imaging means,
  • the display means displays an image of the side surface of the body taken by the first imaging means and an image of the other side of the body taken by the second imaging means.
  • Posture evaluation device according to any one of Supplementary Notes 5 to 7.
  • the posture evaluation device includes: A predetermined image representing the shape of the spinal column on the image is based on an image of the side surface of the subject's body acquired by the subject terminal and position information of at least the cervical vertebrae, hip joint, and knee joint of the body on the image. a spine extraction means for extracting a spine edge point group consisting of a number of points; Feature amount calculation means for calculating at least feature amounts related to the spinal column based on the position information and the spinal column edge point group; state estimating means for estimating at least the state of the spinal column based on the feature amount; Posture evaluation system.
  • the posture evaluation device includes: comprising a skeleton extraction means for extracting the position information from the image; Posture evaluation system described in Appendix 9.
  • the posture evaluation device includes: comprising a storage means for storing the type of body posture and the reference value of the feature amount for the type of posture in association with each other; The state estimation means estimates at least the state of the spinal column based on the type of posture, the feature amount calculated by the feature amount calculation means, and the reference value.
  • Posture evaluation system according to appendix 9 or 10.
  • the posture evaluation device includes: comprising posture determining means for determining the type of posture based on the position information; Posture evaluation system described in Appendix 11.
  • the posture evaluation device includes: comprising display means for displaying the image and the state estimated by the state estimating means; Posture evaluation system according to any one of Supplementary Notes 9 to 12.
  • the display means displays the state by color-coding the spinal column edge point group.
  • the display means displays the vertebral column edge point group together with the image in a manner that allows the user to modify the vertebral column edge point group when the vertebral column edge point group is extracted by the vertebral column extracting means. Posture evaluation system according to appendix 13 or 14.
  • the posture evaluation device includes: comprising a first imaging means for imaging a side surface of the body, and a second imaging means for imaging another surface of the body simultaneously with the first imaging means,
  • the display means displays an image of the side surface of the body taken by the first imaging means and an image of the other side of the body taken by the second imaging means.
  • Posture evaluation system according to any one of Supplementary Notes 13 to 15.
  • the posture evaluation device A predetermined number of images representing the shape of the spinal column on the image are based on an image obtained by capturing a side view of the subject's body and positional information of at least the cervical vertebrae, hip joints, and knee joints of the body on the image.
  • the posture evaluation device includes: extracting the position information from the image; Posture evaluation method described in Appendix 17.
  • the posture evaluation device includes: storing the type of body posture and the reference value of the feature amount in the type of posture in association with each other; estimating at least the state of the spinal column based on the type of posture, the feature amount, and the reference value; Posture evaluation method according to appendix 17 or 18.
  • the posture evaluation device includes: determining the type of the posture based on the position information; Posture evaluation method described in Appendix 19.
  • the posture evaluation device includes: displaying the image and the state; The posture evaluation method described in any one of Supplementary Notes 17 to 20.
  • the posture evaluation device includes: displaying the state by color-coding the spine edge point group; Posture evaluation method described in any one of Supplementary Notes 17 to 21.
  • the posture evaluation device includes: When the spine edge point group is extracted, displaying the spine edge point group together with the image in a manner that allows the user to modify the spine edge point group.
  • the posture evaluation device includes: Imaging a side surface of the body and simultaneously imaging another surface of the body; displaying a captured image of the other side of the body together with the captured image of the side surface of the body; The posture evaluation method described in any one of Supplementary Notes 17 to 23.
  • Posture evaluation device A predetermined number of images representing the shape of the spinal column on the image are based on an image obtained by capturing a side view of the subject's body and positional information of at least the cervical vertebrae, hip joints, and knee joints of the body on the image.
  • the posture evaluation device includes: 26.
  • the posture evaluation device includes: a process of storing the type of body posture in association with a reference value of the feature amount for the type of posture; a process of estimating at least a state of the spinal column based on the type of posture, the feature amount, and the reference value; 27.
  • the posture evaluation device includes: a process of determining the type of the posture based on the position information; 28.
  • the posture evaluation device includes: processing for displaying the image and the state; 29.
  • the posture evaluation device includes: a process of displaying the state by color-coding the spinal column edge point group; 30.
  • the posture evaluation device includes: When the spinal column edge point group is extracted, a process of displaying the spinal column edge point group together with the image so that it can be modified by a user; 31.
  • the posture evaluation device includes: Processing of imaging a side surface of the body and simultaneously imaging another surface of the body; Displaying a captured image of another side of the body together with the captured image of the side surface of the body; 32.
  • the non-transitory computer-readable medium according to any one of appendices 25 to 31, which stores a program for executing.
  • Imaging unit (imaging means) 101A First imaging unit (first imaging means) 101B Second imaging unit (second imaging means) 102 Skeleton extraction unit (skeleton extraction means) 103 Spinal column extraction unit (vertebral column extraction means) 104 Posture judgment unit (posture judgment means) 105 Feature amount calculation unit (feature amount calculation means) 106 State estimation unit (state estimation means) 107, 107A Image generation section 108, 108A Display section (display means) 109 Input unit 110 Storage unit (storage means) 111 Communication department 112 Reference value list 113 Skeleton DB (skeleton database) 114 Skeletal extraction model 200 Posture evaluation system 300 Subject terminal

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

比較的安価に高い精度で姿勢を評価することができる姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体を提供する。姿勢評価装置(100)は、対象者の身体の側面を撮像して得られた画像と、当該画像上の身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する脊柱抽出手段(103)と、当該位置情報と当該脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する特徴量算出手段(105)と、当該特徴量に基づいて、少なくとも脊柱の状態を推定する状態推定手段(106)と、を備える。

Description

姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体
 本開示は、姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体に関する。
 近年、オンライントレーニング、セルフトレーニングの普及により、専門知識を有さない一般の人々が自身の姿勢を評価するニーズが高まっている。
 特許文献1には、ユーザが所持する端末によって身体を撮像して取得した動画データから特徴量を抽出し、身体の各部位の位置を特定し、当該各部位を結んだボーンの動きを動画に重ねて表示する、運動評価システムが記載されている。
特開2020-141806号公報
 しかしながら、特許文献1に記載の運動評価システムでは、体幹を直線又は矩形により表現しているため、脊柱形状そのものに基づいて姿勢を評価することができない。そのため、特許文献1における姿勢評価の精度は、セラピストやトレーナー等の専門家による姿勢評価の精度に比べて十分ではないという問題がある。脊柱形状を計測する手法としては、デプスカメラを用いる手法、加速度センサを用いる手法、脊柱に沿って測定子を走査する手法等が挙げられるが、何れも高価な専門機器を必要とする。そのため、これらの手法は、一般の人々が自身の姿勢を評価する場合には不向きである。
 本開示の目的は、比較的安価に高い精度で姿勢を評価することができる姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体を提供することである。
 本開示に係る姿勢評価装置は、対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する脊柱抽出手段と、前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する特徴量算出手段と、前記特徴量に基づいて、少なくとも脊柱の状態を推定する状態推定手段と、を備える。
 本開示に係る姿勢評価システムは、姿勢評価装置と、前記姿勢評価装置と通信可能な対象者端末とを備え、前記姿勢評価装置は、前記対象者端末によって取得された対象者の身体の側面の画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する脊柱抽出手段と、前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する特徴量算出手段と、前記特徴量に基づいて、少なくとも脊柱の状態を推定する状態推定手段と、を備える。
 本開示に係る姿勢評価方法は、姿勢評価装置が、対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出し、前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出し、前記特徴量に基づいて、少なくとも脊柱の状態を推定する方法である。
 本開示に係る非一時的なコンピュータ可読媒体は、姿勢評価装置に、対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する処理と、前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する処理と、前記特徴量に基づいて、少なくとも脊柱の状態を推定する処理と、を実行させるプログラムを格納する非一時的なコンピュータ可読媒体である。
 比較的安価に高い精度で姿勢を評価することができる姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体を提供することができる。
実施の形態1に係る姿勢評価装置の構成を示すブロック図である。 実施の形態2に係る姿勢評価装置の構成を示すブロック図である。 実施の形態2に係る撮像部が撮像した画像の一例を示す図である。 実施の形態2に係るキーポイントの一例を示す図である。 実施の形態2に係る脊柱エッジ点群の一例を示す図である。 実施の形態2に係る脊柱抽出部の処理を説明する図である。 実施の形態2に係る特徴量算出部の処理を説明する図である。 実施の形態2に係る特徴量算出部の処理を説明する図である。 実施の形態2に係る状態推定部の処理を説明する図である。 実施の形態2に係る表示部に表示される画像の一例を示す図である。 実施の形態2に係る表示部に表示される画像の他の一例を示す図である。 実施の形態2に係る基準値リストのデータ構造を示す図である。 実施の形態2に係る姿勢評価方法を示すフローチャートである。 実施の形態3に係る姿勢評価装置の構成を示すブロック図である。 実施の形態3に係る姿勢評価装置において表示部に表示される画像の他の一例を示す図である。 実施の形態4に係る姿勢評価システムを示す図である。
 実施の形態1
 本実施の形態1について、図1を用いて説明する。図1は、本実施の形態1に係る姿勢評価装置100の構成を示すブロック図である。
 本実施の形態1における姿勢評価装置100は、スマートフォン等のカメラによって身体の側面を撮像して得られた画像に基づいて姿勢を評価する装置である。具体的には、姿勢評価装置100は、当該画像における脊柱の形状である脊柱形状を推定し、当該脊柱形状に基づいて姿勢を評価する。これにより、オンライントレーニングやセルフトレーニング等の場面において、比較的安価に、より精度高く、姿勢を評価することができる。
 姿勢評価装置100は、図1に示すように、脊柱抽出部103、特徴量算出部105、状態推定部106を備える。
 脊柱抽出部103は、対象者の身体の側面を撮像して得られた画像と、画像上の身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する。なお、対象者とは、姿勢評価装置100によって姿勢の評価を受ける者を意味する。
 ここで、対象者の身体の側面を撮像して得られた画像とは、2次元画像であり、2次元RGB画像であってもよい。
 また、脊柱エッジ点群とは、画像上において脊柱を表示する複数の点からなる点群である。また、脊柱エッジ点群を構成する各点は、1画素であってもよいし、縦N画素×横M画素からなる画像領域であってもよい。なお、N及びMは正の整数であり、NとMは等しくても異なっていてもよい。
 また、画像上の頸椎の位置情報は、例えば、頸椎を構成する7個の椎骨の何れかの位置情報であり、例えば、隆椎(C7)の位置情報である。また、画像上の膝関節の位置情報は、大腿骨の下端、膝蓋骨、脛骨の上端、腓骨の上端、及び膝関節裂隙の何れかの位置情報であり、例えば、大腿骨の下端の位置情報である。具体的には、隆椎の位置情報は、例えば、画像上において隆椎に相当する画像領域の中心に位置する画素の位置情報である。同様に、大腿骨の下端の位置情報は、例えば、画像上において大腿骨の下端に相当する画像領域の中心に位置する画素の位置情報である。
 また、画像上の位置情報とは、例えば、画像座標である。ここで、画像座標とは、2次元画像上の画素の位置を示すための座標であり、例えば、2次元画像の最も左側且つ最も上側に位置する画素の中心を原点とし、左右方向又は水平方向をx方向、上下方向又は垂直方向をy方向と定義される座標である。
 特徴量算出部105は、画像上の少なくとも頸椎、股関節、膝関節の位置情報と、脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する。
 状態推定部106は、特徴量算出部105によって算出された特徴量に基づいて、少なくとも脊柱の状態を推定する。
 本実施の形態1によれば、比較的安価に高い精度で姿勢を評価することができる姿勢評価装置100を提供することができる。具体的には、脊柱抽出部103によって画像上の脊柱形状を表す脊柱エッジ点群が抽出され、特徴量算出部105によって、画像上の頸椎、股関節、膝関節の位置情報と脊柱エッジ点群とに基づいて脊柱に関する特徴量が算出される。そして、状態推定部106によって、当該特徴量に基づいて脊柱の状態が推定される。換言すれば、画像上の脊柱形状に基づいて姿勢を評価することができるため、高い精度で姿勢を評価することができる。さらに、高価な専門機器を用いずとも脊柱形状に基づいて姿勢評価を行うことができるため、比較的安価に姿勢を評価することができる。よって、比較的安価に高い精度で姿勢を評価することができる姿勢評価装置100を提供することができる。
 また、脊柱形状を計測する手法としては、デプスカメラを用いる手法、加速度センサを用いる手法、脊柱に沿って測定子を走査する手法等が挙げられる。これらの手法では、脊柱を構成する複数の椎体のそれぞれの位置や傾きを正確に推定することを目的としている。しかしながら、セラピストやトレーナー等の専門家は、脊柱全体の曲がり方のバランスを評価しており、個々の椎体の位置や傾きを評価しているわけではない。そのため、一般の人々が自身の姿勢を専門家レベルで評価する目的において、これらの手法と同等の精度を目指す必要もない。一方、本実施の形態1に係る姿勢評価装置100では、画像上の脊柱形状を表す脊柱エッジ点群に基づいて、セラピストやトレーナー等の専門家と同程度に高い精度で姿勢を評価することができる。
 また、特許文献1に記載の運動評価システムのように、体幹を直線又は矩形により表現して、股関節と脊柱とを一体として評価する場合、股関節単体の状態を評価することができないという問題がある。一方、本実施の形態1に係る姿勢評価装置100では、画像上の脊柱形状を脊柱エッジ点群として表現しているため、股関節単体の状態を評価することが可能となる。
 実施の形態2
 本実施の形態2について、図2を用いて説明する。図2は、本実施の形態2に係る姿勢評価装置100Aの構成を示すブロック図である。姿勢評価装置100Aは、例えば、ユーザが所持するスマートフォン、タブレット端末、パーソナルコンピュータ等のユーザ端末である。なお、ユーザとは、姿勢評価装置100Aによって姿勢の評価を受ける対象者、及び姿勢評価装置100Aを用いて他者の姿勢を評価する評価者の双方を含む。また、セルフトレーニング等において対象者が姿勢評価装置100Aを用いて自身の姿勢を評価する場合、対象者は評価者でもある。また、評価者が姿勢評価装置100Aを用いて他者の姿勢を評価する場合、評価者は、例えば、セラピストやトレーナーである。
 本実施の形態2の姿勢評価装置100Aは、図2に示すように、撮像部101、骨格抽出部102、脊柱抽出部103、姿勢判断部104、特徴量算出部105、状態推定部106、画像生成部107、表示部108、入力部109、記憶部110、通信部111を備える。入力部109と表示部108は、タッチパネル付ディスプレイとして一つの構成としてもよいし、それぞれ別個に設けてもよい。また、記憶部110は、基準値リスト112、骨格データベース(図2において、「骨格DB」と示す。)113、骨格抽出モデル114等を記憶している。
 撮像部101は、対象者の身体の側面を撮像して画像を取得する。撮像部101が対象者の身体の側面を撮像した画像の一例を図3に示す。図3に示す画像には、前屈する対象者に相当する人物Oの側面が映っている。ここで、撮像部101が撮像する画像は、2次元画像であり、2次元RGB画像であってもよい。撮像部101は、撮像した画像を、骨格抽出部102及び脊柱抽出部103に入力する。
 また、撮像部101は、対象者の身体の側面を動画撮影して画像を取得してもよい。この場合、ユーザが入力部109を操作することにより、姿勢評価を行う時点を指定してもよい。そして、ユーザによって指定された時点の画像が骨格抽出部102及び脊柱抽出部103に入力されてもよい。
 骨格抽出部102は、撮像部101が撮像した画像から、少なくとも頸椎、股関節、膝関節の位置情報(以下、「キーポイントの位置情報」とも称する。)を抽出する。図3に示す画像から骨格抽出部102が抽出したキーポイントP1,P2,P3の一例を図4に示す。図4において、P1は隆椎のキーポイント(以下、「隆椎キーポイント」と称する。)であり、P2は股関節のキーポイント(以下、「股関節キーポイント」と称する。)であり、P3は大腿骨の下端のキーポイント(以下、「膝関節キーポイント」と称する。)である。なお、位置情報の詳細については、実施の形態1に記載された通りであるため、その説明を省略する。
 具体的には、骨格抽出部102は、学習済みの骨格抽出モデル114を用いて、撮像部101が撮像した画像からキーポイントの位置情報を抽出する。なお、姿勢評価装置100Aは、予め、機械学習モデルである骨格抽出モデル114と、教師データである骨格データベース113とを用いて、機械学習を行い、学習済みの骨格抽出モデル114を生成する。
 骨格抽出部102は、抽出したキーポイントの位置情報を脊柱抽出部103に入力する。
 なお、キーポイントの位置情報は、撮像部101によって撮像された2次元画像の左右方向又は水平方向であるx方向、上下方向又は垂直方向であるy方向、に加えて、奥行方向であるz方向で定義される3次元座標で表される情報であってもよい。これは、2次元画像から3次元座標で表されるキーポイントの位置情報を抽出する骨格抽出モデル114を用いることにより可能となる。
 また、骨格抽出部102がキーポイントを抽出する身体の箇所は、上述の頸椎、股関節、膝関節に限定されるものではなく、例えば、足首の関節、肩の関節、肘の関節、手首の関節のキーポイントを抽出してもよい。さらに、骨格抽出部102は、関節の他に、目、耳、頭の中心等をキーポイントとして抽出してもよい。
 また、キーポイントは、表示部108に撮像部101が撮像した画像が表示され、ユーザが入力部109を操作することにより、指定されてもよい。そして、ユーザによって指定されたキーポイントの位置情報が脊柱抽出部103に入力されてもよい。
 脊柱抽出部103は、撮像部101から入力された画像と、骨格抽出部102から入力されたキーポイントの位置情報とに基づいて、画像上の脊柱を脊柱エッジ点群として抽出する。図3に示す画像から脊柱抽出部103が抽出した脊柱エッジ点群Pの一例を図5に示す。なお、脊柱エッジ点群の詳細については、実施の形態1に記載された通りであるため、その説明を省略する。
 以下、図6を参照しながら、脊柱抽出部103の処理について、詳細に説明する。まず、脊柱抽出部103は、隆椎キーポイントP1と股関節キーポイントP2とを結ぶ線分ltrunkの長さと、股関節キーポイントP2と膝関節キーポイントP3とを結ぶ線分lthighの長さとを算出し、撮像部101から入力された画像のサイズを正規化する。この際、隆椎キーポイントP1、股関節キーポイントP2、膝関節キーポイントP3、線分ltrunkの長さ、及び線分lthighの長さも正規化された値に変換される。
 次に、脊柱抽出部103は、線分ltrunkと線分lthighとに基づいて、当該画像に映る人物Oの背中のラインを特定し、脊柱エッジ点群Pの候補となる候補エッジ点群を抽出する。具体的には、脊柱抽出部103は、線分ltrunkと線分lthighとに基づいて、当該画像に映る人物Oの背中を少なくとも含むバウンディングボックスを指定する。次いで、脊柱抽出部103は、当該バウンディングボックス内の画像データに対してエッジ抽出処理を行い、候補エッジ点群を抽出する。
 次に、脊柱抽出部103は、線分ltrunkと線分lthighとのなす角の外角θを算出する。次いで、脊柱抽出部103は、当該外角θに基づいて、脊柱の頭側を規定する線分lと線分ltrunkとの角度θ、及び脊柱の尾側を規定する線分lと線分ltrunkとの角度θとを決定する。具体的には、予め、外角θと角度θと角度θとを対応付けた角度テーブル(不図示)が記憶部110に記憶されており、脊柱抽出部103は、当該角度テーブルを参照することにより、外角θに基づいて、角度θと角度θとを決定する。また、記憶部110に、予め、当該角度テーブルを教師データとして機械学習済みの角度決定モデル(不図示)が格納されており、脊柱抽出部103は、当該角度決定モデルを用いて、外角θに基づいて、角度θと角度θとを決定してもよい。
 次に、脊柱抽出部103は、線分lと候補エッジ点群との交点を脊柱エッジ点群Pの頭側の端点と決定し、線分lと候補エッジ点群との交点を脊柱エッジ点群Pの尾側の端点と決定する。これにより、候補エッジ点群のうち、脊柱エッジ点群Pとなる範囲が決定される。換言すれば、脊柱エッジ点群Pが抽出される。
 次に、脊柱抽出部103は、算出した外角θを姿勢判断部104に入力する。また、脊柱抽出部103は、正規化した隆椎キーポイントP1、股関節キーポイントP2、及び膝関節キーポイントP3と、抽出した脊柱エッジ点群Pとを特徴量算出部105に入力する。また、脊柱抽出部103は、正規化した画像と、正規化したキーポイントP1,P2,P3と、抽出した脊柱エッジ点群Pとを画像生成部107に入力する。
 姿勢判断部104は、脊柱抽出部103から入力された外角θに基づいて、撮像部101が撮像した画像に映る人物Oの姿勢の種類を判断する。具体的には、予め、外角θと姿勢の種類とを対応付けた姿勢テーブル(不図示)が記憶部110に記憶されており、姿勢判断部104は、当該姿勢テーブルを参照することにより、外角θに基づいて、姿勢の種類を判断する。ここで、姿勢の種類には、例えば、前屈、立位、後屈等が挙げられる。姿勢判断部104は、判断した姿勢の種類を状態推定部106に入力する。
 なお、姿勢の種類は、ユーザが入力部109を操作することによって指定されてもよい。そして、ユーザによって指定された姿勢の種類が状態推定部106に入力されてもよい。
 特徴量算出部105は、脊柱抽出部103から入力されたキーポイントP1,P2,P3と脊柱エッジ点群Pとに基づいて、少なくとも脊柱に関する特徴量を算出する。具体的には、特徴量算出部105は、隆椎キーポイントP1、股関節キーポイントP2、膝関節キーポイントP3、及び脊柱エッジ点群Pに基づいて、脊柱曲率、脊柱彎曲角度、股関節角度、上位胸椎彎曲角度、下位胸椎彎曲角度、腰椎彎曲角度等を特徴量として算出する。
 具体的には、特徴量算出部105は、脊柱エッジ点群Pに、n次べき関数やスプライン関数をフィッティングすることによって、脊柱エッジ点群Pに含まれる全ての点に対して、脊柱の曲率である脊柱曲率を算出する。例えば、特徴量算出部105は、脊柱エッジ点群Pの全ての点において、それぞれ、3次関数を脊柱エッジ点群Pにフィッティングして、脊柱エッジ点群Pに含まれるそれぞれの点における脊柱曲率を算出する。
 次に、図7を参照しながら、特徴量算出部105の脊柱彎曲角度の算出処理について、詳細に説明する。特徴量算出部105は、図7に示すように、脊柱エッジ点群Pの頭側の端点P4における脊柱エッジ点群Pに対する法線と、脊柱エッジ点群Pの尾側の端点P5における脊柱エッジ点群Pに対する法線とのなす角θを脊柱彎曲角度として算出する。
 同様に、特徴量算出部105は、上位胸椎彎曲角度、下位胸椎彎曲角度、腰椎彎曲角度を算出する。具体的には、予め、脊柱における上位胸椎、下位胸椎、腰椎の位置は、それぞれ、脊柱の頭側から脊柱の0%~A%の位置、A%~B%の位置、B%~C%の位置と定められている。そして、特徴量算出部105は、上位胸椎の頭側の端点における脊柱エッジ点群Pに対する法線と、上位胸椎の尾側の端点における脊柱エッジ点群Pに対する法線とのなす角を上位胸椎彎曲角度として算出する。
 同様に、特徴量算出部105は、下位胸椎の頭側の端点における脊柱エッジ点群Pに対する法線と、下位胸椎の尾側の端点における脊柱エッジ点群Pに対する法線とのなす角を下位胸椎彎曲角度として算出する。
 また、特徴量算出部105は、腰椎の頭側の端点における脊柱エッジ点群Pに対する法線と、腰椎の尾側の端点における脊柱エッジ点群Pに対する法線とのなす角を腰椎彎曲角度として算出する。
 次に、図8を参照しながら、特徴量算出部105の股関節角度の算出処理について、詳細に説明する。特徴量算出部105は、脊柱エッジ点群Pの尾側の端点P5における脊柱エッジ点群Pに対する接線lを求める。当該接線lは、仙骨後面の角度を表している。次いで、特徴量算出部105は、股関節キーポイントP2と膝関節キーポイントP3とを結ぶ線分lと、接線lとのなす角θを股関節角度として算出する。
 そして、特徴量算出部105は、特徴量として算出した脊柱曲率、脊柱彎曲角度、股関節角度、上位胸椎彎曲角度、下位胸椎彎曲角度、腰椎彎曲角度等を状態推定部106に入力する。
 状態推定部106は、特徴量算出部105から入力された特徴量に基づいて、少なくとも脊柱の状態を推定する。具体的には、状態推定部106は、特徴量算出部105から入力された脊柱曲率、脊柱彎曲角度、股関節角度、上位胸椎彎曲角度、下位胸椎彎曲角度、腰椎彎曲角度等に基づいて、上位胸椎、下位胸椎、腰椎、腰椎仙骨移行部(L5/S1)、股関節の状態を推定する。
 そして、状態推定部106は、推定結果を画像生成部107に入力する。
 例えば、状態推定部106は、特徴量算出部105から入力された脊柱曲率に基づいて、脊柱の各部分の曲がり具合を推定する。例えば、脊柱エッジ点群Pのある点における脊柱曲率の符号がプラスの場合、当該点における脊柱の曲がり具合は、撮像部101によって撮像された画像に映る人物Oの前側に凸であるとする。この場合、脊柱エッジ点群Pの当該点における脊柱曲率の符号がマイナスの場合、当該点における脊柱の曲がり具合は当該人物Oの後ろ側に凸である。そのため、状態推定部106は、脊柱曲率の符号に基づいて、脊柱の各部分の曲がり具合を推定する。換言すれば、状態推定部106は、脊柱曲率の符号がプラスの場合、当該点における脊柱の曲がり具合を当該人物Oの前側に凸であると推定する。また、状態推定部106は、脊柱曲率の符号がマイナスの場合、当該点における脊柱の曲がり具合を当該人物Oの後ろ側に凸であると推定する。
 また、状態推定部106は、姿勢判断部104から入力された姿勢の種類と、特徴量算出部105から入力された特徴量とに基づいて、脊柱等の状態を推定する。具体的には、予め、姿勢の種類と、当該姿勢における特徴量の基準値とを対応付けた基準値リスト112が記憶部110に記憶されている。そして、状態推定部106は、姿勢判断部104から入力された姿勢の種類と、特徴量算出部105から入力された特徴量とに基づいて、基準値リスト112を参照することにより、脊柱等の状態を推定する。ここで、基準値とは、脊柱等の身体部位が正常である場合に特徴量が取り得る範囲の値である。
 例えば、図9に示すように、状態推定部106は、姿勢の種類が前屈である場合の上位胸椎彎曲角度の基準値と、特徴量算出部105から入力された上位胸椎彎曲角度とを比較することにより、上位胸椎の状態を「過屈曲」と推定する。
 同様に、状態推定部106は、姿勢の種類が前屈である場合の下位胸椎彎曲角度の基準値と、特徴量算出部105から入力された下位胸椎彎曲角度とを比較することにより、下位胸椎の状態を「屈曲不足」と推定する。
 同様に、状態推定部106は、姿勢の種類が前屈である場合の腰椎彎曲角度の基準値と、特徴量算出部105から入力された腰椎彎曲角度とを比較することにより、腰椎の状態を「正常」と推定する。
 同様に、状態推定部106は、姿勢の種類が前屈である場合の腰椎彎曲角度の基準値と、特徴量算出部105から入力された腰椎彎曲角度とを比較することにより、腰椎仙骨移行部(L5/S1)の状態を「正常」と推定する。
 同様に、状態推定部106は、姿勢の種類が前屈である場合の股関節角度の基準値と、特徴量算出部105から入力された股関節角度とを比較することにより、股関節の状態を「屈曲不足」と推定する。
 また、記憶部110に、予め、機械学習済みの状態推定モデル(不図示)が格納されており、状態推定部106は、当該状態推定モデルを用いて、少なくとも脊柱の状態を推定してもよい。具体的には、記憶部110に、予め、少なくとも脊柱に関する特徴量と、正解データとしての「過屈曲」、「正常」、又は「屈曲不足」等の状態ラベルとが対応付けられた教師データが記憶されていてもよい。そして、記憶部110に、予め、当該教師データを用いて機械学習済みの状態推定モデルが記憶されていてもよい。
 画像生成部107は、脊柱抽出部103から入力された、正規化された画像、正規化されたキーポイントP1,P2,P3、及び抽出された脊柱エッジ点群Pと、状態推定部106から入力された推定結果とに基づいて、表示部108が表示する推定結果表示画像を生成する。
 また、画像生成部107は、脊柱抽出部103から入力された、正規化された画像及び抽出された脊柱エッジ点群Pに基づいて、ユーザが脊柱エッジ点群Pを修正するための修正用画像を生成してもよい。
 そして、画像生成部107は、生成した画像を表示部108に入力する。
 表示部108は、画像生成部107から入力された推定結果表示画像を表示する。表示部108は、LCD(Liquid Crystal Display),LED(Light Emitting Diode)等、様々な表示手段によって構成される。図10に、表示部108に表示される推定結果表示画像の一例を示す。また、図11に、表示部108に表示される推定結果表示画像の他の一例を示す。
 図10に示す例では、姿勢評価装置100Aの表示部108の上側に、撮像部101が撮像した画像にキーポイントP6及び当該キーポイントP6を結ぶ線分lが重ね合された画像部分G1が表示され、表示部108の下側に、状態推定部106の推定結果を示す画像部分G2が表示されている。また、推定結果を示す画像部分G2において、「正常」以外の推定結果が、太字や赤字等で強調されて表示されてもよい。
 図11に示す例では、姿勢評価装置100Aの表示部108に、キーポイントP7及び状態推定部106の推定結果に基づいて色分けされた脊柱エッジ点群Pを、撮像部101が撮像した画像に重ね合せた画像G3が表示されている。例えば、図11に示す表示部108では、脊柱エッジ点群Pの各部A,B,C,D,Eが撮像部101に撮像された画像に映る人物Oの前側に凸であるか、後ろ側に凸であるかに基づいて色分けされて表示されている。また、脊柱エッジ点群Pの各部A,B,C,D,Eの色分けは、各部A,B,C,D,Eの突出度合い(脊柱曲率の値の大小)に基づいて行われている。
 また、表示部108は、脊柱エッジ点群Pを、例えば、上位胸椎、下位胸椎、腰椎の部分に分けて、それぞれの部分の状態に応じた色で表示してもよい。
 さらに、脊柱エッジ点群Pの色分けは、徐々に色が変化するグラデーションで行われてもよい。
 また、表示部108は、画像生成部107から入力された修正用画像を表示してもよい。これにより、例えば、脊柱抽出部103による脊柱エッジ点群Pの抽出した範囲が間違っている場合に、ユーザが当該修正要画面上に表示された脊柱エッジ点群Pをドラッグすることにより修正することができる。
 入力部109は、ユーザからの操作指示を受け付ける。入力部109は、キーボードにより構成されてもよいし、タッチパネル式の表示装置によって構成されてもよい。入力部109は、姿勢評価装置100A本体と接続されるキーボードやタッチパネルによって構成されてもよい。
 記憶部110は、基準値リスト112、骨格データベース113,骨格抽出モデル114等を記憶している。また、記憶部110は、処理に必要な各種のプログラムや各種のデータが固定的に記憶されている不揮発性のメモリ(例えば、ROM(Read Only Memory))を含むことができる。また、記憶部110は、HDD(Hard Disk Drive)やSSDを用いるものであってもよい。さらに、記憶部110は、作業領域として用いられる揮発性のメモリ(例えば、RAM(Random Access Memory))を含むことができる。上記プログラムは、光ディスク、半導体メモリ等の可搬性の記録媒体から読み取られてもよいし、ネットワーク上のサーバ装置からダウンロードされてもよい。
 基準値リスト112は、姿勢の種類と、当該姿勢における特徴量の基準値とが対応付けられたリストである。図12に、基準値リスト112のデータ構造の一例を示す。図12に示すように、基準値リスト112は、姿勢の種類112Aと、当該姿勢における脊柱曲率の基準値112Bと、脊柱彎曲角度の基準値112Cと、股関節角度の基準値112Dと、上位胸椎彎曲角度の基準値112E、下位胸椎彎曲角度の基準値112F、腰椎彎曲角度の基準値112Gとを対応付けてリストアップしたリストである。
 骨格データベース113は、身体の側面を撮像して得られた複数の画像について、当該画像と、正解ラベルとしてのキーポイントの位置情報とが対応付けられたデータベースである。
 骨格抽出モデル114は、身体の側面を撮像して得られた画像からキーポイントの位置情報を抽出する機械学習モデルである。換言すれば、骨格抽出モデル114は、身体の側面を撮像して得られた画像を入力として、キーポイントの位置情報を推論して出力する機械学習モデルである。なお、本明細書において、機械学習は深層学習であってもよいが、特に限定されない。
 通信部111は、外部のサーバや他の端末装置等と通信を行う。通信部111は、無線通信を行うアンテナ(不図示)を備えてもよいし、有線通信を行うためのNIC(Network Interface Card)等のインタフェースを備えてもよい。
 次に、図13を参照しながら、本実施の形態2に係る姿勢評価方法について説明する。まず、撮像部101が身体の側面を撮像し(ステップS101)、得られた画像を骨格抽出部102及び脊柱抽出部103に入力する。
 次に、骨格抽出部102が、ステップS101において撮像部101が撮像した画像から、キーポイントの位置情報を抽出し(ステップS102)、抽出したキーポイントの位置情報を脊柱抽出部103に入力する。例えば、骨格抽出部102は、隆椎キーポイントP1、股関節キーポイントP2、膝関節キーポイントP3の位置情報を抽出する。
 次に、脊柱抽出部103が、ステップS101において撮像部101が撮像した画像と、ステップS102において骨格抽出部102が抽出したキーポイントP1,P2,P3の位置情報とに基づいて、脊柱エッジ点群を抽出する。(ステップS103)。具体的には、脊柱抽出部103は、撮像部101が撮像した画像を正規化し、線分ltrunkと線分lthighとのなす角の外角θを算出し、脊柱エッジ点群Pを抽出する。そして、脊柱抽出部103は、算出した外角θを姿勢判断部104に入力する。また、脊柱抽出部103は、キーポイントP1,P2,P3と脊柱エッジ点群Pとを特徴量算出部105に入力する。また、脊柱抽出部103は、正規化した画像とキーポイントP1,P2,P3と脊柱エッジ点群Pとを画像生成部107に入力する。
 次に、特徴量算出部105が、脊柱抽出部103から入力されたキーポイントP1,P2,P3と脊柱エッジ点群Pとに基づいて、脊柱曲率、脊柱彎曲角度、股関節角度、上位胸椎彎曲角度、下位胸椎彎曲角度、腰椎彎曲角度等を特徴量として算出する。(ステップS104)。そして、特徴量算出部105は、算出した脊柱曲率、脊柱彎曲角度、股関節角度、上位胸椎彎曲角度、下位胸椎彎曲角度、腰椎彎曲角度等を状態推定部106に入力する。
 また、姿勢判断部104が、脊柱抽出部103から入力された外角θに基づいて、撮像部101が撮像した画像に映る人物Oの姿勢の種類を判断する(ステップS105)。そして、姿勢判断部104は、判断した姿勢の種類を状態推定部106に入力する。
 次に、状態推定部106が、姿勢判断部104から入力された姿勢の種類と、特徴量算出部105から入力された脊柱曲率、脊柱彎曲角度、股関節角度、上位胸椎彎曲角度、下位胸椎彎曲角度、腰椎彎曲角度等とに基づいて、上位胸椎、下位胸椎、腰椎、腰椎仙骨移行部(L5/S1)、股関節の状態を推定する(ステップS106)。そして、状態推定部106は、推定結果を画像生成部107に入力する。
 次に、画像生成部107が、ステップS101において撮像された画像と、ステップS106において推定された上位胸椎、下位胸椎、腰椎、腰椎仙骨移行部(L5/S1)、股関節の状態とに基づいて、表示部108に表示される画像を生成する(ステップS107)。そして、画像生成部107が画像は、表示部108に入力される。
 次に、表示部108が、ステップS107において生成された画像を表示し(ステップS108)、本処理を終了する。
 なお、キーポイントP1,P2,P3は、表示部108に撮像部101が撮像した画像が表示され、ユーザが入力部109を操作することにより、指定されてもよい。この場合、ステップS102の処理は省略されてもよい。
 また、ステップS103の処理の後、ステップS104の処理の前において、ステップS103において抽出された脊柱エッジ点群Pを表示する修正用画像が表示部108に表示され、ユーザが当該修正要画面上に表示された脊柱エッジ点群Pをドラッグすることにより修正してもよい。
 また、ステップS104の処理とステップS105の処理との順序は反対であってもよく、ステップS104の処理とステップS105の処理とは同時に行われてもよい。
 また、ステップS106の処理が行われる前に、ユーザが入力部109を操作することによって姿勢の種類が指定されてもよい。この場合、ステップS105の処理は省略されてもよい。
 本実施の形態2によれば、比較的安価に高い精度で姿勢を評価することができる姿勢評価装置100Aを提供することができる。具体的には、脊柱抽出部103によって画像上の脊柱形状を表す脊柱エッジ点群Pが抽出され、特徴量算出部105によって、画像上のキーポイントP1,P2,P3と脊柱エッジ点群Pとに基づいて、特徴量として、脊柱曲率、脊柱彎曲角度、股関節角度、上位胸椎彎曲角度、下位胸椎彎曲角度、腰椎彎曲角度が算出される。そして、状態推定部106によって、当該特徴量に基づいて、上位胸椎、下位胸椎、腰椎、腰椎仙骨移行部(L5/S1)、股関節の状態が推定される。換言すれば、画像上の脊柱形状に基づいて姿勢を評価することができるため、高い精度で姿勢を評価することができる。さらに、高価な専門機器を用いずとも脊柱形状に基づいて姿勢評価を行うことができるため、比較的安価に姿勢を評価することができる。よって、比較的安価に高い精度で姿勢を評価することができる姿勢評価装置100Aを提供することができる。
 また、骨格抽出部102によって、撮像部101が撮像した画像からキーポイントP1,P2,P3が抽出される。これにより、ユーザが当該画像上のキーポイントP1,P2,P3を指定する必要がない。
 また、骨格抽出部102は、学習済みの骨格抽出モデル114を用いて、撮像部101によって撮像された2次元画像の左右又は水平方向であるx方向、上下又は垂直方向であるy方向、に加えて、奥行方向であるz方向で定義される3次元座標で表されるキーポイントを抽出してもよい。これにより、より精密な姿勢評価を行うことが可能となる。
 また、状態推定部106が、姿勢の種類と、特徴量とに基づいて、基準値リスト112を参照することにより、脊柱等の状態を推定する。ここで、基準値とは、脊柱等の身体部位が正常である場合に特徴量が取り得る範囲の値である。そのため、状態推定部106は、脊柱等の身体部位が正常であるか否かを推定することができる。
 また、姿勢判断部104によって、骨格抽出部102によって抽出されたキーポイントに基づいて、姿勢評価を行う人物Oの姿勢の種類が判断される。そのため、姿勢評価を行う姿勢の種類をユーザが指定する必要がない。
 また、表示部108によって、撮像部101が撮像した画像と、状態推定部106による推定結果とを表示する推定結果表示画像が表示される。これにより、ユーザは、姿勢の状態を視覚的にとらえることができる。
 また、表示部108によって、状態推定部106によって推定された状態が、脊柱エッジ点群Pを色分けすることにより表示される。これにより、ユーザは、姿勢の状態を視覚的にとらえることができる。
 実施の形態3
 次に、図14を参照しながら、本実施の形態3に係る姿勢評価装置100Bについて説明する。図14は、本実施の形態3に係る姿勢評価装置100Bの構成を示すブロック図である。実施の形態3に係る姿勢評価装置100Bは、第1撮像部101A及び第2撮像部101Bを備える点が、実施の形態2に係る姿勢評価装置100Aと異なる。また、図15に示すように、画像生成部107Aが生成する画像、すなわち表示部108Aに表示される画像も異なる。そのため、実施の形態3に係る姿勢評価装置100Bの構成のうち、実施の形態2に係る姿勢評価装置100Aと同一の構成については同一の符号を付すとともに、その説明を省略する。
 第1撮像部101Aは、実施の形態2に係る撮像部101と同様に、対象者の身体の側面を撮像して画像を取得する。第1撮像部101Aは、撮像した画像を、骨格抽出部102、脊柱抽出部103、及び画像生成部107Aに入力する。
 また、第1撮像部101Aは、実施の形態2に係る撮像部101と同様に、対象者の身体の側面を動画撮影して画像を取得してもよい。この場合、ユーザが入力部109を操作して、表示部108Aに表示された画像選択領域G4(図15参照)において、姿勢評価を行う時点を指定する。そして、ユーザによって指定された時点の画像が骨格抽出部102及び脊柱抽出部103に入力される。本実施の形態3では、第1撮像部101Aが対象者の側面を動画撮影する場合を例に挙げて説明する。
 第2撮像部101Bは、第1撮像部101Aと同時に、対象者の身体の他の面を撮像する。ここで、対象者の身体の他の面とは、対象者の身体の側面以外であれば、どの面であってもよい。第2撮像部101Bは、撮像した画像を、画像生成部107Aに入力する。
 また、第2撮像部101Bは、対象者の身体の他の面を動画撮影して画像を取得してもよい。本実施の形態3では、第2撮像部101Bが対象者の身体の正面を動画撮影する場合を例に挙げて説明する。
 画像生成部107Aは、第2撮像部101Bから入力された画像に基づいて、表示部108Aが表示する画像選択領域G4を生成する。図15に示すように、画像選択領域G4は、第2撮像部101Bから入力された動画の複数のサムネイル画像G5が時間スケールT1に沿って並べられるとともに、姿勢評価を行う時点を指定するための指定バーT2が時間スケールT1に沿って移動可能に表示された画像領域である。
 また、画像生成部107Aは、表示部108Aに表示された画像選択領域G4においてユーザが指定した時点の画像を表示する正面画像を示す正面画像領域G6を生成する。
 また、画像生成部107Aは、脊柱抽出部103から入力された、正規化された画像及びキーポイントに基づいて、当該画像にキーポイントP8及び当該キーポイントP8を結ぶ線分lが重ね合された側面画像部分G7を生成する。
 また、画像生成部107Aは、状態推定部106から入力された推定結果に基づいて、状態推定部106の推定結果を示す結果画像領域G8を生成する。
 そして、画像生成部107Aは、生成した画像選択領域G4、正面画像領域G6、側面画像領域G7、結果画像領域G8を表示部108Aに入力する。
 表示部108Aは、画像生成部107から入力された画像選択領域G4、正面画像領域G6、側面画像領域G7、結果画像領域G8を表示する。図15に、表示部108Aに表示される画像の一例を示す。
 図15に示す例では、姿勢評価装置100Bの表示部108Aの下側に画像選択領域G4が表示され、表示部108Aの上側の左側に正面画像領域G6が表示され、表示部108Aの上側の中央に側面画像領域G7が表示され、表示部108Aの上側の右側に結果画像領域G8が表示されている。そして、図15に示す例では、画像選択領域G4において、ユーザによって指定バーT2が移動されて、0分11秒が姿勢評価を行う時点として指定されている。
 本実施の形態3によれば、ユーザは、表示部108Aに表示された正面画像領域G6を確認することにより、身体の側面を確認するだけでは分からない姿勢についての情報を確認することができる。例えば、ユーザは、正面画像領域G6から身体の左右が均等に動いているか否かを確認することができる。
 実施の形態4
 次に、図16を参照しながら、本実施の形態4に係る姿勢評価システム200について説明する。図16は、本実施の形態4に係る姿勢評価システム200の構成を示す図である。姿勢評価システム200は、図16に示すように、姿勢評価装置100C、姿勢評価装置100Cと通信可能な対象者端末300とを備える。姿勢評価装置100Cと対象者端末300とはネットワークNを介して通信可能となっている。また、図16に示すように、1以上の対象者端末300,・・・が姿勢評価装置100Cと通信可能となっていてもよい。
 また、対象者端末300は、対象者が所持するスマートフォン、タブレット端末、パーソナルコンピュータ等である。
 実施の形態4に係る姿勢評価装置100Cは、対象者端末300から、対象者の身体の側面を撮像した画像を取得する。そのため、姿勢評価装置100Cは、撮像部101が省略されてもよい点が実施の形態2に係る姿勢評価装置100Aと異なる。
 また、姿勢評価装置100Cの画像生成部107が作成した推定結果表示画像は、対象者端末300に送信され、対象者端末300の表示部(不図示)に表示されてもよい。
 対象者端末300は、対象者の身体の側面を撮像する撮像部(不図示)を備える。対象者端末300は、当該画像を姿勢評価装置100Cに送信する。
 その他の実施の形態
 次に、その他の実施の形態に係る姿勢評価方法について簡単に説明する。その他の実施の形態に係る姿勢評価システムは、姿勢評価システム200の変形例である。その他の実施の形態に係る姿勢評価装置100Cは、対象者端末300から、対象者の身体の側面及び他の面を同時に撮像した画像を取得する。この場合、姿勢評価装置100Cは、第1撮像部101A及び第2撮像部101Bが省略されてもよい点が実施の形態3に係る姿勢評価装置100Bと異なる。
 また、姿勢評価装置100Cの画像生成部107Aが作成した画像選択領域G4、正面画像領域G6、側面画像領域G7、結果画像領域G8は、対象者端末300に送信され、対象者端末300の表示部(不図示)に表示されてもよい。
 対象者端末300は、対象者の身体の側面を撮像する第1撮像部(不図示)、及び第1撮像部と同時に対象者の身体の他の面を撮像する第2撮像部(不図示)を備える。対象者端末300は、身体の側面を撮像した画像及び身体の他の面を撮像した画像を姿勢評価装置100Cに送信する。
 本実施の形態4及びその他の実施の形態によれば、対象者端末300において対象者の身体の少なくとも側面が撮像され、取得された画像がネットワークN経由で姿勢評価装置100Cに送信され、当該姿勢評価装置100Cにおいて姿勢評価を行うことができる。そのため、例えば、対象者と評価者とが離れた場所にいても、評価者はリモートで対象者の姿勢を評価することができる。本実施の形態4又はその他の実施の形態に係る姿勢評価システム200は、例えば、リモートセラピーやリモートトレーニング等の場面で特に有利な効果を奏する。
 上述の実施の形態では、本開示をハードウェアの構成として説明したが、本開示は、これに限定されるものではない。本開示は、図13のフローチャートに記載の処理手順及びその他の実施の形態に記載の処理手順を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
 上記の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。例えば、対象者が身体のラインが出にくい服装をしている場合、脊柱抽出部103は、エッジ抽出処理によって抽出したエッジ点群をそのまま候補エッジ点群として用いて、脊柱エッジ点群Pを抽出することはできない。そのため、脊柱抽出部103は、エッジ抽出処理によって抽出したエッジ点群と、隆椎キーポイントP1、股関節キーポイントP2、及び膝関節キーポイントP3とに基づいて、候補エッジ点群の推定処理を行ってもよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する脊柱抽出手段と、
 前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する特徴量算出手段と、
 前記特徴量に基づいて、少なくとも脊柱の状態を推定する状態推定手段と、
 を備える、姿勢評価装置。
 (付記2)
 前記画像から前記位置情報を抽出する骨格抽出手段を備える、
 付記1に記載の姿勢評価装置。
 (付記3)
 前記身体の姿勢の種類と、前記姿勢の種類における前記特徴量の基準値とを対応付けて記憶する記憶手段を備え、
 前記状態推定手段は、前記姿勢の種類と、前記特徴量算出手段によって算出された前記特徴量と、前記基準値とに基づいて、少なくとも脊柱の状態を推定する、
 付記1又は2に記載の姿勢評価装置。
 (付記4)
 前記位置情報に基づいて前記姿勢の種類を判断する姿勢判断手段を備える、
 付記3に記載の姿勢評価装置。
 (付記5)
 前記画像と、前記状態推定手段によって推定された前記状態とを表示する表示手段を備える、
 付記1~4の何れか1つに記載の姿勢評価装置。
 (付記6)
 前記表示手段は、前記状態を、前記脊柱エッジ点群を色分けして表示する、
 付記5に記載の姿勢評価装置。
 (付記7)
 前記表示手段は、前記脊柱抽出手段によって前記脊柱エッジ点群が抽出された場合に、前記画像とともに、前記脊柱エッジ点群をユーザによる修正が可能なように表示する、
 付記5又は6に記載の姿勢評価装置。
 (付記8)
 前記身体の側面を撮像する第1撮像手段と、前記第1撮像手段と同時に前記身体の他の面を撮像する第2撮像手段と、を備え、
 前記表示手段は、前記第1撮像手段によって撮像された前記身体の側面の画像とともに前記第2撮像手段によって撮像された前記身体の他の面の画像を表示する、
 付記5~7の何れか1つに記載の姿勢評価装置。
 (付記9)
 姿勢評価装置と、前記姿勢評価装置と通信可能な対象者端末とを備え、
 前記姿勢評価装置は、
 前記対象者端末によって取得された対象者の身体の側面の画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する脊柱抽出手段と、
 前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する特徴量算出手段と、
 前記特徴量に基づいて、少なくとも脊柱の状態を推定する状態推定手段と、
 を備える、姿勢評価システム。
 (付記10)
 前記姿勢評価装置は、
 前記画像から前記位置情報を抽出する骨格抽出手段を備える、
 付記9に記載の姿勢評価システム。
 (付記11)
 前記姿勢評価装置は、
 前記身体の姿勢の種類と、前記姿勢の種類における前記特徴量の基準値とを対応付けて記憶する記憶手段を備え、
 前記状態推定手段は、前記姿勢の種類と、前記特徴量算出手段によって算出された前記特徴量と、前記基準値とに基づいて、少なくとも脊柱の状態を推定する、
 付記9又は10に記載の姿勢評価システム。
 (付記12)
 前記姿勢評価装置は、
 前記位置情報に基づいて前記姿勢の種類を判断する姿勢判断手段を備える、
 付記11に記載の姿勢評価システム。
 (付記13)
 前記姿勢評価装置は、
 前記画像と、前記状態推定手段によって推定された前記状態とを表示する表示手段を備える、
 付記9~12の何れか1つに記載の姿勢評価システム。
 (付記14)
 前記表示手段は、前記状態を、前記脊柱エッジ点群を色分けして表示する、
 付記13に記載の姿勢評価システム。
 (付記15)
 前記表示手段は、前記脊柱抽出手段によって前記脊柱エッジ点群が抽出された場合に、前記画像とともに、前記脊柱エッジ点群をユーザによる修正が可能なように表示する、
 付記13又は14に記載の姿勢評価システム。
 (付記16)
 前記姿勢評価装置は、
 前記身体の側面を撮像する第1撮像手段と、前記第1撮像手段と同時に前記身体の他の面を撮像する第2撮像手段と、を備え、
 前記表示手段は、前記第1撮像手段によって撮像された前記身体の側面の画像とともに前記第2撮像手段によって撮像された前記身体の他の面の画像を表示する、
 付記13~15の何れか1つに記載の姿勢評価システム。
 (付記17)
 姿勢評価装置が、
 対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出し、
 前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出し、
 前記特徴量に基づいて、少なくとも脊柱の状態を推定する、
 姿勢評価方法。
 (付記18)
 前記姿勢評価装置が、
 前記画像から前記位置情報を抽出する、
 付記17に記載の姿勢評価方法。
 (付記19)
 前記姿勢評価装置が、
 前記身体の姿勢の種類と、前記姿勢の種類における前記特徴量の基準値とを対応付けて記憶し、
 前記姿勢の種類と前記特徴量と前記基準値とに基づいて、少なくとも脊柱の状態を推定する、
 付記17又は18に記載の姿勢評価方法。
 (付記20)
 前記姿勢評価装置が、
 前記位置情報に基づいて前記姿勢の種類を判断する、
 付記19に記載の姿勢評価方法。
 (付記21)
 前記姿勢評価装置が、
 前記画像と前記状態とを表示する、
 付記17~20の何れか1つに記載の姿勢評価方法。
 (付記22)
 前記姿勢評価装置が、
 前記状態を、前記脊柱エッジ点群を色分けして表示する、
 付記17~21の何れか1つに記載の姿勢評価方法。
 (付記23)
 前記姿勢評価装置が、
 前記脊柱エッジ点群を抽出した場合に、前記画像とともに、前記脊柱エッジ点群をユーザによる修正が可能なように表示する、
 付記17~22の何れか1つに記載の姿勢評価方法。
 (付記24)
 前記姿勢評価装置が、
 前記身体の側面を撮像すると同時に前記身体の他の面を撮像し、
 撮像した前記身体の側面の画像とともに撮像した前記身体の他の面の画像を表示する、
 付記17~23の何れか1つに記載の姿勢評価方法。
 (付記25)
 姿勢評価装置に、
 対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する処理と、
 前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する処理と、
 前記特徴量に基づいて、少なくとも脊柱の状態を推定する処理と、
 を実行させるプログラムを格納する非一時的なコンピュータ可読媒体。
 (付記26)
 前記姿勢評価装置に、
 前記画像から前記位置情報を抽出する処理
 を実行させるプログラムを格納する、付記25に記載の非一時的なコンピュータ可読媒体。
 (付記27)
 前記姿勢評価装置に、
 前記身体の姿勢の種類と、前記姿勢の種類における前記特徴量の基準値とを対応付けて記憶する処理と、
 前記姿勢の種類と前記特徴量と前記基準値とに基づいて、少なくとも脊柱の状態を推定する処理と、
 を実行させるプログラムを格納する、付記25又は26に記載の非一時的なコンピュータ可読媒体。
 (付記28)
 前記姿勢評価装置に、
 前記位置情報に基づいて前記姿勢の種類を判断する処理、
 を実行させるプログラムを格納する、付記27に記載の非一時的なコンピュータ可読媒体。
 (付記29)
 前記姿勢評価装置に、
 前記画像と前記状態とを表示する処理、
 を実行させるプログラムを格納する、付記25~28の何れか1つに記載の非一時的なコンピュータ可読媒体。
 (付記30)
 前記姿勢評価装置に、
 前記状態を、前記脊柱エッジ点群を色分けして表示する処理、
 を実行させるプログラムを格納する、付記25~29の何れか1つに記載の非一時的なコンピュータ可読媒体。
 (付記31)
 前記姿勢評価装置に、
 前記脊柱エッジ点群を抽出した場合に、前記画像とともに、前記脊柱エッジ点群をユーザによる修正が可能なように表示する処理、
 を実行させるプログラムを格納する、付記25~30の何れか1つに記載の非一時的なコンピュータ可読媒体。
 (付記32)
 前記姿勢評価装置に、
 前記身体の側面を撮像すると同時に前記身体の他の面を撮像する処理と、
 撮像した前記身体の側面の画像とともに撮像した前記身体の他の面の画像を表示する処理と、
 を実行させるプログラムを格納する、付記25~31の何れか1つに記載の非一時的なコンピュータ可読媒体。
 この出願は、2022年3月31日に出願された日本出願特願2022-058198を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 比較的安価に高い精度で姿勢を評価することができる姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体を提供することができる。
100、100A、100B、100C 姿勢評価装置
101 撮像部(撮像手段)
101A 第1撮像部(第1撮像手段)
101B 第2撮像部(第2撮像手段)
102 骨格抽出部(骨格抽出手段)
103 脊柱抽出部(脊柱抽出手段)
104 姿勢判断部(姿勢判断手段)
105 特徴量算出部(特徴量算出手段)
106 状態推定部(状態推定手段)
107、107A 画像生成部
108、108A 表示部(表示手段)
109 入力部
110 記憶部(記憶手段)
111 通信部
112 基準値リスト
113 骨格DB(骨格データベース)
114 骨格抽出モデル
200 姿勢評価システム
300 対象者端末

Claims (32)

  1.  対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する脊柱抽出手段と、
     前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する特徴量算出手段と、
     前記特徴量に基づいて、少なくとも脊柱の状態を推定する状態推定手段と、
     を備える、姿勢評価装置。
  2.  前記画像から前記位置情報を抽出する骨格抽出手段を備える、
     請求項1に記載の姿勢評価装置。
  3.  前記身体の姿勢の種類と、前記姿勢の種類における前記特徴量の基準値とを対応付けて記憶する記憶手段を備え、
     前記状態推定手段は、前記姿勢の種類と、前記特徴量算出手段によって算出された前記特徴量と、前記基準値とに基づいて、少なくとも脊柱の状態を推定する、
     請求項1又は2に記載の姿勢評価装置。
  4.  前記位置情報に基づいて前記姿勢の種類を判断する姿勢判断手段を備える、
     請求項3に記載の姿勢評価装置。
  5.  前記画像と、前記状態推定手段によって推定された前記状態とを表示する表示手段を備える、
     請求項1~4の何れか一項に記載の姿勢評価装置。
  6.  前記表示手段は、前記状態を、前記脊柱エッジ点群を色分けして表示する、
     請求項5に記載の姿勢評価装置。
  7.  前記表示手段は、前記脊柱抽出手段によって前記脊柱エッジ点群が抽出された場合に、前記画像とともに、前記脊柱エッジ点群をユーザによる修正が可能なように表示する、
     請求項5又は6に記載の姿勢評価装置。
  8.  前記身体の側面を撮像する第1撮像手段と、前記第1撮像手段と同時に前記身体の他の面を撮像する第2撮像手段と、を備え、
     前記表示手段は、前記第1撮像手段によって撮像された前記身体の側面の画像とともに前記第2撮像手段によって撮像された前記身体の他の面の画像を表示する、
     請求項5~7の何れか一項に記載の姿勢評価装置。
  9.  姿勢評価装置と、前記姿勢評価装置と通信可能な対象者端末とを備え、
     前記姿勢評価装置は、
     前記対象者端末によって取得された対象者の身体の側面の画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する脊柱抽出手段と、
     前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する特徴量算出手段と、
     前記特徴量に基づいて、少なくとも脊柱の状態を推定する状態推定手段と、
     を備える、姿勢評価システム。
  10.  前記姿勢評価装置は、
     前記画像から前記位置情報を抽出する骨格抽出手段を備える、
     請求項9に記載の姿勢評価システム。
  11.  前記姿勢評価装置は、
     前記身体の姿勢の種類と、前記姿勢の種類における前記特徴量の基準値とを対応付けて記憶する記憶手段を備え、
     前記状態推定手段は、前記姿勢の種類と、前記特徴量算出手段によって算出された前記特徴量と、前記基準値とに基づいて、少なくとも脊柱の状態を推定する、
     請求項9又は10に記載の姿勢評価システム。
  12.  前記姿勢評価装置は、
     前記位置情報に基づいて前記姿勢の種類を判断する姿勢判断手段を備える、
     請求項11に記載の姿勢評価システム。
  13.  前記姿勢評価装置は、
     前記画像と、前記状態推定手段によって推定された前記状態とを表示する表示手段を備える、
     請求項9~12の何れか一項に記載の姿勢評価システム。
  14.  前記表示手段は、前記状態を、前記脊柱エッジ点群を色分けして表示する、
     請求項13に記載の姿勢評価システム。
  15.  前記表示手段は、前記脊柱抽出手段によって前記脊柱エッジ点群が抽出された場合に、前記画像とともに、前記脊柱エッジ点群をユーザによる修正が可能なように表示する、
     請求項13又は14に記載の姿勢評価システム。
  16.  前記姿勢評価装置は、
     前記身体の側面を撮像する第1撮像手段と、前記第1撮像手段と同時に前記身体の他の面を撮像する第2撮像手段と、を備え、
     前記表示手段は、前記第1撮像手段によって撮像された前記身体の側面の画像とともに前記第2撮像手段によって撮像された前記身体の他の面の画像を表示する、
     請求項13~15の何れか一項に記載の姿勢評価システム。
  17.  姿勢評価装置が、
     対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出し、
     前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出し、
     前記特徴量に基づいて、少なくとも脊柱の状態を推定する、
     姿勢評価方法。
  18.  前記姿勢評価装置が、
     前記画像から前記位置情報を抽出する、
     請求項17に記載の姿勢評価方法。
  19.  前記姿勢評価装置が、
     前記身体の姿勢の種類と、前記姿勢の種類における前記特徴量の基準値とを対応付けて記憶し、
     前記姿勢の種類と前記特徴量と前記基準値とに基づいて、少なくとも脊柱の状態を推定する、
     請求項17又は18に記載の姿勢評価方法。
  20.  前記姿勢評価装置が、
     前記位置情報に基づいて前記姿勢の種類を判断する、
     請求項19に記載の姿勢評価方法。
  21.  前記姿勢評価装置が、
     前記画像と前記状態とを表示する、
     請求項17~20の何れか一項に記載の姿勢評価方法。
  22.  前記姿勢評価装置が、
     前記状態を、前記脊柱エッジ点群を色分けして表示する、
     請求項17~21の何れか一項に記載の姿勢評価方法。
  23.  前記姿勢評価装置が、
     前記脊柱エッジ点群を抽出した場合に、前記画像とともに、前記脊柱エッジ点群をユーザによる修正が可能なように表示する、
     請求項17~22の何れか一項に記載の姿勢評価方法。
  24.  前記姿勢評価装置が、
     前記身体の側面を撮像すると同時に前記身体の他の面を撮像し、
     撮像した前記身体の側面の画像とともに撮像した前記身体の他の面の画像を表示する、
     請求項17~23の何れか一項に記載の姿勢評価方法。
  25.  姿勢評価装置に、
     対象者の身体の側面を撮像して得られた画像と、前記画像上の前記身体の少なくとも頸椎、股関節、膝関節の位置情報とに基づいて、前記画像上における脊柱形状を表す所定の数の点からなる脊柱エッジ点群を抽出する処理と、
     前記位置情報と前記脊柱エッジ点群とに基づいて、少なくとも脊柱に関する特徴量を算出する処理と、
     前記特徴量に基づいて、少なくとも脊柱の状態を推定する処理と、
     を実行させるプログラムを格納する非一時的なコンピュータ可読媒体。
  26.  前記姿勢評価装置に、
     前記画像から前記位置情報を抽出する処理
     を実行させるプログラムを格納する、請求項25に記載の非一時的なコンピュータ可読媒体。
  27.  前記姿勢評価装置に、
     前記身体の姿勢の種類と、前記姿勢の種類における前記特徴量の基準値とを対応付けて記憶する処理と、
     前記姿勢の種類と前記特徴量と前記基準値とに基づいて、少なくとも脊柱の状態を推定する処理と、
     を実行させるプログラムを格納する、請求項25又は26に記載の非一時的なコンピュータ可読媒体。
  28.  前記姿勢評価装置に、
     前記位置情報に基づいて前記姿勢の種類を判断する処理、
     を実行させるプログラムを格納する、請求項27に記載の非一時的なコンピュータ可読媒体。
  29.  前記姿勢評価装置に、
     前記画像と前記状態とを表示する処理、
     を実行させるプログラムを格納する、請求項25~28の何れか一項に記載の非一時的なコンピュータ可読媒体。
  30.  前記姿勢評価装置に、
     前記状態を、前記脊柱エッジ点群を色分けして表示する処理、
     を実行させるプログラムを格納する、請求項25~29の何れか一項に記載の非一時的なコンピュータ可読媒体。
  31.  前記姿勢評価装置に、
     前記脊柱エッジ点群を抽出した場合に、前記画像とともに、前記脊柱エッジ点群をユーザによる修正が可能なように表示する処理、
     を実行させるプログラムを格納する、請求項25~30の何れか一項に記載の非一時的なコンピュータ可読媒体。
  32.  前記姿勢評価装置に、
     前記身体の側面を撮像すると同時に前記身体の他の面を撮像する処理と、
     撮像した前記身体の側面の画像とともに撮像した前記身体の他の面の画像を表示する処理と、
     を実行させるプログラムを格納する、請求項25~31の何れか一項に記載の非一時的なコンピュータ可読媒体。
PCT/JP2023/003302 2022-03-31 2023-02-02 姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体 WO2023188796A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022058198 2022-03-31
JP2022-058198 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023188796A1 true WO2023188796A1 (ja) 2023-10-05

Family

ID=88200843

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/003302 WO2023188796A1 (ja) 2022-03-31 2023-02-02 姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023188796A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008771A1 (ja) * 2017-07-07 2019-01-10 りか 高木 治療及び/又は運動の指導プロセス管理システム、治療及び/又は運動の指導プロセス管理のためのプログラム、コンピュータ装置、並びに方法
JP2020074876A (ja) * 2018-11-07 2020-05-21 株式会社スペースビジョン 脊椎骨姿勢推定装置
CN111814772A (zh) * 2020-09-07 2020-10-23 科大讯飞(苏州)科技有限公司 人体姿态评估方法、装置、电子设备和存储介质
JP2020190786A (ja) * 2019-05-17 2020-11-26 ネットパイロティング株式会社 運動器機能向上支援装置、運動器機能向上支援システム及び運動器機能向上の支援方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008771A1 (ja) * 2017-07-07 2019-01-10 りか 高木 治療及び/又は運動の指導プロセス管理システム、治療及び/又は運動の指導プロセス管理のためのプログラム、コンピュータ装置、並びに方法
JP2020074876A (ja) * 2018-11-07 2020-05-21 株式会社スペースビジョン 脊椎骨姿勢推定装置
JP2020190786A (ja) * 2019-05-17 2020-11-26 ネットパイロティング株式会社 運動器機能向上支援装置、運動器機能向上支援システム及び運動器機能向上の支援方法
CN111814772A (zh) * 2020-09-07 2020-10-23 科大讯飞(苏州)科技有限公司 人体姿态评估方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
US11468612B2 (en) Controlling display of a model based on captured images and determined information
US20230310082A1 (en) Systems And Methods For Modeling Spines And Treating Spines Based On Spine Models
US9838670B2 (en) Method and system for three-dimensional imaging
JP2005224452A (ja) 姿勢診断設備及びそのプログラム
CN111881705A (zh) 数据处理、训练、识别方法、装置和存储介质
JP7015152B2 (ja) キーポイントデータに関する加工装置、方法及びプログラム
US20080031512A1 (en) Markerless motion capture system
KR102165429B1 (ko) 체형 분석 방법 및 장치
JP6741305B2 (ja) 脊椎骨姿勢推定装置
US20150130841A1 (en) Methods and computing devices to measure musculoskeletal movement deficiencies
CN112102947A (zh) 用于身体姿态评估的装置和方法
JP2019175321A (ja) 画像評価装置、画像評価方法及びコンピュータプログラム
De Rosario et al. Correction of joint angles from Kinect for balance exercising and assessment
KR102310964B1 (ko) 근골격계 증상을 진단하기 위한 전자 장치, 방법, 및 시스템
WO2023188796A1 (ja) 姿勢評価装置、姿勢評価システム、姿勢評価方法、及び非一時的なコンピュータ可読媒体
CN115205967A (zh) 一种基于人体识别的运动动作判定方法
JP6684336B1 (ja) データ補正装置およびプログラム
JP6940139B2 (ja) 身体特性分析装置、身体特性分析方法、及びプログラム
JP2024501161A (ja) 画像または映像におけるオブジェクトの3次元場所特定
JP2020086823A (ja) 動作評価装置、方法、及びプログラム
CN111462337A (zh) 一种图像处理方法、设备及计算机可读存储介质
WO2023062762A1 (ja) 推定プログラム、推定方法および情報処理装置
WO2023162223A1 (ja) 学習プログラム、生成プログラム、学習方法および生成方法
WO2024111429A1 (ja) 姿勢評価装置、姿勢評価システム、姿勢評価方法、及びプログラム
KR102626551B1 (ko) 체형분석장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23778832

Country of ref document: EP

Kind code of ref document: A1