JP7468684B2 - 姿勢検出装置、姿勢検出方法および寝相判定方法 - Google Patents

姿勢検出装置、姿勢検出方法および寝相判定方法 Download PDF

Info

Publication number
JP7468684B2
JP7468684B2 JP2022555270A JP2022555270A JP7468684B2 JP 7468684 B2 JP7468684 B2 JP 7468684B2 JP 2022555270 A JP2022555270 A JP 2022555270A JP 2022555270 A JP2022555270 A JP 2022555270A JP 7468684 B2 JP7468684 B2 JP 7468684B2
Authority
JP
Japan
Prior art keywords
frame image
group
detection
degree
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022555270A
Other languages
English (en)
Other versions
JPWO2022074886A1 (ja
Inventor
康紀 吉田
香保利 木瀬
耕一 村田
宣弥 橋爪
雅史 古田
志麻 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Publication of JPWO2022074886A1 publication Critical patent/JPWO2022074886A1/ja
Application granted granted Critical
Publication of JP7468684B2 publication Critical patent/JP7468684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本発明は、姿勢検出装置、姿勢検出方法および寝相判定方法に関する。
近年、機械学習による姿勢検出(「姿勢推定」とも称する)技術が急速に発展している。機械学習による姿勢検出技術とは、1枚の画像中に含まれる人物を検出し、人体における複数部位の位置情報を検出し、さらに、それら部位を繋ぐ線を求めて元の画像に重ね合わせて表示する技術である。人体の各部位は、たとえば、膝、肘、手首、足首である。この技術を採用すれば、従来のモーションキャプチャのように人体にマーカーを装着する必要がない。このような技術の一つとして、OpenPoseというアルゴリズムを用いた技術がある(非特許文献1)。OpenPoseを用いた場合、一般的な単眼カメラで撮影された動画に対してリアルタイムで姿勢検出をすることが可能になる。この技術をきっかけとして、機械学習による姿勢検出技術は注目され始めた。機械学習による姿勢検出技術は、スポーツ、医療、セキュリティ分野など様々な分野で応用されつつある。
Zhe Cao et al(2017)., OpenPose:Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields, CVPR
しかしながら、機械学習による姿勢検出技術では入力画像に含まれる人体における複数部位の位置情報を誤って検出する場合がある。OpenPoseを含む機械学習による姿勢検出技術の多くは、動画のフレーム画像ごとに位置情報を検出するため、フレーム画像間の関係は考慮されない。このため、フレーム画像間で人体が動いていないにも関わらず、フレーム画像間で人体における複数部位の位置情報の検出結果が異なることがあるために、人体の動きとして検出される場合がある。また、同じ原因で、フレーム画像間で人体が動いている場合においても、実際には生じ得ない事態の動きを含む位置情報が検出される場合がある。このように、人体における複数部位の位置情報の誤検出により、フレーム画像間で動きがある場合においても動きがない場合においても、実際には生じていない人体の動作が検出される場合がある。
本開示は、かかる問題を解決するためになされたものであり、本開示の目的は、人体における複数部位の位置情報の誤検出を特定することができる技術を提供することである。
本開示のある局面に従う姿勢検出装置は、取得部と、位置検出部と、判定部とを備える。取得部は、フレーム画像を時系列順に取得する。位置検出部は、フレーム画像から得られる情報を学習済モデルに入力することで、学習済モデルから人体における複数部位の位置情報を出力する。判定部は、位置検出部の誤検出に関する情報を出力する。位置検出部は、取得部が取得した第1フレーム画像を入力としたときに第1位置群を出力し、取得部が取得した、第1フレーム画像とは異なる第2フレーム画像を入力としたときに第2位置群を出力する。判定部は、第1位置群と第2位置群との相違度、および、第1フレーム画像と第2フレーム画像との一致度に基づいて、位置検出部の誤検出に関する情報を出力する。
本開示の別の局面に従う姿勢検出方法は、フレーム画像を時系列順に取得するステップと、フレーム画像から得られる情報を学習済モデルに入力することで、学習済モデルから人体における複数部位の位置情報を出力するステップと、出力された複数部位の位置情報につき誤検出に関する情報を出力するステップとを含む。複数部位の位置情報を出力するステップは、取得した第1フレーム画像を入力としたときに第1位置群を出力するステップと、取得した、第1フレーム画像とは異なる第2フレーム画像を入力としたときに第2位置群を出力するステップとを含む。誤検出に関する情報を出力するステップは、第1位置群と第2位置群との相違度、および、第1フレーム画像と第2フレーム画像との一致度に基づいて、誤検出に関する情報を出力する。
本開示の別の局面に従う寝相判定方法は、姿勢検出方法と、出力された複数部位の位置情報および出力された誤検出に関する情報に基づいて、寝相情報を出力するステップとを含む。
本開示によれば、人体における複数部位の位置情報の誤検出を特定することができる。これにより、誤検出した位置情報を取り除くことができるため、実際には生じていない人体の動作が検出されることを防止することができる。
本実施の形態に係る姿勢検出装置のハードウェア構成の一例を示す概略図である。 姿勢検出装置の機能構成の一例を示すブロック図である。 検出処理の一例を示すフローチャートである。 第1群設定処理の一例を示すフローチャートである。 第2群設定処理の一例を示すフローチャートである。 第3群設定処理の一例を示すフローチャートである。 誤り除外処理の一例を示すフローチャートである。 検出処理の入出力データの一例を示す図である。 検出結果の表示例を示す図である。 検出結果の表示例を示す図である。 検出結果の表示例を示す図である。 検出結果の表示例を示す図である。 検出結果の表示例を示す図である。 検出結果の表示例を示す図である。 本実施の形態の変形例に係る誤り除外処理の一例を示すフローチャートである。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付してその説明は繰り返さない。
[姿勢検出装置のハードウェア構成]
図1は、本実施の形態に係る姿勢検出装置のハードウェア構成の一例を示す概略図である。図1に示すように、本実施の形態に係る姿勢検出装置100は、ハードディスク101と、CPU(Central Processing Unit)102と、メモリ103と、ディスプレイインターフェース104と、周辺機器インターフェース105と、カメラインターフェース106とを含む。これらは、バスを介して相互に通信可能に接続されている。姿勢検出装置100は、パーソナルコンピュータまたはワークステーションを含む。
ハードディスク101は、不揮発性の記憶装置である。ハードディスク101には、たとえば、OS(operating system)111と、位置検出用学習済モデル112と、誤り除外プログラム113と、寝相検出プログラム114とが保存されている。図に示されるデータ以外にも、ハードディスク101には、各種処理を行うプログラムやデータが保存されている。
CPU102は、ハードディスク101に保存されているプログラムをメモリ103に読み込んで実行し、姿勢検出装置100の各種機能を実現する。メモリ103は、揮発性の記憶装置であり、たとえばDRAM(Dynamic Random Access Memory)を含む。
位置検出用学習済モデル112は、フレーム画像から得られる情報を学習済モデルに入力することで、学習済モデルから人体における複数部位の位置情報を検出結果(以下、「位置検出結果」とも称する)として出力するニューラルネットワークモデルである。その際、フレーム画像から得られる各画素値を入力するようにしてもよいし、フレーム画像から抽出した特徴量を入力するようにしてもよい。位置検出用学習済モデル112として、たとえば、CMU(Carnegie Mellon University)が開発したOpenPoseや、Microsoft社が開発したHuman-pose-estimationや***社が開発したposeNetなどを用いてもよい。
誤り除外プログラム113は、出力された位置検出結果が誤りであると判定された場合に、誤りであると判定した位置検出結果を除外して補正を行うために用いられるプログラムである。本実施の形態では、人体における複数部位の位置情報の検出を「姿勢検出」と称する。位置情報は、たとえば、肩、肘、手首などの位置を特定可能な座標である。位置情報は、複数領域の位置を特定可能な座標から計算される、別領域の位置を特定可能な座標であってもよい。たとえば、眼、鼻および口の位置を特定可能な座標から計算される、頬領域の位置を特定可能な座標であってもよい。また、位置情報は2次元に限られず、3次元の位置情報であってもよい。3次元の位置情報は、2次元位置情報から推定してもよいし、ステレオカメラやTOFカメラで計測してもよい。
寝相検出プログラム114は、位置検出結果を入力とし、寝相情報を検出結果(以下、「寝相検出結果」、「寝相判定結果」とも称する)として出力するために用いられるプログラムである。寝相情報は、たとえば、仰向け、うつ伏せ、右向き、左向きなどである。位置検出結果として検出された人体における複数部位の位置情報と、寝相情報とは相関関係がある。寝相検出プログラム114は、位置検出結果を入力とし、寝相情報を出力とする対応関係を予め規定したモデルに基づき推定を行うプログラムである。なお、これに限らず、機械学習による学習済モデルを用いて寝相情報を出力するようにしてもよい。
CPU102は、ディスプレイインターフェース104を介してディスプレイ121に接続する。CPU102は、周辺機器インターフェース105を介してマウス122とキーボード123とに接続する。CPU102は、カメラインターフェース106を介してカメラ124に接続する。
ディスプレイインターフェース104は、ディスプレイ121を接続するためのインターフェースであり、姿勢検出装置100とディスプレイ121との間のデータの入出力を実現する。ディスプレイ121は、たとえば、LCD(Liquid Crystal Display)または有機EL(Electroluminescence)ディスプレイなどで構成される。ディスプレイ121には、カメラ124によって撮影された動画や、位置検出用学習済モデル112や寝相検出プログラム114によって出力された結果が表示される。
周辺機器インターフェース105は、マウス122およびキーボード123などの周辺機器を接続するためのインターフェースであり、姿勢検出装置100と周辺機器との間のデータの入出力を実現する。
カメラインターフェース106は、カメラ124を接続するためのインターフェースであり、姿勢検出装置100とカメラ124との間のデータの入出力を実現する。
なお、CPU102は、通信インターフェースを介してLAN(Local Area Network)等のネットワークに接続可能な構成としてもよい。この場合、CPU102は、ネットワークを経由して、カメラ124やディスプレイ121に接続するようにしてもよい。
[姿勢検出装置のハードウェア構成]
図2は、姿勢検出装置の機能構成の一例を示すブロック図である。図2に示すように、姿勢検出装置100は、検出処理に係る機能部として、姿勢検出装置100は、取得部131と、位置検出部132と、判定部133と、寝相検出部134とを備える。これらの各機能は、姿勢検出装置100のCPU102がOS111および各種プログラムを実行することで実現される。
取得部131は、フレーム画像を時系列順に取得する。たとえば、フレーム画像は、寝ている人を撮影した動画に含まれる画像である。具体的には、カメラ124によって寝ている人が撮影され、取得部131は、カメラインターフェース106を介して、撮影された動画に含まれるフレーム画像を時系列順に取得する。なお、動画は、寝ている人を撮影したものに限られない。起きている人であってもよいし、人でなくてもよい。
位置検出部132は、フレーム画像から得られる情報を学習済モデル(位置検出用学習済モデル112)に入力することで、学習済モデルから人体における複数部位の位置情報を位置検出結果として出力する。ここで、人体における複数部位の位置情報を「位置群」とも称する。また、「位置群」は、単に「位置」とも称する。
位置検出部132は、取得部131が取得したフレーム画像を入力としたときに位置検出結果として位置群を出力する。たとえば、位置検出部132は、取得部131が取得した第1フレーム画像を入力としたときに第1位置群を出力し、取得部131が取得した第2フレーム画像を入力としたときに第2位置群を出力する。判定部133は、位置検出部の誤検出に関する情報(「誤検出情報」とも称する)を出力する。
さらに、判定部133は、誤り除外プログラム113を用いて、出力された位置検出結果が誤りであると判定された場合に、誤りであると判定した位置検出結果を除外して補正を行う。以下、判定部133が出力する位置群を、位置群(補正)とも称する。
寝相検出部134は、寝相検出プログラム114を用いて、位置検出結果に基づき、寝相情報を出力する。
取得部131が取得したフレーム画像は、ディスプレイインターフェースに対して送信する。また、判定部133から出力される位置群(補正)を特定可能な画像や、第1フレーム画像と第2フレーム画像との差分画像や、誤検出情報を特定可能な画像や、寝相検出部134が出力した寝相情報を特定可能な画像はディスプレイインターフェースに送信される。ディスプレイ121は、これらの画像を表示可能である。
なお、姿勢検出装置100が位置検出部132を備えるものに限らず、外部機器が位置検出部132を備える構成であってもよく、その他の一部の機能を外部機器が備える構成であてもよい。外部機器は、ネットワークを経由して接続可能にしてもよい。また、姿勢検出装置100は、寝相検出部134を備えないものであってもよい。寝相検出部134を備えるものを寝相判定装置と称し、寝相検出部134を備えないものを姿勢検出装置と称してもよい。
[検出処理のフローチャート]
図3は、検出処理の一例を示すフローチャートである。図3に示すように、CPU102は、検出処理を実行する。
検出処理は、動画における各フレーム画像が生成されたタイミングにおいて、起動する処理である。以下、今回の検出処理において取得部131が取得したフレーム画像を「今回取得したフレーム画像」または「第2フレーム画像」とも称する。前回の検出処理において取得部131が取得したフレーム画像を「前回取得したフレーム画像」または「第1フレーム画像」とも称する。今回の検出処理において、位置検出部132が出力した位置群を「第2位置群」とも称し、位置検出部132が出力した位置検出結果を「今回の位置検出結果」とも称する。前回の検出処理において、位置検出部132が出力した位置群を「第1位置群」とも称し、位置検出部132が出力した位置検出結果を「前回の位置検出結果」とも称する。
なお、取得部131は、フレームごとにフレーム画像を取得する必要はなく、数フレーム毎に取得しするようにしてもよいし、予め規定された時間ごとにフレーム画像を取得するようにしてもよい。また、カメラ124で撮影された動画に含まれるフレーム画像をリアルタイムで取得する必要はなく、ハードディスク101に保存された動画を用いて検出処理を行うようにしてもよい。
検出処理は、取得部131と、位置検出部132と、判定部133と、寝相検出部134とが実行する一連の処理である。検出処理は、フレーム画像取得処理と、位置検出処理と、第1群設定処理と、第2群設定処理と、第3群設定処理と、誤り除外処理と、寝相検出処理とを含む。なお、検出処理は寝相検出処理を実行しないものであってもよい。
フレーム画像取得処理は、取得部131が実行する処理である。位置検出処理は、位置検出用学習済モデル112を用いて位置検出部132が実行する処理である。
判定部133は、位置検出部132の誤検出に関する情報を出力する。第1群設定処理と第2群設定処理と第3群設定処理とは、判定部133が実行する処理である。また、判定部133は、誤り除外プログラム113を用いて誤り除外処理を実行する。寝相検出処理は、寝相検出プログラム114を用いて寝相検出部134が実行する処理である。以下では、ステップを単にSと記載する。
検出処理を開始すると、CPU102は、S11においてフレーム画像取得処理を実行し、処理をS12に進める。フレーム画像取得処理において、取得部131は、フレーム画像を時系列順に取得する。フレーム画像は、たとえば、寝ている人を撮影した動画に含まれる画像である。
CPU102は、S12において位置検出処理を実行し、処理をS13に進める。位置検出処理において、位置検出部132は、フレーム画像から得られる情報を学習済モデル(位置検出用学習済モデル112)に入力することで、学習済モデルから人体における複数部位の位置情報を位置検出結果として出力する。
CPU102は、S13において第1群設定処理(図4)を実行し、処理をS14に進める。第1群設定処理において、判定部133は、取得したフレーム画像に基づく条件が成立した場合に、今回取得したフレーム画像を第1群として設定する。
CPU102は、S14において第2群設定処理(図5)を実行し、処理をS15に進める。第1群設定処理において、判定部133は、位置検出結果に基づく条件が成立した場合に、今回取得したフレーム画像を第2群として設定する。
CPU102は、S15において第3群設定処理(図6)を実行し、処理をS16に進める。第1群設定処理において、判定部133は、第1群や第2群の設定に基づく条件が成立した場合に、今回取得したフレーム画像を第3群として設定する。
CPU102は、S16において誤り除外処理(図7)を実行し、処理をS17に進める。誤り除外処理において、判定部133は、今回取得したフレーム画像を第3群として設定した場合に、位置検出結果を補正する。
CPU102は、S17において寝相検出処理を実行し、検出処理を終了する。寝相検出部134は、位置検出結果を入力とし、寝相検出プログラム114により寝相判定を行い、寝相情報(寝相検出結果)を出力する。
以下、図4~図6を用いて、第1群~第3群設定処理について説明する。ここで実行される処理の概要は、次の通りである。位置検出部132は、取得部131が取得した第1フレーム画像を入力としたときに第1位置群を出力する。また、位置検出部132は、取得部131が取得した、第1フレーム画像とは異なる第2フレーム画像を入力としたときに第2位置群を出力する。ここでは、第2フレーム画像は、第1フレーム画像の後に取得された画像である。なお、第1フレーム画像は、第2フレーム画像の後に取得された画像であってもよい。
判定部133は、第1位置群と第2位置群との相違度、および、第1フレーム画像と第2フレーム画像との一致度に基づいて、位置検出部132の誤検出に関する情報を出力する。本実施の形態では、判定部133は、第1位置群と第2位置群との相違度に基づいて第1位置群と第2位置群とが相違すると判断し、かつ、第1フレーム画像と第2フレーム画像との一致度に基づいて第1フレーム画像と第2フレーム画像とが一致すると判断したとき、位置検出部132の誤検出に関する情報として、位置検出部132が第2位置群を誤検出したことを特定可能な情報を出力する。さらに、判定部133は、誤検出した第2位置群を位置検出部132の出力結果から除外する。以下、フローチャートを用いて説明する。
図4は、第1群設定処理の一例を示すフローチャートである。姿勢検出装置100は、第1算出部と第2算出部とを備える。第1算出部は、第1位置群と第2位置群との相違度を算出する。第2算出部は、第1フレーム画像と第2フレーム画像との一致度を算出する。たとえば、第1フレーム画像と第2フレーム画像との一致度は、次のように算出してもよい。第1フレーム画像と第2フレーム画像との間で各ピクセルの差分を取る。差分が生じたピクセル数をカウントしたものを相違度として算出し、差分が生じなかったピクセル数をカウントしたものを一致度として算出する。なお、全体のピクセル数に対する差分が生じたピクセル数の比率を相違度として算出し、全体のピクセル数に対する差分が生じなかったピクセル数の比率を一致度として算出してもよい。
判定部133は、第1フレーム画像と第2フレーム画像との相違度に基づいて、第2フレーム画像を第1群の第2フレーム画像として分類する。具体的には、第1群設定処理を開始すると、S21において、第2算出部は、前回取得したフレーム画像(第1フレーム画像)と今回取得したフレーム画像(第2フレーム画像)との一致度を算出し、処理をS22に進める。また、その際、第1フレーム画像と第2フレーム画像との差分に基づき、第1フレーム画像と第2フレーム画像との差分を特定可能な差分画像を生成する。
S22において、判定部133は、第1フレーム画像と第2フレーム画像との相違度が予め定めた基準を超えるとき(S22でYES)は、処理をS23に進める。なお、第1フレーム画像と第2フレーム画像との一致度が予め定めた基準以下であるときに、処理をS23に進めるようにしてもよい。
判定部133は、S22において、第1フレーム画像と第2フレーム画像との相違度が予め定めた基準を超えないとき(S22でNO)は、第1群設定処理を終了する。なお、第1フレーム画像と第2フレーム画像との一致度が予め定めた基準以下でないときに、処理をS23に進めるようにしてもよい。
判定部133は、S23において、第2フレーム画像(今回取得したフレーム画像)を第1群として設定して、第1群設定処理を終了する。本処理においては、第1フレーム画像と第2フレーム画像との間で差分が生じたピクセル数がほとんどないと判断できる(相違度が予め定めた基準を超えない、あるいは、一致度が予め定めた基準以下でない)場合に、第1フレーム画像と第2フレーム画像とが一致すると判断している。そして、第1フレーム画像と第2フレーム画像とが一致しない(相違する)と判断した場合に、第2フレーム画像(今回取得したフレーム画像)を第1群として設定する。
なお、第2算出部が第1フレーム画像と第2フレーム画像との一致度や相違度を算出しなくてもよく、判定部133が第1フレーム画像と第2フレーム画像とに違いがあるか否かを判定しなくてもよい。この場合、人の目で第1フレーム画像と第2フレーム画像とを確認し、第1フレーム画像と第2フレーム画像とに違いがあるか否かを判定するようにしてもよい。
つまり、第1群設定処理を判定部133が行うことなく、人の目で確認し、人の手によりフレーム画像を第1群に設定する作業を行うようにしてもよい。また、差分画像を人の目で確認し、人の手によりフレーム画像を第1群に設定する作業を行うようにしてもよい。この場合、マウス122やキーボード123による外部入力により、第1群の設定を可能とする。
図5は、第2群設定処理の一例を示すフローチャートである。判定部133は、第1位置群と第2位置群との相違度に基づいて、第2位置群を出力するために位置検出部132に入力された第2フレーム画像を第2群の第2フレーム画像として分類する。
たとえば、第1位置群と第2位置群との相違度は、次のように算出してもよい。各部位の位置について第1位置群から第2位置群への移動量を算出する。ある部位の第1位置を特定可能な座標が(X1,Y1)であり、第2位置を特定可能な座標が(X2,Y2)である場合、第1位置と第2位置との移動量を算出する。そして、各部位の移動量の総和を相違度として算出する。
第2群設定処理を開始すると、S31において、第1算出部は、前回の検出結果(第1位置群)と今回の検出結果(第2位置群)との相違度を算出し、処理をS32に進める。
S32において、判定部133は、第1位置群と第2位置群との相違度が予め定めた基準を超えるとき(S32でYES)は、処理をS33に進める。S32において、判定部133は、第1位置群と第2位置群との相違度が予め定めた基準を超えないとき(S32でNO)は、第2設定処理を終了する。
S34において、判定部133は、第2位置群を出力するために位置検出部に入力された第2フレーム画像(今回取得したフレーム画像)を第2群の第2フレーム画像として分類し、第2設定処理を終了する。本処理においては、第1位置群と第2位置群との間でほとんど移動が生じなかったと判断できる(相違度が予め定めた基準を超えない)場合に、第1位置群と第2位置群とが一致すると判断している。そして、第1位置群と第2位置群とが一致しない(相違する)と判断した場合に、第2フレーム画像(今回取得したフレーム画像)を第2群として設定する。
なお、各部位の移動量の総和を相違度として算出するものに限らず、各部位ごとに相違度を算出し、各部位ごとに相違するか否かの判断を行うようにしてもよい。このようにした場合、各部位に対応する差分画像と対比させることで、各部位それぞれについての検出結果が誤りであるか否かが判定可能になる。また、右肘と右手首といった複数の位置に着目し、たとえば、右手に関する検出結果が誤りであるか否かを判定させるようにしてもよい。
なお、第1算出部が第1位置群と第2位置群との一致度や相違度を算出しなくてもよく、判定部133が第1算出部の算出結果に基づき、第1位置群と第2位置群とが相違するか否かを判定しなくてもよい。この場合、人の目で第1位置群と第2位置群とを確認し、第1位置群と第2位置群とが相違するか否かを判定するようにしてもよい。
つまり、第2群設定処理を判定部133が行うことなく、人の目で確認し、人の手によりフレーム画像を第2群に設定する作業を行うようにしてもよい。また、差分データを人の目で確認し、人の手によりフレーム画像を第2群に設定する作業を行うようにしてもよい。この場合、マウス122やキーボード123による外部入力により、第2群の設定を可能とする。
判定部133は、第1位置群と第2位置群との相違度、および、第1フレーム画像と第2フレーム画像との一致度に基づいて、位置検出部132の誤検出に関する情報を出力する。具体的には、判定部133は、第1位置群と第2位置群との相違度に基づいて第1位置群と第2位置群とが相違すると判断し、かつ、第1フレーム画像と第2フレーム画像との一致度(あるいは相違度)に基づいて第1フレーム画像と第2フレーム画像とが一致すると判断したとき、位置検出部132の誤検出に関する情報として、位置検出部132が第2位置群を誤検出したことを特定可能な情報を出力する。これは、フレーム画像間では人の動きがないにも関わらず、検出結果としては人体における複数部位の位置が変化しているため、検出結果が誤りであると判定するものである。
さらに、判定部133は、複数部位のうちの少なくとも1以上の部位における、第1位置群と第2位置群との相違度が予め定めた基準を超えるときにも、位置検出部132の誤検出に関する情報として、位置検出部132が第2位置群を誤検出したことを特定可能な情報を出力する。これは、第1フレーム画像が撮影されてから第2フレーム画像が撮影されるまでの時間に対し、検出結果として、人の動きとしてあり得ないスピードで人体の部位の位置が変化しているため、検出結果が誤りであると判定するものである。たとえば、手首だけがあり得ないスピードで変化するものであってもよく、体全体(全ての部位)が瞬間的に移動するようなものであってもよい。第1位置群と第2位置群との相違度は、各部位ごとの移動量であってもよく、1以上の部位において、移動量が予め定めた基準を超えた場合に、第2位置群を誤検出したことを特定すればよい。
判定部133は、誤検出した第2位置群を位置検出部132の出力結果から除外する(位置検出結果を破棄する)。そして、判定部133は、誤検出した第2位置群を第1位置群と同じ位置情報に変更する。これらの処理は、第3群設定処理および誤り除外処理において実行される。以下、フローチャートを用いて具体的に説明する。
図6は、第3群設定処理の一例を示すフローチャートである。判定部133は、第2群に含まれ、かつ、第1群に含まれない第2フレーム画像を、第3群の第2フレーム画像として分類し、位置検出部132が第2位置群を誤検出した第2フレーム画像と特定する。
第3群設定処理を開始すると、S41において、判定部133は、第2群に含まれ、かつ、第1群に含まれない第2フレーム画像(今回取得したフレーム画像)を、第3群の第2フレーム画像として設定し、処理をS42に進める。第3群として設定されたフレーム画像は、位置検出部132が第2位置群を誤検出したフレーム画像である。
S42において、判定部133は、複数部位のうちの少なくとも1以上の部位における、前回の検出結果(第1位置群)と今回の検出結果(第2位置群)との相違度が予め定めた基準を超えるとき、第2フレーム画像(今回取得したフレーム画像)を第3群として設定し、第3群設定処理を終了する。
図7は、誤り除外処理の一例を示すフローチャートである。誤り除外処理を開始すると、S51において、判定部133は、今回取得したフレーム画像(第2フレーム画像)が第3群として設定された場合(S51でYES)は、処理をS52に進める。
S51において、判定部133は、今回取得したフレーム画像が第3群として設定されなかった場合(S51でNO)は、誤り除外処理を終了する。S52において、判定部133は、誤検出した第2位置群(今回の位置検出結果)を位置検出部132の出力結果から除外し、処理をS53に進める。
S53において、判定部133は、誤検出した第2位置群(今回の位置検出結果)を第1位置群(前回の位置検出結果)と同じ位置情報に変更し、誤り除外処理を終了する。つまり、今回の位置検出結果は誤りであるため、前回の位置検出結果を今回の位置検出結果として用いる。
たとえば、位置検出結果として出力された人体における複数部位の位置のうち、1以上の位置において位置が異なると判定された場合に、今回の位置検出結果を除外してもよい。この場合、正しく検出された位置も含めて今回の位置検出結果が除外され、前回の位置検出結果が用いられる。また、位置が異なると判定された位置のみ今回の位置検出結果から除外するようにしてもよい。この場合、正しく検出された位置は今回の位置検出結果から除外されず、誤って検出された位置のみが今回の位置検出結果から除外されて前回の位置検出結果が用いられることになる。
なお、第3群設定処理を判定部133が行うことなく、人の目でフレーム画像の差分や位置検出結果の変化量を確認し、人の手によりフレーム画像を第3群に設定する作業を行うようにしてもよい。この場合、マウス122やキーボード123による外部入力により、第3群の設定を可能とする。
また、S52およびS53の両方を行うものに限らず、いずれか一方を行うものであってもよい。誤検出した第2位置群(今回の位置検出結果)を位置検出部132の出力結果から除外する処理(S52)のみを行った場合は、今回の位置検出結果が存在しなくなる。このため、今回の位置検出結果に基づく寝相検出を行うことができない。この場合、前後に行った正しい位置検出結果に基づき寝相検出を行えばよい。
寝相検出部134は、位置検出結果を入力とし、寝相検出プログラム114により寝相判定を行い、寝相情報(寝相検出結果)を出力する。検出処理において、S11~S16の処理は、人体における複数部位の位置情報(位置検出結果)や誤検出に関する情報(第2位置群の誤検出)を出力するための処理であるが、さらに、S17の処理において、出力された複数部位の位置情報および出力された誤検出に関する情報に基づいて、寝相情報(寝相検出結果)が出力されることになる。具体的には、誤検出に関する情報に基づいて誤検出した第2位置群の除外、変更を行った上で、複数部位の位置情報が入力されて、寝相情報が出力される。
図8は、検出処理の入出力データの一例を示す図である。取得部131は、寝ている人を撮影した動画に含まれるフレーム画像を取得する。図8に示すように、位置検出部132は、フレーム画像から得られる情報を位置検出用学習済モデル112に入力することで、学習済モデルから人体における複数部位の位置情報(位置群)を位置検出結果として出力する。
位置検出部132は、位置検出結果として、n箇所の人体の部位の位置を出力する。本実施の形態においては、n=23である。以下、n箇所の人体の部位の位置は、位置A1、位置A2、位置A3・・・位置Anと表記する。これらの位置は、各関節の位置や顔の特定位置を示す。たとえば、各関節の位置は、左右の膝や肘などの関節の位置を示す。顔の特定位置は、目や鼻や耳の位置を示す。
人体の部位の位置は、ディスプレイ121に表示するための位置を特定可能とする座標(X,Y)である。これらの座標は、フレーム画像中の人体の部位の位置に対応するものである。たとえば、フレーム画像中の右肘に対応して、右肘の位置を特定可能な座標が検出される。これらの位置を特定可能な画像および位置と位置を繋ぐ線の画像が位置画像として生成される。ディスプレイ121には、フレーム画像中の人の画像の全面側に重畳して位置画像が表示される。
たとえば、位置検出部132は、位置検出結果として、位置A1を特定可能な座標(Xa1,Ya1)を出力する。位置検出部132は、位置検出結果として、位置A2を特定可能な座標(Xa2,Ya2)を出力する。位置検出部132は、位置検出結果として、位置A3を特定可能な座標(Xa3,Ya3)を出力する。位置検出部132は、位置検出結果として、位置Anを特定可能な座標(Xan,Yan)を出力する。
判定部133は、誤り除外処理を実行する。判定部133は、誤り除外処理において、位置検出結果が誤りであると判定した(第2位置群を誤検出したことを特定した)場合は、位置検出結果の補正を行う。これにより、位置検出結果は、位置検出結果(補正)に変更される。判定部133は、誤り除外処理において、位置検出結果が誤りであると判定しなかった場合は、位置検出結果を変更しない。
たとえば、位置検出部132は、位置検出結果(補正)として、位置A1を特定可能な座標(Xb1,Yb1)を出力する。位置検出部132は、位置検出結果(補正)として、位置A2を特定可能な座標(Xab,Yb2)を出力する。位置検出部132は、位置検出結果(補正)として、位置A3を特定可能な座標(Xb3,Yb3)を出力する。位置検出部132は、位置検出結果(補正)として、位置Anを特定可能な座標(Xbn,Ybn)を出力する。
たとえば、後述する図12のフレーム画像Bにおいては、判定部133は位置検出結果が誤りであると判定していないので、A1~Anを特定可能な座標の変更は行われない。図12のフレーム画像Bにおいては、全ての位置(位置A1~An)を特定可能な座標の変更が行われている。図13のフレーム画像Bにおいては、右肘および右手首を特定可能な座標の変更が行われている。
寝相検出部134は、位置検出結果が誤りであると判定されなかった場合は、位置検出結果を入力として、寝相情報(寝相検出結果)を出力する。寝相検出部134は、位置検出結果が誤りであると判定された場合は、位置検出結果(補正)を入力として、寝相情報(寝相検出結果)を出力する。
出力される寝相検出結果は、仰向け、うつ伏せ、右向き、左向きなどの人が寝ているときの状態(寝相)である。また、寝相検出部134は、連続した複数の位置検出結果から、寝返り、けいれんなどの人が寝ているときの動作を検出し、これを寝相検出結果として出力してもよい。
出力される寝相検出結果は、人の健康状態を確認できるものであればどのようなものであってもよい。たとえば、寝ていると表れる症状として、体が頻繁に揺れたり、寝返りをしたり、体の一部がビクッと動いたり、足をバタバタさせたり、不自然な体勢で寝ていることなどを特定可能な情報を出力させてもよい。
位置検出部132は、寝相検出結果として、結果Z1~Zmのうちのいずれかの結果を出力する。たとえば、結果Z1は、「仰向け」である。結果Z2は、「うつ伏せ」である。結果Z3は、「右向き」である。結果Z4は、「左向き」である。結果Z5は、「寝返り」である。結果Z6は、「けいれん」である。
本実施の形態では、ディスプレイ121に寝相検出結果を特定可能な文字を表示させる。たとえば、ディスプレイ121には仰向けで寝ている人が撮影された動画(フレーム画像)とともに「仰向け」の文字が表示される。あるいは、ディスプレイ121にはけいれん状態にある人が撮影された動画(フレーム画像)とともに「けいれん」の文字が表示される。これにより、ディスプレイ121を見ることで、寝ている人の姿勢や動作を確認することができる。
また、本実施の形態においては、判定部133は、第1位置群と第2位置群との相違度、および、第1フレーム画像と第2フレーム画像との一致度に基づいて、今回の位置検出結果を誤りとして補正している。すなわち、人体に動きがないにも関わらず、フレーム間の検出結果に違いが発生したと認められるような場合に、位置検出結果を誤りであると判断して、これを補正するようにしている。Openposeなどの姿勢検出技術(姿勢推定技術)は1つのフレームに基づき検出結果を出力するものである。これに対して、本実施の形態においては、フレーム間の画像の差分に着目して位置検出の検出精度を向上させようとするものである。本実施の形態においては、特に、人が寝ている状態に着目するものであり、この場合、人の体の動きは非常に少ない。このように、本実施の形態においては、フレーム画像間の差分が発生しづらい状況下において、位置検出結果の検出精度を向上させようとするものである。このようにすることで、同時に寝相検出精度も向上させることができ、人が寝ているときの健康状態を適切に確認することできる。
[検出結果の表示例]
図9~図14は、検出結果の表示例を示す図である。図9では、仰向けで寝ている場合の位置検出結果および寝相検出結果の表示例を示している。図9に示すように、ディスプレイ121には、カメラ124により撮影されたフレーム画像が表示されている。撮影されている人は仰向けで寝ており、ディスプレイ121には、仰向けで寝ている人の画像(フレーム画像)が表示されている。
位置検出部132は、位置検出結果として、n箇所(本実施の形態では、23箇所)の人体の部位の位置を出力する。位置検出結果に誤りがあると判定された場合は、位置検出結果が補正される。位置検出結果に基づき生成された位置画像は、フレーム画像中の人の画像の全面側に重畳してディスプレイ121に表示される。
寝相検出部134は、位置検出結果を入力として、寝相検出結果として寝相情報を出力する。ディスプレイ121には、寝相検出結果を特定可能な文字が表示される。
図9の例においては、ディスプレイ121には、仰向けで寝ている人の画像の前面側に位置画像が表示されている。たとえば、位置画像として、右耳、右目、鼻、左目、左耳を特定可能な画像が表示されるとともに、これらを繋ぐ線が表示されている。また、たとえば、位置画像として、右肩、右肘、右手首を特定可能な画像が表示されるとともに、これらを繋ぐ線が表示されている。正しく位置検出が行われているため、フレーム画像中の人体の部位の各位置に対応して位置画像が表示されている。
ディスプレイ121の右上部には、寝相検出結果として、仰向けで寝ていることを示す文字画像「仰向け」が表示されている。
図10では、右向きで寝ている場合の位置検出結果および寝相検出結果の表示例を示している。図10に示すように、ディスプレイ121には、カメラ124により撮影されたフレーム画像が表示される。撮影されている人は右向きで寝ており、ディスプレイ121には、右向きで寝ている人の画像(フレーム画像)が表示されている。
図10の例においては、ディスプレイ121には、右向きで寝ている人の画像に重ねて、位置検出結果として、位置画像が表示されている。また、ディスプレイ121の右上部には、寝相検出結果として、右向きで寝ていることを示す文字画像「右向き」が表示されている。
図10の例においても、正しく位置検出が行われているため、フレーム画像中の人体の部位の各位置に対応して位置画像が表示されている。ただし、画像中の右手が隠れてしまって見えないため、右肘および右手首の位置は検出結果として出力されていない。
図11では、仰向けに寝ている人の右手が徐々に動く場合における検出結果の表示例を示している。図11においては、フレーム画像A、フレーム画像B、フレーム画像Cの順に時系列順に画像が取得されるものとする。以下、図12~14においても同様である。図9と同様、図11に示すように、ディスプレイ121には、フレーム画像Aとして、仰向けで寝ている人の画像と、位置画像と、文字画像「仰向け」が表示されている。
次に取得されたフレーム画像Bにおいて、人の右手が上方に移動したとする。この場合、ディスプレイ121には、右向きで寝ている人の画像において、右手が上方に移動した様子が表示されている。右手が移動したことで、右手の移動が特定可能な差分画像が生成される。
たとえば、差分画像として、フレーム画像間で変化があった領域が特定の色(たとえば、黄色)となる画像が表示される。フレーム画像B、右手に対応する領域が黄色くなっている。さらに、位置画像と、文字画像「仰向け」が表示されている。
次に取得されたフレーム画像Cにおいて、さらに、人の右手が上方に移動したとする。この場合、ディスプレイ121には、さらに右手が上方に移動した様子が表示されている。右手が移動したことで、右手が移動したことを特定可能な差分画像が生成される。図においては、右手に対応する領域が黄色くなっている。さらに、位置画像と、文字画像「仰向け」が表示されている。
図12では、フレーム画像A~Cにおいて、人に動きはないが、フレームBにおいて位置検出結果が誤りであると判定された場合の表示例を示している。図9と同様、図11に示すように、ディスプレイ121には、フレーム画像Aとして、仰向けで寝ている人の画像と、位置画像と、文字画像「仰向け」が表示されている。
次に取得されたフレーム画像Bにおいて、人の動きはないが、位置検出結果が誤りであり、位置画像が画面右側に大きくずれてディスプレイ121に表示されている。このため、位置検出結果が誤りであると判定されて、位置検出結果が補正される。位置検出結果の補正により、一つ前のフレーム画像Aに対応する位置検出結果が用いられる。これにより、補正後の位置検出結果は正しく表示されている。
図13では、フレーム画像A~Cにおいて、人に動きがあり、かつ、フレームBにおいて位置検出結果が誤りであると判定された場合の表示例を示している。図9と同様、図11に示すように、ディスプレイ121には、フレーム画像Aとして、仰向けで寝ている人の画像と、位置画像と、文字画像「仰向け」が表示されている。
次に取得されたフレーム画像Bにおいて、左手に小さな動きがあるため、左手の動きを特定可能な差分画像が表示されている。さらに、左手首および左肘の位置検出結果には誤りがあり、左手が大きく動いたような位置画像が表示されている。また、フレームAが撮影されてからフレームBが撮影されるまでの時間に対し、人の動きとしてあり得ないスピードで右手が移動している。
たとえば、1秒未満の時間で左手が下から上に移動することはあり得ない。このとき、フレーム画像Aとフレーム画像Bとの比較において、左手首や左肘位置の変化量が予め定めた基準値を超えるため、位置検出結果が誤りであると判定される。
位置検出結果が誤りであると判定された場合は、位置検出結果の補正が行われる。位置検出結果の補正により、一つ前のフレーム画像Aに対応する位置検出結果が用いられる。これにより、補正後の位置検出結果は正しく表示されている。
図14では、フレーム画像A~Cにおいて、人に動きはないが、フレームBにおいて一部の位置が検出できなかった場合の表示例を示している。図9と同様、図14に示すように、ディスプレイ121には、フレーム画像Aとして、仰向けで寝ている人の画像と、位置画像と、文字画像「仰向け」が表示されている。
フレームAにおいては、全ての位置が検出できているものとする。しかし、次に取得されたフレーム画像Bにおいて、人の動きはないが、右手側に検出できない箇所が発生したとする。この場合、一つ前のフレーム画像Aに対応する位置検出結果を用いるようにしてもよい。これにより、補正後の位置検出結果は正しく表示されている。
[誤り除外処理について]
図15は、本実施の形態の変形例に係る誤り除外処理の一例を示すフローチャートである。本実施の形態においては、判定部133は、誤検出した第2位置群を第1位置群と同じ位置情報に変更するようにした。しかし、これに限らず、判定部133は、第2位置群(今回の位置検出結果)を位置検出部132が出力する前後で出力した複数の位置群に基づき、誤検出した第2位置群を変更するようにしてもよい。
具体的には、変形例に係る誤り除外処理を開始すると、S61において、判定部133は、今回取得したフレーム画像(第2フレーム画像)が第3群として設定された場合(S61でYES)は、処理をS62に進める。
S61において、判定部133は、今回取得したフレーム画像(第2フレーム画像)が第3群として設定されなかった場合(S61でNO)は、誤り除外処理を終了する。S62において、判定部133は、誤検出した第2位置群(今回の位置検出結果)を位置検出部132の出力結果から除外し、処理をS63に進める。
S63において、判定部133は、第2位置群(今回の位置検出結果)を位置検出部132が出力する前後で出力した複数の位置群に基づき、誤検出した第2位置群を変更する。位置検出結果の変更は、検出された人体の部位の位置ごとに行ってもよい。
たとえば、前回の位置検出結果と次回の位置検出結果を線形補完することで今回の位置検出結果として算出するようにしてもよい。この場合、次回の位置検出結果を出力しなければ、今回の位置検出結果を補正することができないため、位置画像のディスプレイ121への表示が1フレーム分遅れることになる。ただし、リアルタイムで位置検出を行わず、予め撮影された動画に基づき位置検出を行うような場合には、1フレーム分遅らせて表示させる必要はなくなる。
また、これに限らず、前々回の位置検出結果と前回の位置推移結果を線形補完することで今回の位置検出結果として算出するようにしてもよい。また、3以上の位置推移結果に基づき今回の位置検出結果を補正するようにしてもよい。
[態様]
上述した実施の形態およびその変形例は、以下の態様の具体例であることが当業者により理解される。
(第1項)一態様に係る姿勢検出装置は、取得部と、位置検出部と、判定部とを備える。取得部は、フレーム画像を時系列順に取得する。位置検出部は、フレーム画像から得られる情報を学習済モデルに入力することで、学習済モデルから人体における複数部位の位置情報を出力する。判定部は、位置検出部の誤検出に関する情報を出力する。位置検出部は、取得部が取得した第1フレーム画像を入力としたときに第1位置群を出力し、取得部が取得した、第1フレーム画像とは異なる第2フレーム画像を入力としたときに第2位置群を出力する。判定部は、第1位置群と第2位置群との相違度、および、第1フレーム画像と第2フレーム画像との一致度に基づいて、位置検出部の誤検出に関する情報を出力する。
このような構成によれば、人体における複数部位の位置情報の誤検出を特定することができる。これにより、誤検出した位置情報を取り除くことができるため、実際には生じていない人体の動作が検出されることを防止することができる。
(第2項)第1項に記載の姿勢検出装置において、第1算出部と、第2算出部とをさらに備える。第1算出部は、第1位置群と第2位置群との相違度を算出する。第2算出部は、第1フレーム画像と第2フレーム画像との一致度を算出する。判定部は、第1算出部が算出した第1位置群と第2位置群との相違度、および、第2算出部が算出した第1フレーム画像と第2フレーム画像との一致度に基づいて、位置検出部の誤検出に関する情報を出力する。
このような構成によれば、第1算出部は、第1位置群と第2位置群との相違度を算出するため、人の目で確認する場合に比べて、第1位置群と第2位置群との相違度について精度よく判定することできる。また、第1フレーム画像と第2フレーム画像との一致度を算出するため、第1フレーム画像と第2フレーム画像との一致度について精度よく判定することできる。その結果、位置検出部の誤検出に関する情報を精度よく出力することができる。
(第3項)第1または第2項に記載の姿勢検出装置において、判定部は、第1位置群と第2位置群との相違度に基づいて第1位置群と第2位置群とが相違すると判断し、かつ、第1フレーム画像と第2フレーム画像との一致度に基づいて第1フレーム画像と第2フレーム画像とが一致すると判断したとき、位置検出部の誤検出に関する情報として、位置検出部が第2位置群を誤検出したことを特定可能な情報を出力する。
このような構成によれば、第2位置群の誤検出を特定することができる。これにより、誤検出した第2位置群を取り除くことができるため、実際には生じていない人体の動作が検出されることを防止することができる。
(第4項)第3に記載の姿勢検出装置において、判定部は、複数部位のうちの少なくとも1以上の部位における、第1位置群と第2位置群との相違度が予め定めた基準を超えるときにも、位置検出部の誤検出に関する情報として、位置検出部が第2位置群を誤検出したことを特定可能な情報を出力する。
このような構成によれば、極端な位置の変化が発生した場合における、人体における複数部位の位置情報の誤検出を特定することができる。これにより、誤検出した位置情報を取り除くことができるため、実際には生じていない人体の動作が検出されることを防止することができる。
(第5項)第3または第4項に記載の姿勢検出装置において、判定部は、誤検出した第2位置群を位置検出部の出力結果から除外する。
このような構成によれば、第2位置群の誤検出を特定することができるとともに、誤検出した第2位置群を取り除くことができるため、実際には生じていない人体の動作が検出されることを防止することができる。
(第6項)第3または第4項に記載の姿勢検出装置において、判定部は、誤検出した第2位置群を第1位置群と同じ位置情報に変更する。
このような構成によれば、第2位置群の誤検出を特定することができるとともに、誤検出した第2位置群を正しく検出された位置群に置き換えることができるため、実際には生じていない人体の動作が検出されることを防止することができる。
(第7項)第3または第4項に記載の姿勢検出装置において、判定部は、第2位置群を位置検出部が出力する前後で出力した複数の位置群に基づき、誤検出した第2位置群を変更する。
このような構成によれば、第2位置群の誤検出を特定することができるとともに、誤検出した第2位置群を正しく検出された位置群に基づき変更することができるため、実際には生じていない人体の動作が検出されることを防止することができる。
(第8項)第1~第7項のいずれか1項に記載の姿勢検出装置において、判定部は、第1フレーム画像と第2フレーム画像との相違度に基づいて、第2フレーム画像を第1群の第2フレーム画像として分類する。判定部は、第1位置群と第2位置群との相違度に基づいて、第2位置群を出力するために位置検出部に入力された第2フレーム画像を第2群の第2フレーム画像として分類する。判定部は、第2群に含まれ、かつ、第1群に含まれない第2フレーム画像を、位置検出部が第2位置群を誤検出した第2フレーム画像と特定する。
このような構成によれば、判定部が、第1位置群と第2位置群との相違度を算出するとともに、第1フレーム画像と第2フレーム画像との一致度を算出するため、人の目で確認する場合に比べて、第1位置群と第2位置群との相違度、および、第1フレーム画像と第2フレーム画像との一致度について精度よく判定することできる。
(第9項)一態様に係る姿勢検出方法は、フレーム画像を時系列順に取得するステップと、フレーム画像から得られる情報を学習済モデルに入力することで、学習済モデルから人体における複数部位の位置情報を出力するステップと、出力された複数部位の位置情報につき誤検出に関する情報を出力するステップとを含む。複数部位の位置情報を出力するステップは、取得した第1フレーム画像を入力としたときに第1位置群を出力するステップと、取得した、第1フレーム画像とは異なる第2フレーム画像を入力としたときに第2位置群を出力するステップとを含む。誤検出に関する情報を出力するステップは、第1位置群と第2位置群との相違度、および、第1フレーム画像と第2フレーム画像との一致度に基づいて、誤検出に関する情報を出力する。
このような構成によれば、人体における複数部位の位置情報の誤検出を特定することができる。これにより、誤検出した位置情報を取り除くことができるため、実際には生じていない人体の動作が検出されることを防止することができる。
(第10項)一態様に係る寝相判定方法は、第9項に記載の姿勢検出方法と、出力された前記複数部位の位置情報および出力された誤検出に関する情報に基づいて、寝相情報を出力するステップとを含む。
このような構成によれば、正しく検出された人体における複数部位の位置情報に基づき、寝相情報を出力することができるため、寝相情報の出力精度を向上させることができる。
今回開示された実施の形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
100 姿勢検出装置、101 ハードディスク、102 CPU、103 メモリ、104 ディスプレイインターフェース、105 周辺機器インターフェース、106 カメラインターフェース、111 OS、112 位置検出用学習済モデル、113 誤り除外プログラム、114 寝相検出プログラム、121 ディスプレイ、122 マウス、123 キーボード、124 カメラ、131 取得部、132 位置検出部、133 判定部、134 寝相検出部。

Claims (10)

  1. フレーム画像を時系列順に取得する取得部と、
    前記フレーム画像から得られる情報を学習済モデルに入力することで、前記学習済モデルから人体における複数部位の位置情報を出力する位置検出部と、
    前記位置検出部の誤検出に関する情報を出力する判定部とを備え、
    前記位置検出部は、
    前記取得部が取得した第1フレーム画像を入力としたときに第1位置群を出力し、
    前記取得部が取得した、前記第1フレーム画像とは異なる第2フレーム画像を入力としたときに第2位置群を出力し、
    前記判定部は、前記第1位置群と前記第2位置群との相違度、および、前記第1フレーム画像と前記第2フレーム画像との一致度に基づいて、前記位置検出部の誤検出に関する情報を出力する、姿勢検出装置。
  2. 前記第1位置群と前記第2位置群との相違度を算出する第1算出部と、
    前記第1フレーム画像と前記第2フレーム画像との一致度を算出する第2算出部とをさらに備え、
    前記判定部は、前記第1算出部が算出した前記第1位置群と前記第2位置群との相違度、および、前記第2算出部が算出した前記第1フレーム画像と前記第2フレーム画像との一致度に基づいて、前記位置検出部の誤検出に関する情報を出力する、請求項1に記載の姿勢検出装置。
  3. 前記判定部は、前記第1位置群と前記第2位置群との相違度に基づいて前記第1位置群と前記第2位置群とが相違すると判断し、かつ、前記第1フレーム画像と前記第2フレーム画像との一致度に基づいて前記第1フレーム画像と前記第2フレーム画像とが一致すると判断したとき、前記位置検出部の誤検出に関する情報として、前記位置検出部が前記第2位置群を誤検出したことを特定可能な情報を出力する、請求項1に記載の姿勢検出装置。
  4. 前記判定部は、前記複数部位のうちの少なくとも1以上の部位における、前記第1位置群と前記第2位置群との相違度が予め定めた基準を超えるときにも、前記位置検出部の誤検出に関する情報として、前記位置検出部が前記第2位置群を誤検出したことを特定可能な情報を出力する、請求項3に記載の姿勢検出装置。
  5. 前記判定部は、誤検出した前記第2位置群を前記位置検出部の出力結果から除外する、請求項3に記載の姿勢検出装置。
  6. 前記判定部は、誤検出した前記第2位置群を前記第1位置群と同じ位置情報に変更する、請求項3に記載の姿勢検出装置。
  7. 前記判定部は、前記第2位置群を前記位置検出部が出力する前後で出力した複数の位置群に基づき、誤検出した前記第2位置群を変更する、請求項3に記載の姿勢検出装置。
  8. 前記判定部は、
    前記第1フレーム画像と前記第2フレーム画像との相違度に基づいて、前記第2フレーム画像を第1群の前記第2フレーム画像として分類し、
    前記第1位置群と前記第2位置群との相違度に基づいて、前記第2位置群を出力するために前記位置検出部に入力された前記第2フレーム画像を第2群の前記第2フレーム画像として分類し、
    前記第2群に含まれ、かつ、前記第1群に含まれない前記第2フレーム画像を、前記位置検出部が前記第2位置群を誤検出した前記第2フレーム画像と特定する、請求項1に記載の姿勢検出装置。
  9. フレーム画像を時系列順に取得するステップと、
    前記フレーム画像から得られる情報を学習済モデルに入力することで、前記学習済モデルから人体における複数部位の位置情報を出力するステップと、
    出力された前記複数部位の位置情報につき誤検出に関する情報を出力するステップとを含み、
    前記複数部位の位置情報を出力するステップは、
    取得した第1フレーム画像を入力としたときに第1位置群を出力するステップと、
    取得した、前記第1フレーム画像とは異なる第2フレーム画像を入力としたときに第2位置群を出力するステップとを含み、
    前記誤検出に関する情報を出力するステップは、前記第1位置群と前記第2位置群との相違度、および、前記第1フレーム画像と前記第2フレーム画像との一致度に基づいて、前記誤検出に関する情報を出力する、姿勢検出方法。
  10. 請求項9に記載の姿勢検出方法と、
    出力された前記複数部位の位置情報および出力された前記誤検出に関する情報に基づいて、寝相情報を出力するステップとを含む、寝相判定方法。
JP2022555270A 2020-10-05 2021-07-07 姿勢検出装置、姿勢検出方法および寝相判定方法 Active JP7468684B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020168200 2020-10-05
JP2020168200 2020-10-05
PCT/JP2021/025599 WO2022074886A1 (ja) 2020-10-05 2021-07-07 姿勢検出装置、姿勢検出方法および寝相判定方法

Publications (2)

Publication Number Publication Date
JPWO2022074886A1 JPWO2022074886A1 (ja) 2022-04-14
JP7468684B2 true JP7468684B2 (ja) 2024-04-16

Family

ID=81126415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022555270A Active JP7468684B2 (ja) 2020-10-05 2021-07-07 姿勢検出装置、姿勢検出方法および寝相判定方法

Country Status (5)

Country Link
US (1) US20230368408A1 (ja)
EP (1) EP4227894A1 (ja)
JP (1) JP7468684B2 (ja)
CN (1) CN116348909A (ja)
WO (1) WO2022074886A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023223508A1 (ja) * 2022-05-19 2023-11-23 日本電信電話株式会社 映像処理装置、映像処理方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046392A1 (ja) 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
JP2017182615A (ja) 2016-03-31 2017-10-05 ソフトバンク株式会社 3次元動画データ生成装置、3次元動画データ生成プログラム、及びその方法
JP2020087040A (ja) 2018-11-27 2020-06-04 アイホン株式会社 特定姿勢検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046392A1 (ja) 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
JP2017182615A (ja) 2016-03-31 2017-10-05 ソフトバンク株式会社 3次元動画データ生成装置、3次元動画データ生成プログラム、及びその方法
JP2020087040A (ja) 2018-11-27 2020-06-04 アイホン株式会社 特定姿勢検出装置

Also Published As

Publication number Publication date
JPWO2022074886A1 (ja) 2022-04-14
EP4227894A1 (en) 2023-08-16
WO2022074886A1 (ja) 2022-04-14
CN116348909A (zh) 2023-06-27
US20230368408A1 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
TWI704501B (zh) 可由頭部操控的電子裝置與其操作方法
EP2577426B1 (en) Information processing apparatus and method and program
CN110913751B (zh) 具有滑动检测和校正功能的可穿戴眼睛跟踪***
JP3673834B2 (ja) 眼球運動を用いた視線入力コミュニケーション方法
WO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
CN110032940A (zh) 一种视频行人重识别的方法和***
Bei et al. Sitting posture detection using adaptively fused 3D features
US20220284652A1 (en) System and method for matching a test frame sequence with a reference frame sequence
JP7468684B2 (ja) 姿勢検出装置、姿勢検出方法および寝相判定方法
JP2009064395A (ja) ポインティングデバイス、操作者の注視位置とカーソルの位置との誤差の補正をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
CN113128417A (zh) 一种基于头部姿态的双区域眼动跟踪方法
JP2011002292A (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
CN110858095A (zh) 可由头部操控的电子装置与其操作方法
JP7491380B2 (ja) 画像選択装置、画像選択方法、及びプログラム
TW201947533A (zh) 利用影像偵測閱讀姿勢之方法及系統、電腦可讀取之記錄媒體及電腦程式產品
Zhang et al. Vision-based displacement sensor for people with serious spinal cord injury
NL2004878C2 (en) System and method for detecting a person's direction of interest, such as a person's gaze direction.
Bian et al. Human computer interface for quadriplegic people based on face position/gesture detection
Matsumoto et al. Real-time stereo face tracking system for visual human interfaces
Zhang et al. Vision-based interface for people with serious spinal cord injury
CN116152073B (zh) 改进的基于Loftr算法的多尺度眼底图像拼接方法
Huang et al. Robust feature extraction for non-contact gaze tracking with eyeglasses
Ebisawa et al. Head-free, remote gaze detection system based on pupil-corneal reflection method with using two video cameras–one-point and nonlinear Calibrations
JP2012212325A (ja) 視線計測システム、方法およびプログラム
US20230186597A1 (en) Image selection apparatus, image selection method, and non-transitory computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7468684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150