JP2020086819A - 画像処理プログラムおよび画像処理装置 - Google Patents

画像処理プログラムおよび画像処理装置 Download PDF

Info

Publication number
JP2020086819A
JP2020086819A JP2018219075A JP2018219075A JP2020086819A JP 2020086819 A JP2020086819 A JP 2020086819A JP 2018219075 A JP2018219075 A JP 2018219075A JP 2018219075 A JP2018219075 A JP 2018219075A JP 2020086819 A JP2020086819 A JP 2020086819A
Authority
JP
Japan
Prior art keywords
person
area
estimated
joint point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018219075A
Other languages
English (en)
Other versions
JP7271915B2 (ja
Inventor
智也 岡▲崎▼
Tomoya Okazaki
智也 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018219075A priority Critical patent/JP7271915B2/ja
Priority to EP19204847.8A priority patent/EP3657513A1/en
Priority to US16/669,846 priority patent/US11170522B2/en
Priority to CN201911125731.8A priority patent/CN111212220B9/zh
Publication of JP2020086819A publication Critical patent/JP2020086819A/ja
Application granted granted Critical
Publication of JP7271915B2 publication Critical patent/JP7271915B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】人物の行動を高精度に推定可能な画像処理プログラムを提供する。【解決手段】撮影された画像を取得する手順(a)と、取得された画像から、人物を含む人物領域と、所定の物体を含む物体領域と、を検出する手順(b)と、検出された前記人物領域に基づいて人物の関節点の位置を推定する手順(c)と、推定された関節点の位置と、手順(b)において検出された物体領域と、に基づいて人物の行動を推定する手順(d)と、をコンピューターに実行させる。【選択図】図6

Description

本発明は、画像処理プログラムおよび画像処理装置に関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、要介護者等がこのような状態になったときに介護士や看護師等のスタッフがすぐに駆けつけられるようにするために、撮影画像から要介護者等の行動を検出するためのシステムの開発が進められている。
撮影された画像から人物の行動を検出する技術に関連し、下記特許文献1には、次の技術が開示されている。撮影した画像において、ベッド等の物体を含む物体領域と他の領域との境界を予め設定し、画像内における人物領域を検出し、当該境界と人物領域との重なり幅に応じて、人物の起床等の行動を判別する。
特許第6119938号公報
しかし、特許文献1に開示された技術は、人物の姿勢等が考慮されないため、単にベッド近辺に立ったに過ぎないような行動を入床等として誤検出することを抑制できない。また、固定された物体との関係に基づいて人物の行動を検出するため、移動する物体との関係で人物の行動を検出することに対応できない。このため、人物の行動の検出精度をさらに向上させることが比較的困難であるという問題がある。
本発明は、このような問題を解決するためになされたものである。すなわち、人物の行動を高精度に推定可能な画像処理プログラムおよび画像処理装置を提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)撮影された画像を取得する手順(a)と、前記手順(a)において取得された前記画像から、人物を含む人物領域と、所定の物体を含む物体領域と、を検出する手順(b)と、前記手順(b)において検出された前記人物領域に基づいて前記人物の関節点の位置を推定する手順(c)と、前記手順(c)において推定された前記関節点の位置と、前記手順(b)において検出された前記物体領域と、に基づいて前記人物の行動を推定する手順(d)と、を有する処理をコンピューターに実行させる画像処理プログラム。
(2)前記処理は、前記手順(c)において推定された前記関節点の位置に基づいて前記人物の姿勢を推定する手順(e)をさらに有し、前記手順(d)は、前記手順(c)において推定された前記関節点の位置と、前記手順(e)において推定された前記姿勢と、前記手順(b)において検出された前記物体領域と、に基づいて前記人物の行動を推定する、上記(1)に記載の画像処理プログラム。
(3)前記手順(b)は、前記画像から前記人物領域および前記物体領域を検出するための辞書が反映されたニューラルネットワークにより、前記画像から、前記人物領域と前記物体領域とを検出する、上記(1)または(2)に記載の画像処理プログラム。
(4)前記手順(b)は、前記画像から前記人物領域を検出する手順(b1)と、前記手順(b1)において検出された前記人物領域を包含し、前記画像より小さく、前記人物領域より大きい領域として設定された候補領域から、前記人物領域および前記物体領域を検出する手順(b2)と、を有する、上記(1)〜(3)のいずれかに記載の画像処理プログラム。
(5)前記手順(d)は、前記手順(c)において推定された前記関節点の位置の中の所定の関節点の位置と、前記手順(b)において検出された前記物体領域との位置関係に基づいて前記行動を推定する、上記(1)に記載の画像処理プログラム。
(6)前記手順(d)は、前記手順(c)において推定された前記関節点の位置と、前記手順(b)において検出された前記物体領域との関係の、時間の経過に伴う変化に基づいて前記行動を推定する、上記(1)に記載の画像処理プログラム。
(7)前記手順(d)は、前記手順(c)において推定された前記関節点の位置と、前記手順(e)において推定された前記姿勢と、前記手順(b)において検出された前記物体領域との関係の、時間の経過に伴う変化に基づいて前記行動を推定する、上記(2)に記載の画像処理プログラム。
(8)前記処理は、前記手順(d)において推定された前記行動が所定の行動である場合に発報部に発報させるための情報を出力する手順(f)をさらに有する、上記(1)〜(7)のいずれかに記載の画像処理プログラム。
(9)撮影された画像を取得する取得部と、取得された前記画像から、人物を含む人物領域と、所定の物体を含む物体領域と、を検出する検出部と、検出された前記人物領域に基づいて人物の関節点の位置を推定する関節点推定部と、推定された前記関節点の位置と、検出された前記物体領域と、に基づいて人物の行動を推定する行動推定部と、を有する画像処理装置。
撮影した画像から人物を含む人物領域と所定の物体を含む物体領域を検出し、人物領域から推定した関節点の位置と物体領域とに基づいて人物の行動を推定する。これにより、人物の行動を高精度に推定できる。
画像処理システムの概略構成を示す図である。 検出部のハードウェア構成を示すブロック図である。 制御部の機能ブロック図である。 所定の関節点の位置と物体領域に基づいて対象者の行動が推定される例を説明するための説明図である。 携帯端末のハードウェア構成を示すブロック図である。 検出部の動作を示すフローチャートである。 制御部の機能ブロック図である。 検出部の動作を示すフローチャートである。 時間的に前後する撮影画像において、それぞれ対象者の関節点の位置と物体領域が検出された状態を示す図である。 検出部の動作を示すフローチャートである。 領域検出部の機能ブロック図である。 候補領域を説明するための説明図である。 検出部の動作を示すフローチャートである。
以下、図面を参照して、本発明の実施形態に係る画像処理プログラムおよび画像処理装置について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
(第1実施形態)
[全体構成]
図1は、画像処理システム10の概略構成を示す図である。
画像処理システム10は、検出部100、通信ネットワーク200、および携帯端末300を含む。検出部100は、通信ネットワーク200によりアクセスポイント210を介して携帯端末300と相互に通信可能に接続される。検出部100は、画像処理装置を構成する。検出部100は、1つの一体化された装置でも、分離配置される複数の装置でもあり得る。なお、通信ネットワーク200を介して検出部100および携帯端末300と相互に通信可能なサーバー(図示せず)を設け、検出部100の機能の一部を当該サーバーが実施するようにしてもよい。携帯端末300は、発報部を構成する。
検出部100は、対象者500の居室の天井等に配設される。対象者500は、例えば、スタッフ等により介護または看護を必要とする者である。検出部100は、所定の観察領域を撮影することで、画像(以下、単に「撮影画像131」(図4、図11参照)と称する)を取得し、撮影画像131に含まれる対象者500を人物として検出する。後述するように、検出部100は、撮影画像131上で物体(オブジェクト)が存在する領域(以下、「物体存在領域」と称する)を検出する。検出部100は、物体存在領域のうち、物体のカテゴリーが人物であると推定された物体存在領域(以下、「人物領域520」(図11参照)と称する)を検出することで、人物である対象者500を検出する。検出部100は、物体存在領域のうち、物体のカテゴリーが所定の物体と推定された物体存在領域(以下、「物体領域810」(図4、図11参照)と称する)をカテゴリーごとの物体領域810として検出する。所定の物体には、固定された物体と動く物体が含まれる。所定の物体のカテゴリーには、例えば、椅子、ベッド、車椅子、および歩行器が含まれる。検出部100は、人物領域520から関節点510(図4参照)の位置を検出する。関節点510の位置は、例えば、撮影画像131における各関節点510の座標である。検出部100は、関節点510の位置と物体領域810とに基づいて、対象者500の行動を推定する。行動には、例えば、椅子に座ったという行動、ベッドに座ったという行動、床に座ったという行動、ベッドから起き上がったという行動(起床)、ベッドから離れたという行動(離床)、ベッドから落ちたという行動(転落)、および床面等に倒れ込む行動(転倒)が含まれる。検出部100は、推定した行動が所定の行動である場合に、携帯端末300へ対象者500に関するイベントが発生した旨を通知するイベント通知を送信する。所定の行動には、ベッドから起き上がったという行動(起床)、ベッドから離れたという行動(離床)、ベッドから落ちたという行動(転落)、および床面等に倒れ込んだという行動(転倒)が含まれる。イベントとは、対象者500に関する検出部100が認識した状態の変化であって、例えば、起床、離床、転倒、転落、および微体動異常等のスタッフに発報(報知)を行うべき事象である。
検出部100は、ディープニューラルネットワーク(以下、「DNN」と称する)を用いて、対象者500の行動を推定し得る。DNNによる対象物体の検出方法としては、例えば、Fater R−CNN、Fast R−CNN、およびR−CNNといった公知の方法が挙げられる。なお、検出部100は、SVM(Support Vector Machine)等のDNN以外の機械学習を利用して対象者500の行動を推定してもよい。
携帯端末300は、対象者500に対して介護および看護を含むケアを行うスタッフ等に携帯される。
[検出部100]
図2は、検出部100のハードウェア構成を示すブロック図である。図2の例に示すように、検出部100は、制御部110、通信部120、カメラ130、および体動センサー140を備え、これらはバスによって、相互に接続されている。
制御部110は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って検出部100の各部の制御および演算処理を行う。制御部110の機能の詳細については後述する。
通信部120は、通信ネットワーク200を介して、携帯端末300等と通信するためのインターフェース回路(例えばLANカード等)である。
カメラ130は、例えば、対象者500の居室の天井、または壁の上部に配置され、所定の観察領域として対象者500のベッド700を含む領域を撮影し、撮影画像(画像データ)を出力する。撮影画像には対象者500、および上述した所定の物体を含む画像が含まれる。撮影画像131には、静止画および動画が含まれる。カメラ130は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。
図3は、制御部110の機能ブロック図である。制御部110は、取得部111、領域検出部(検出部)112、関節点推定部113、行動推定部115、発報情報出力部116として機能する。
取得部111は、カメラ130から撮影画像131を取得する。なお、取得部111は、カメラ130以外の、通信部120を介して検出部100と接続された他のカメラ(図示せず)により撮影された撮影画像131を、当該他のカメラから受信することで撮影画像131を取得してもよい。
領域検出部112は、撮影画像131から、人物領域520と物体領域810を検出する。領域検出部112は、撮影画像131上で物体(オブジェクト)が存在する領域を物体存在領域として検出し、検出した物体存在領域に含まれる物体のカテゴリーごとの信頼度スコアを算出する。領域検出部112は、人物のカテゴリーの信頼度スコアが最も高い物体存在領域を人物領域520として検出する。同様に、所定の物体のカテゴリーの信頼度スコアが最も高い物体存在領域を、当該信頼度スコアが最も高いカテゴリーの物体領域810(例えば、椅子の物体領域)として検出する。
領域検出部112は、撮影画像131から人物領域520および物体領域810を検出するための辞書(パラメーター)が反映されたDNNにより、撮影画像131から人物領域と物体領域を検出し得る。
関節点推定部113は、人物領域に基づいて対象者70の関節点510を推定する。関節点推定部113は、人物領域520から関節点510を検出するための辞書が反映されたDNNにより、人物領域520から対象者70の関節点510を推定し得る。
行動推定部115は、所定の関節点510の位置と物体領域810とに基づいて、対象者70の行動を推定する。
図4は、所定の関節点510a、510bの位置と物体領域810に基づいて対象者500の行動が推定される例を説明するための説明図である。
図4の例においては、椅子800が、椅子のカテゴリーの所定の物体として領域検出部112に検出され、物体領域810が一点鎖線の枠内の領域として表示されている。対象者500の関節点510のうち、腰の関節点510a、510bの位置が椅子のカテゴリーの物体領域810の内部に含まれている。このような、腰の関節点510a、510bの位置と椅子のカテゴリーの物体領域810との位置的関係は、対象者500が、椅子800に座ったという行動をしたときに生じる。従って、この場合、行動推定部115は、対象者500が、椅子800に座ったという行動をしたと推定する。このように、行動推定部115は、所定の関節点510の位置と物体領域810の位置関係に基づいて対象者500の行動を推定する。所定の関節点510は、腰の関節点510a、510bに限定されない。例えば、所定の関節点510を全身の関節点(すべての関節点)510とし、所定の関節点510が、所定の物体であるベッド700の物体領域710の内部に含まれるようになった場合、対象者500がベッド700に入ったという行動をしたと推定し得る。
発報情報出力部116は、行動推定部115により推定された行動が所定の行動である場合に、携帯端末300へ対象者500に関するイベントが発生した旨を通知するイベント通知を送信する。
[携帯端末300]
図5は、携帯端末300のハードウェア構成を示すブロック図である。携帯端末300は、制御部310、無線通信部320、表示部330、入力部340、および音声入出力部350を備え、これらはバスにより相互に接続される。これらの構成要素の基本構成は、検出部100の対応する構成要素と同様であるため、重複する説明は省略する。携帯端末300は、例えば、タブレット型コンピューター、スマートフォンまたは携帯電話等の、持ち運び可能な通信端末機器によって構成できる。
無線通信部320は、G4、Wi−Fi、Bluetooth(登録商標)等の規格を用いた無線通信を検出部100等の装置との間で行う。検出部100等の装置との無線通信は、アクセスポイント210を経由して、または直接的に行われる。無線通信部320は、検出部100からイベント通知を受信する。
表示部330、および入力部340は、タッチパネルであり、液晶等で構成される表示部330の表示面に、入力部340としてのタッチセンサーを重畳させたものである。表示部330、入力部340によって、スタッフ等に対して、各種情報や各種指示が表示される。表示部330は、イベント通知に含まれるイベントの内容を携帯端末300において表示する。このように、検出部100から送信されたイベント通知に含まれるイベントの内容が携帯端末300で表示されることにより、イベントの内容がスタッフ等へ発報される。イベント通知は、対象者500の所定の行動を携帯端末300にスタッフ等へ発報させるための情報を構成する。入力部340は、イベントへの対応の受諾の応答の入力等の各種の操作を受け付ける。
音声入出力部350は、例えばスピーカーとマイクであり、無線通信部320を介して他のスタッフ端末との間でスタッフ等による音声通話を可能にする。なお、検出部100が音声入出力部を備える場合、音声入出力部350は、無線通信部320を介して検出部100との間で音声通話を可能にし得る。
図6は、検出部100の動作を示すフローチャートである。本フローチャートは、プログラムに従い、制御部110により実行される。
制御部110は、カメラ130により撮影画像131を取得する(S101)。
制御部110は、撮影画像131から人物領域520と物体領域810を検出する(S102)。
制御部110は、人物領域520に基づいて対象者500の関節点510の位置を推定する(S103)。
制御部110は、関節点510の位置と、物体領域810との位置関係に基づいて、対象者500である人物の行動を推定する(S104)。
(第2実施形態)
第2実施形態について説明する。本実施形態と第1実施形態とで異なる点は次の点である。第1実施形態は、関節点510の位置と、物体領域810との位置関係に基づいて、対象者500の行動を推定する。一方、本実施形態は、関節点510の位置から対象者500の姿勢を推定し、対象者500の関節点510の位置、対象者500の姿勢、および物体領域810に基づいて対象者500の行動を推定する点である。これ以外の点に関しては、本実施形態は第1実施形態と同様であるため、重複となる説明は省略または簡略化する。
図7は、制御部11の機能ブロック図である。制御部11は、取得部111、領域検出部112、関節点推定部113、姿勢推定部114、行動推定部115、発報情報出力部116として機能する。
取得部111は撮影画像131を取得し、領域検出部112は、撮影画像131から人物領域520と物体領域810を検出する。関節点推定部113は、人物領域520から関節点510を推定する。
姿勢推定部114は、関節点推定部113により検出された関節点510の位置に基づいて対象者500の姿勢を推定する。姿勢には、例えば、立位、座位、および臥位が含まれる。姿勢推定部114は、関節点510の位置から人物の姿勢を検出するための辞書が反映されたDNNにより、関節点510の位置から対象者500の姿勢を推定し得る。具体的には、DNNにより、関節点510に基づいて、姿勢クラスの確率として、立位が5%、座位が87%、臥位が8%と推定された場合、確率が最も高い「座位」が、対象者500の姿勢として推定される。
行動推定部115は、物体領域810、対象者500の関節点510の位置、および対象者500の姿勢から対象者500の行動を推定する。行動推定部115は、例えば、対象者500の関節点510のうち、腰の関節点510a、510b(図4参照)の位置が椅子800のカテゴリーの物体領域810の内部に含まれ、かつ、姿勢が座位の姿勢になった場合に、対象者500が、椅子800に座ったという行動をしたと推定する。このように、行動推定部115は、所定の関節点510の位置と物体領域810の位置関係と、姿勢とに基づいて対象者500の行動を推定する。例えば、撮影画像131上で、対象者500が立位の姿勢で、腰の関節点510a、510bの位置が椅子800のカテゴリーの物体領域810の内部に含まれる可能性もないとは言えない。このような場合に、第1実施形態では、対象者500が椅子800に座ったという行動をしたと誤検出される。一方、本実施形態によればこのような誤検出を抑制できる。
図8は、検出部100の動作を示すフローチャートである。
制御部110は、撮影画像131を取得し(S201)、撮影画像131から人物領域520と物体領域810を検出する(S202)。
制御部110は、人物領域520に基づいて対象者500の関節点510の位置を推定する(S203)。
制御部110は、関節点510の位置に基づいて、対象者500の姿勢を推定する(S204)。
制御部110は、対象者500の所定の関節点510の位置と物体領域の関係と、対象者500の姿勢とに基づいて、対象者500の行動を推定する(S205)。
(第3実施形態)
第3実施形態について説明する。本実施形態と第1実施形態とで異なる点は次の点である。第1実施形態は、撮影画像131のフレームごとに、関節点510の位置と、物体領域810とに基づいて、対象者500の行動を推定する。一方、本実施形態は、撮影画像131の複数のフレームからそれぞれ検出された関節点510の位置および物体領域810に基づいて、関節点510と物体領域810の時間の経過に伴う変化から、対象者500の行動を推定する点である。これ以外の点に関しては、本実施形態は第1実施形態と同様であるため、重複となる説明は省略または簡略化する。
図9は、時間的に前後する撮影画像131において、それぞれ対象者500の関節点510の位置と物体領域810が検出された状態を示す図である。図9のAは、対象者500が立位の姿勢で、椅子800の方向を向いて歩行している状態が撮影された撮影画像131である。図9のBは、図9のAの撮影画像131のフレームより時間的に後のフレームの撮影画像131であり、対象者500が椅子800の座面上で座位の姿勢にある状態が撮影された撮影画像131である。
図9のAの撮影画像131においては、椅子800が所定の物体として検出されたことで、物体領域810が椅子800を囲む一点鎖線の矩形で表示されている。また、対象者500が人物領域520として検出され、人物領域520から関節点510の位置が推定されたことで、関節点510の位置が表示されている。
一方、図9のBの撮影画像131においては、対象者500が椅子800の座面上に座ることで、対象者500に椅子800が隠れてしまい、椅子800の画像が撮影画像131上に現れなくなることで、椅子800が物体領域810として検出されなくなっている。これにより、物体領域810が表示されていない。従って、図9のBの撮影画像131のみによって、対象者500の行動を推定すると、対象者500が椅子800に座っているという正確な行動を推定できない。なお、この場合、対象者500が床の上に座る行動(床座位)をしたという、誤った推定がされ得る。
本実施形態においては、撮影画像131の複数のフレームからそれぞれ検出された関節点510の位置および物体領域810に基づいて、関節点510の位置と物体領域の時間の経過に伴う変化から、対象者500の行動を推定する。具体的には、検出されていた所定の物体(例えば、椅子800)が撮影画像131上に現れなくなることで物体領域810が消滅した場合、当該物体領域810が対象者500等により隠れたと推定して、消滅する前のフレームの撮影画像131において検出されていた所定の物体の物体領域810を、消滅した後のフレームの撮影画像131における物体領域810として適用する。これにより、例えば、図9のAの撮影画像131における椅子800の物体領域810が図のBの撮影画像131における物体領域810として適用される。従って、図9のBの撮影画像131において、対象者500の関節点510のうち所定の関節点510である腰の関節点510a、510bが椅子800の物体領域810の内部に含まれた状態となるため、対象者500が椅子800に座ったという行動が正確に検出される。
本実施形態は、第2実施形態のように、関節点510の位置から対象者500の姿勢を推定し、対象者500の関節点510の位置、対象者500の姿勢、および物体領域810に基づいて対象者500の行動を推定する場合に好適に適用される。例えば、時間的に比較的隣接する複数のフレームにおいて、時間的に前のフレームの撮影画像131に基づいて対象者500の関節点510から立位の姿勢が推定され、後のフレームの撮影画像131に基づいて対象者500の関節点510から座位の姿勢が推定されたとする。そして、両方のフレームの撮影画像131において、椅子800等の物体領域810が検出されていないとする。この場合は、椅子800等の物体領域810が対象者500等により隠れたとは推定されないため、対象者500が床上で転倒したという行動を適切に検出し得る。
図10は、検出部100の動作を示すフローチャートである。
制御部110は、撮影画像131を取得し(S301)、撮影画像131から人物領域520と物体領域810を検出する(S302)。
制御部110は、人物領域520に基づいて対象者500の関節点510の位置を推定する(S303)。
制御部110は、対象者500の所定の関節点510の位置と物体領域810の時間の経過に伴う変化に基づいて、対象者500の行動を推定する(S304)。
(第4実施形態)
第4実施形態について説明する。本実施形態と第1実施形態とで異なる点は次の点である。第1実施形態は、撮影画像131全体から人物領域520と物体領域810を検出する。一方、本実施形態は、撮影画像131全体から人物領域520を検出し、人物領域520に基づいて、人物領域520を含み、人物領域520より大きい候補領域530(図12参照)を設定し、候補領域530から物体領域810を検出する点である。これ以外の点に関しては、本実施形態は第1実施形態と同様であるため、重複となる説明は省略または簡略化する。
図11は、領域検出部212の機能ブロック図である。領域検出部212は、候補領域設定部212aと詳細領域検出部212bを有する。図12は、候補領域530を説明するための説明図である。
候補領域設定部212aは、撮影画像131から人物領域520を検出し、人物領域520に基づいて候補領域530を設定する。候補領域設定部212aは、撮影画像131から人物領域520を検出するための辞書が反映されたDNNにより、撮影画像131から人物領域520を検出し得る。
候補領域設定部212aは、人物領域520を包含し、撮影画像131より小さく、人物領域520より大きい領域として候補領域530を設定する。候補領域530は、例えば、人物領域520の重心を中心とする、所定の大きさおよび所定のアスペクト比を有する矩形領域とし得る。所定の大きさおよび所定のアスペクト比は、実験により任意の適当な値に設定し得る。
詳細領域検出部212bは、候補領域530から人物領域520および物体領域810を検出する。詳細領域検出部212bは、候補領域530(撮影画像の一部)から人物領域520および物体領域810を検出するための辞書が反映されたDNNにより、候補領域530から人物領域520および物体領域810を検出し得る。候補領域530は撮影画像131よりも小さいため、物体領域810の検出範囲を縮小できる。これにより、人物領域520および物体領域810の検出に要するトータルの検出時間を短縮できる。なお、物体領域810の検出範囲が候補領域530に限定されるため、物体領域810として検出される所定の物体は、人物領域520に比較的近いもののみとなる。
なお、詳細領域検出部212bは、物体領域810のみを検出するようにしてもよい。この場合、人物領域520は、候補領域設定部212aによる人物領域520の検出結果を利用し得る。
図13は、検出部100の動作を示すフローチャートである。
制御部110は、撮影画像131を取得し(S401)、撮影画像131から人物領域520を検出する(S402)。
制御部110は、人物領域520に基づいて候補領域530を設定する(S403)。
制御部110は、候補領域530から人物領域520と物体領域810を検出する(S404)。
制御部110は、人物領域520に基づいて、対象者500の関節点510の位置を推定する(S405)。
制御部110は、関節点510の位置と物体領域810に基づいて、対象者500の行動を推定する(S406)。
(変形例)
上述した実施形態では、対象者500が介護または看護が必要な者等で、対象者500の居室の天井等に配設された検出部100のカメラ130により撮影された撮影画像131に基づいて対象者500の行動を検出する。そして、検出された行動が所定の行動の場合にイベント通知を携帯端末300へ送信することで、イベントの発生を発報する。
一方、本変形例では、カメラ130をコンビニエンスストアの天井等に配設し、カメラ130による撮影画像131に基づいて、コンビニエンスストア等の客の行動を検出する。この場合、人物領域520は顧客の画像を含む領域として検出され、物体領域810は、商品棚に陳列された所定の商品をそれぞれ含む領域として検出される。そして、対象者500である顧客の行動として、例えば、5番棚の最上段に置かれた酒類を手に取る行動、5番棚の第2段に置かれたシャンプーを手に取る行動、および5番棚に向かって立ち止まっている行動等が検出される。このような対象者500の行動は、マーケティング情報として、商品の配置替えや、棚のレイアウト変更等に利用され得る。
本発明に係る実施形態は、以下の効果を奏する。
撮影した画像から人物を含む人物領域と所定の物体を含む物体領域を検出し、人物領域から推定した関節点の位置と物体領域とに基づいて人物の行動を推定する。これにより、人物の行動を高精度に推定できる。
さらに、推定された関節点の位置に基づいて人物の姿勢を推定し、関節点の位置と、姿勢と、物体領域と、に基づいて人物の行動を推定する。これにより、人物の行動をさらに高精度に推定できる。
さらに、画像から人物領域および物体領域を検出するための辞書が反映されたニューラルネットワークにより、画像から人物領域と物体領域とを検出する。これにより、簡単かつ高速に人物の行動を推定できるとともに、推定精度をさらに向上できる。
さらに、画像から人物領域を検出し、当該人物領域を包含し、当該画像より小さく、当該人物領域より大きい領域として候補領域を設定し、候補領域から、人物領域および物体領域を検出する。これにより、候補領域の検出範囲を縮小することで、高速かつ高精度に人物の行動を推定できる。
さらに、推定された関節点の位置の中の所定の関節点の位置と、物体領域との位置関係に基づいて行動を推定する。これにより、より簡単かつ高精度に人物の行動を推定できる。
さらに、関節点の位置と、物体領域との関係の、時間の経過に伴う変化に基づいて人物の行動を推定する。これにより、所定の物体が人物に隠れるような場合であっても、高精度に人物の行動を推定できる。
さらに、関節点の位置と、姿勢と、物体領域との関係の、時間の経過に伴う変化に基づいて行動を推定する。これにより、時間的に隣接する撮影画像に基づく対象者の状態の変化を検出することで、転倒等の重要度の高い対象者の行動をより高精度に検出できる。
さらに、推定された行動が所定の行動である場合に発報部に発報させるための情報を出力する。これにより、イベント発生時等に簡単かつ速やかにイベントの発生を連絡できる。
以上に説明した画像処理システムの構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な画像処理システムが備える構成を排除するものではない。
例えば、検出部が有する機能の一部を、携帯端末が備えるようにしてもよい。
また、画像認識装置、撮影装置、および携帯端末は、それぞれ複数の装置により構成されてもよく、いずれか複数の装置が単一の装置として構成されてもよい。
また、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、上述した実施形態においては、人物の行動を検出するものとして説明したが、行動の検出対象は動物であってもよい。
また、上述した画像処理システムにおける各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
10 画像処理システム、
100 検出部、
110 制御部、
111 画像取得部、
112 領域検出部、
112a 候補領域設定部、
112b 詳細領域検出部、
113 関節点推定部、
114 姿勢推定部、
115 行動推定部、
116 発報情報出力部、
120 通信部、
130 カメラ、
140 体動センサー、
200 通信ネットワーク、
210 アクセスポイント、
300 携帯端末、
500 対象者、
510 関節点、
510a、510b 所定の関節点、
700 ベッド、
710 物体領域、
800 椅子、
810 物体領域。

Claims (9)

  1. 撮影された画像を取得する手順(a)と、
    前記手順(a)において取得された前記画像から、人物を含む人物領域と、所定の物体を含む物体領域と、を検出する手順(b)と、
    前記手順(b)において検出された前記人物領域に基づいて前記人物の関節点の位置を推定する手順(c)と、
    前記手順(c)において推定された前記関節点の位置と、前記手順(b)において検出された前記物体領域と、に基づいて前記人物の行動を推定する手順(d)と、
    を有する処理をコンピューターに実行させる画像処理プログラム。
  2. 前記処理は、前記手順(c)において推定された前記関節点の位置に基づいて前記人物の姿勢を推定する手順(e)をさらに有し、
    前記手順(d)は、前記手順(c)において推定された前記関節点の位置と、前記手順(e)において推定された前記姿勢と、前記手順(b)において検出された前記物体領域と、に基づいて前記人物の行動を推定する、請求項1に記載の画像処理プログラム。
  3. 前記手順(b)は、前記画像から前記人物領域および前記物体領域を検出するための辞書が反映されたニューラルネットワークにより、前記画像から、前記人物領域と前記物体領域とを検出する、請求項1または2に記載の画像処理プログラム。
  4. 前記手順(b)は、
    前記画像から前記人物領域を検出する手順(b1)と、
    前記手順(b1)において検出された前記人物領域を包含し、前記画像より小さく、前記人物領域より大きい領域として設定された候補領域から、前記人物領域および前記物体領域を検出する手順(b2)と、
    を有する、請求項1〜3のいずれか一項に記載の画像処理プログラム。
  5. 前記手順(d)は、前記手順(c)において推定された前記関節点の位置の中の所定の関節点の位置と、前記手順(b)において検出された前記物体領域との位置関係に基づいて前記行動を推定する、請求項1に記載の画像処理プログラム。
  6. 前記手順(d)は、前記手順(c)において推定された前記関節点の位置と、前記手順(b)において検出された前記物体領域との関係の、時間の経過に伴う変化に基づいて前記行動を推定する、請求項1に記載の画像処理プログラム。
  7. 前記手順(d)は、前記手順(c)において推定された前記関節点の位置と、前記手順(e)において推定された前記姿勢と、前記手順(b)において検出された前記物体領域との関係の、時間の経過に伴う変化に基づいて前記行動を推定する、請求項2に記載の画像処理プログラム。
  8. 前記処理は、前記手順(d)において推定された前記行動が所定の行動である場合に発報部に発報させるための情報を出力する手順(f)をさらに有する、請求項1〜7のいずれか一項に記載の画像処理プログラム。
  9. 撮影された画像を取得する取得部と、
    取得された前記画像から、人物を含む人物領域と、所定の物体を含む物体領域と、を検出する検出部と、
    検出された前記人物領域に基づいて人物の関節点の位置を推定する関節点推定部と、
    推定された前記関節点の位置と、検出された前記物体領域と、に基づいて人物の行動を推定する行動推定部と、
    を有する画像処理装置。
JP2018219075A 2018-11-22 2018-11-22 画像処理プログラムおよび画像処理装置 Active JP7271915B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018219075A JP7271915B2 (ja) 2018-11-22 2018-11-22 画像処理プログラムおよび画像処理装置
EP19204847.8A EP3657513A1 (en) 2018-11-22 2019-10-23 Image processing program and image processer
US16/669,846 US11170522B2 (en) 2018-11-22 2019-10-31 Storage medium storing image processing program, and image processor
CN201911125731.8A CN111212220B9 (zh) 2018-11-22 2019-11-18 保存有图像处理程序的记录介质以及图像处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219075A JP7271915B2 (ja) 2018-11-22 2018-11-22 画像処理プログラムおよび画像処理装置

Publications (2)

Publication Number Publication Date
JP2020086819A true JP2020086819A (ja) 2020-06-04
JP7271915B2 JP7271915B2 (ja) 2023-05-12

Family

ID=68342642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219075A Active JP7271915B2 (ja) 2018-11-22 2018-11-22 画像処理プログラムおよび画像処理装置

Country Status (4)

Country Link
US (1) US11170522B2 (ja)
EP (1) EP3657513A1 (ja)
JP (1) JP7271915B2 (ja)
CN (1) CN111212220B9 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053526A (zh) * 2020-09-29 2020-12-08 上海振华重工(集团)股份有限公司 一种监控***及监控方法
WO2023105726A1 (ja) * 2021-12-09 2023-06-15 ファナック株式会社 作業分析装置
WO2023195305A1 (ja) * 2022-04-08 2023-10-12 コニカミノルタ株式会社 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム
JP7408731B1 (ja) 2022-07-06 2024-01-05 東芝テリー株式会社 行動検知方法、行動検知装置、行動検知システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7271915B2 (ja) * 2018-11-22 2023-05-12 コニカミノルタ株式会社 画像処理プログラムおよび画像処理装置
EP3985606A4 (en) * 2019-06-13 2022-06-15 Nec Corporation DEVICE AND METHOD OF TREATMENT, AND PROGRAM
US11288841B2 (en) * 2019-10-17 2022-03-29 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for patient positioning
JP2021149446A (ja) * 2020-03-18 2021-09-27 株式会社日立製作所 注視物体認識システム及び方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176227A (ja) * 2014-03-13 2015-10-05 富士通株式会社 監視方法、監視装置および監視プログラム
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
WO2018163555A1 (ja) * 2017-03-07 2018-09-13 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56101561A (en) 1980-01-17 1981-08-14 Shinko Electric Co Ltd Sliding detecting circuit requiring no clamp in low speed area
JP5771778B2 (ja) * 2010-06-30 2015-09-02 パナソニックIpマネジメント株式会社 監視装置、プログラム
US9934427B2 (en) * 2010-09-23 2018-04-03 Stryker Corporation Video monitoring system
CN103679125B (zh) * 2012-09-24 2016-12-21 致伸科技股份有限公司 人脸追踪的方法
JP6172934B2 (ja) * 2012-12-27 2017-08-02 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
WO2014115817A1 (ja) * 2013-01-23 2014-07-31 株式会社東芝 動作情報処理装置
JP6115335B2 (ja) * 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
US20180174320A1 (en) * 2015-03-06 2018-06-21 Konica Minolta, Inc. Posture Detection Device and Posture Detection Method
WO2016181837A1 (ja) 2015-05-08 2016-11-17 コニカミノルタ株式会社 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP2017084194A (ja) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2017127593A (ja) * 2016-01-22 2017-07-27 株式会社リコー 活動量測定システム、活動量測定方法、プログラム
US10360572B2 (en) * 2016-03-07 2019-07-23 Ricoh Company, Ltd. Image processing system, method and computer program product for evaluating level of interest based on direction of human action
JP6942940B2 (ja) * 2016-03-14 2021-09-29 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN105913528B (zh) * 2016-05-25 2019-06-25 腾讯科技(深圳)有限公司 门禁控制数据处理方法和装置、门禁控制方法和装置
JP2018057596A (ja) * 2016-10-05 2018-04-12 コニカミノルタ株式会社 関節位置推定装置および関節位置推定プログラム
JP2018084951A (ja) * 2016-11-24 2018-05-31 株式会社日立製作所 行動解析装置及び行動解析方法
CN110651298B (zh) * 2017-05-12 2023-07-25 富士通株式会社 距离图像处理装置以及距离图像处理***
JP6648769B2 (ja) * 2018-01-12 2020-02-14 日本電気株式会社 顔認証装置
JP7271915B2 (ja) * 2018-11-22 2023-05-12 コニカミノルタ株式会社 画像処理プログラムおよび画像処理装置
JP7196645B2 (ja) * 2019-01-31 2022-12-27 コニカミノルタ株式会社 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176227A (ja) * 2014-03-13 2015-10-05 富士通株式会社 監視方法、監視装置および監視プログラム
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
WO2018163555A1 (ja) * 2017-03-07 2018-09-13 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
工藤 康統 外2名: "Convolutional Neural Networksを用いた人物周辺の環境を考慮した行動認識", 電子情報通信学会技術研究報告, vol. 第115巻 第516号, JPN6022027702, 17 March 2016 (2016-03-17), JP, pages 161 - 166, ISSN: 0004817300 *
番原 常公 外4名: "画像による物体検出を用いた飲食行動認識の検討", 電子情報通信学会技術研究報告, vol. 第116巻 第462号, JPN6022027704, 11 February 2017 (2017-02-11), JP, pages 95 - 98, ISSN: 0004817301 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053526A (zh) * 2020-09-29 2020-12-08 上海振华重工(集团)股份有限公司 一种监控***及监控方法
WO2023105726A1 (ja) * 2021-12-09 2023-06-15 ファナック株式会社 作業分析装置
WO2023195305A1 (ja) * 2022-04-08 2023-10-12 コニカミノルタ株式会社 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム
JP7408731B1 (ja) 2022-07-06 2024-01-05 東芝テリー株式会社 行動検知方法、行動検知装置、行動検知システム

Also Published As

Publication number Publication date
CN111212220A (zh) 2020-05-29
US11170522B2 (en) 2021-11-09
JP7271915B2 (ja) 2023-05-12
CN111212220B9 (zh) 2022-04-12
CN111212220B (zh) 2022-03-15
US20200167947A1 (en) 2020-05-28
EP3657513A1 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
JP7271915B2 (ja) 画像処理プログラムおよび画像処理装置
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
JP6086468B2 (ja) 被写体見守りシステム
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
JP2018082745A (ja) 姿勢判定装置及び通報システム
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7351339B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
CN112287821B (zh) 照护对象行为监测方法、装置、计算机设备和存储介质
JP2020134971A (ja) 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP7500929B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7388440B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2020052808A (ja) 見守り装置、見守りシステム、見守りプログラム、および見守り方法
JP2023075559A (ja) 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
JP2019204366A (ja) 行動監視装置及び行動監視方法
JP7268387B2 (ja) 見守り装置および見守り装置用プログラム
JP2024093174A (ja) 自傷行為検出装置、自傷行為検出システム、自傷行為検出プログラム、および自傷行為検出方法
JP2024093173A (ja) 画像処理装置、画像処理システム、画像処理プログラム、および画像処理方法
JP2023051147A (ja) ナースコールシステム、および状態判断システム
JP2023121234A (ja) 補正システム、補正方法、および補正プログラム
JP2021197072A (ja) 制御プログラム、演算装置、制御システム、および制御方法
JP2023025761A (ja) 見守りシステム、見守り装置、見守り方法、および見守りプログラム
JP2023051150A (ja) ナースコールシステム、および状態判断システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230301

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230309

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R150 Certificate of patent or registration of utility model

Ref document number: 7271915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150