JP7392851B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7392851B2
JP7392851B2 JP2022528482A JP2022528482A JP7392851B2 JP 7392851 B2 JP7392851 B2 JP 7392851B2 JP 2022528482 A JP2022528482 A JP 2022528482A JP 2022528482 A JP2022528482 A JP 2022528482A JP 7392851 B2 JP7392851 B2 JP 7392851B2
Authority
JP
Japan
Prior art keywords
image processing
distance
person
image
reference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022528482A
Other languages
English (en)
Other versions
JPWO2021246079A5 (ja
JPWO2021246079A1 (ja
Inventor
学 中野
祥治 西村
美孝 日下田
陽太郎 野田
茂樹 篠田
裕三 仙田
慎 冨永
真澄 石川
大典 生藤
香菜 瀧澤
健一 石井
義之 佐藤
英司 有田
翔大 山本
晋哉 山崎
功充 納富
有紀 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021246079A1 publication Critical patent/JPWO2021246079A1/ja
Publication of JPWO2021246079A5 publication Critical patent/JPWO2021246079A5/ja
Application granted granted Critical
Publication of JP7392851B2 publication Critical patent/JP7392851B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
近年は様々な目的で画像処理が用いられている。例えば特許文献1には、空間内の環境を調整して第1対象者からの飛沫の到達範囲が第2対象者の呼吸域から外れるようにするシステムにおいて、第1対象者及び第2対象者の顔の位置及び向きを画像処理によって決定することが記載されている。
国際公開第2020/044826号
感染症にかかるリスクを減らすためには、感染症にかかる可能性がある場所を避けることが重要である。しかし、そのような場所を把握することは難しい。本発明の目的の一つは、感染症にかかる可能性がある場所を把握しやすくすることにある。
本発明によれば、少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理手段と、
前記要注意場所を示す情報を出力する出力手段と、
を備える画像処理装置が提供される。
本発明によれば、コンピュータが、
少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理と、
前記要注意場所を示す情報を出力する出力処理と、
を行う画像処理方法が提供される。
本発明によれば、コンピュータに、
少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理機能と、
前記要注意場所を示す情報を出力する出力機能と、
を持たせるプログラムが提供される。
本発明によれば、感染症にかかる可能性がある場所を把握しやすくなる。
実施形態に係る画像処理装置の使用環境を説明するための図である。 画像処理装置の機能構成の一例を示す図である。 記憶部が記憶している情報の一例を示す図である。 画像処理装置のハードウェア構成例を示す図である。 画像処理装置が行う処理の第1例を示すフローチャートである。 図5のステップS20で行われる第1距離の算出方法の一例を示す図である。 図5のステップS40において表示部に表示される画像の第1例を示す図である。 図5のステップS40において表示部に表示される画像の第1例を示す図である。 画像処理装置が行う処理の第2例を示すフローチャートである。 画像処理装置が行う処理の第3例を示すフローチャートである。 画像処理装置が行う処理の第4例を示すフローチャートである。 図11のステップS140で表示部に表示される画面の一例を示している。 画像処理装置が行う処理の第5例を示すフローチャートである。 画像処理装置が行う処理の第6例を示すフローチャートである。 表示部に表示される現在の感染リスク情報を示す図である。 表示部に表示される将来の感染リスク情報を示す図である。 図5のステップS40において表示部に表示される画像の第2例を示す図である。 図5のステップS40において表示部に表示される画像の第2例を示す図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
図1は、実施形態に係る画像処理装置10の使用環境を説明するための図である。画像処理装置10は撮像装置20とともに使用される。
撮像装置20は例えば固定カメラであり、複数の人、例えば不特定多数の人が往来する領域(以下、対象領域と記載)を繰り返し撮影する。このため、撮像装置20が生成する画像は複数の人を含んでいる。撮像装置20が生成する画像のフレームレートは任意であるが、例えば動画を構成するようなフレームレートであってもよい。そして撮像装置20は、生成した画像を画像処理装置10に送信する。
画像処理装置10は、撮像装置20が生成した画像を処理することにより、対象領域にいる人の間隔、すなわちある人(以下、基準となる人と記載)と、その人に最も近い人の距離(以下、第1距離と記載)を算出する。そして画像処理装置10は、この第1距離を用いて、対象領域において感染症にかかるリスク又は感染症にかからない安全率に関する情報(以下、感染リスク情報)を生成する。
図1に示す例において、画像処理装置10は一つの撮像装置20に接続している。ただし画像処理装置10は複数の撮像装置20に接続していてもよい。この場合、複数の撮像装置20は互いに異なる対象領域を撮像している。また、複数の撮像装置20のそれぞれは、当該撮像装置20を識別する情報(以下、撮像装置識別情報と記載)に紐づけて画像を外部に送信する。このようにすると、複数、例えば100か所以上の多数の対象領域のそれぞれについて、感染リスク情報を容易に生成することができる。
図2は、画像処理装置10の機能構成の一例を示す図である。本図に示す画像処理装置10は、画像処理部110及びリスク情報生成部120を備えている。
画像処理部110は、撮像装置20が生成した画像、すなわち複数の人を含む画像を取得して処理する。一例として、画像処理部110は、複数の人の少なくとも一部の人を上記した基準となる人として、上記した第1距離を算出する。第1距離の算出方法の具体例については後述する。
さらに画像処理部110は、必要に応じて画像に対してその他の処理も行い、様々な情報を生成する。
なお、画像処理装置10が複数の撮像装置20に接続している場合、画像処理部110は、画像を、その画像を生成した撮像装置20の撮像装置識別情報に紐づけて取得する。
リスク情報生成部120は、第1距離を用いて、撮像装置20の撮影対象となっている対象領域における感染リスク情報を生成する。一例として、リスク情報生成部120は、第1距離が基準値以下であるか否かを判断し、当該判断結果を用いて感染リスク情報を生成する。この基準値は、いわゆる社会的距離に基づいて定められる。社会的距離は、感染症の感染を防ぐために、隣り合う人の間で保たれるべき物理的距離である。そして基準値の大きさは、対象としている感染症の主な感染経路に基づいて設定される。例えば飛沫感染が主となる感染症に対し、基準値には1.5m以上6m以下の値が用いられる。また、接触感染が主となる感染症については、基準値には50cm以上1.5m以下の値が用いられる。
なお、感染リスク情報は、例えば対象領域において感染症にかかるリスク又は感染症にかからない安全率そのものを示している。この場合、上記した判断結果から感染リスク情報を生成する方法としては、例えば以下の方法がある。
(方法1)リスク情報生成部120は、第1距離が基準値以下になった人の組み合わせの、数を画像毎に算出し、この数が多くなるにつれて感染リスク情報が示すリスクを高める。この方法を用いると、リスク情報生成部120は、画像毎に感染リスク情報を生成することができる。
(方法2)リスク情報生成部120は、第1距離が基準値以下になった人の組み合わせの、単位時間あたりの発生量を算出し、この発生量が多くなるにつれて感染リスク情報が示すリスクを高める。この方法において、リスク情報生成部120は、異なるタイミングで生成された複数の画像の処理結果を用いる。
(方法3)方法2において、リスク情報生成部120は、単位時間あたりかつ単位面積あたりの発生量を用いる。
なお、上記した各方法において、画像処理部110は、時間的に連続する複数の画像を処理すると、第1距離が基準値以下になった状態が継続した時間を算出できる。リスク情報生成部120は、この継続した時間の長さが長くなるにつれて、感染リスク情報が示すリスクを高めてもよい。
なお、第1距離を用いずに感染リスク情報を生成する方法もある。例えば、リスク情報生成部120は、対象領域における単位面積当たりの人の密度を算出し、この密度が多くなるにつれて感染リスク情報が示すリスクを高めてもよい。
またリスク情報生成部120は、第1距離が基準値以下になったことそのものを、感染リスク情報として用いてもよい。
また画像処理部110は、撮像装置20が生成した画像を記憶部150に記憶させる。ここで画像処理部110は、画像を処理することによって生成した情報を、当該画像に紐づけて記憶部150に記憶させてもよい。なお、本図に示す例において、記憶部150は画像処理装置10の一部となっている。ただし、記憶部150は画像処理装置10の外部の装置であってもよい。
画像処理部110は、記憶部150に記憶されている画像を処理することにより、上記した情報を生成してもよい。この場合、撮像装置20が生成した画像をいったん記憶部150に記憶させた後、所望するタイミングで記憶部150から読み出して処理することができる。なお、記憶部150の有無にかかわらず、画像処理部110は、撮像装置20が生成した画像を撮像装置20から取得し、リアルタイムで処理することができる。
図2に示す画像処理装置10は、さらに表示制御部130を備えている。表示制御部130は、第1距離が基準値以下である人の組み合わせ、すなわち基準となる人とその人に最も近い人の組み合わせを認識させるための表示を、処理対象となった画像に重ねたうえで、この表示及び画像を表示部140に表示させる。表示部140はディスプレイを有している。本図に示す例において、表示部140は画像処理装置10の一部であるが、画像処理装置10の外部にあってもよい。
図3は、記憶部150が記憶している情報の一例を示す図である。本図に示す例において、記憶部150は、撮像装置20が生成した画像(図3においては画像データと記載)を、その画像が生成された日時を特定する情報(例えば日時そのもの又はフレーム番号)に紐づけて記憶している。また記憶部150は、撮像装置20が生成した画像を、その画像を処理することによって得られた情報(図3においては解析結果と記載)とともに記憶している。なお、この解析結果は感染リスク情報を含んでいてもよい。
図4は、画像処理装置10のハードウェア構成例を示す図である。画像処理装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は画像処理装置10の各機能(例えば画像処理部110、リスク情報生成部120、及び表示制御部130)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は記憶部150としても機能する。
入出力インタフェース1050は、画像処理装置10と各種入出力機器とを接続するためのインタフェースである。
ネットワークインタフェース1060は、画像処理装置10をネットワークに接続するためのインタフェースである。このネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。画像処理装置10は、ネットワークインタフェース1060を介して撮像装置20と通信してもよい。
図5は、画像処理装置10が行う処理の第1例を示すフローチャートである。まず画像処理装置10の画像処理部110は、処理対象となる画像を取得する(ステップS10)。そして画像処理部110は、この画像を処理し、画像内に含まれる人毎に、上記した第1距離を算出する(ステップS20)。この算出において、画像処理部110は、画像内における、距離の算出対象となっている人の高さ、位置、及びその画像を生成した撮像装置20の上下方向の向きを用いて、第1距離を算出する。この際、詳細を後述するように、画像処理部110は、人の身長としてあらかじめ設定されている値(以下、基準身長と記載)を用いる。
次いでリスク情報生成部120は、ステップS20で生成された第1距離を用いて、感染リスク情報を生成する。感染リスク情報の生成方法の例は、図2を用いて説明した通りである(ステップS30)。
そして表示制御部130は、生成した感染リスク情報を表示部140に表示させる。この際、表示制御部130は、感染リスク情報とともに、その感染リスク情報を生成するときに用いた画像(動画の場合もある)を表示させてもよい(ステップS40)。ここで表示される画像の例については、後述する。
図6は、図5のステップS20で行われる第1距離の算出方法の一例を示す図である。画像処理部110は、基準となる人を特定する。そして、その人の周囲に位置する人のそれぞれに対して、本図に示す処理を行う。
まず画像処理部110は、基準となる人、又はその人の周囲に位置する人の画像内における高さtを算出する。ここでは、例えば画素数で表される。次いで画像処理部110は、基準となる人から周囲に位置する人までの画像内における距離dを算出する。ここでdは、tと同じ単位(例えば画素数)で表される。次いで画像処理部110は、d/tを算出し、この値に上記した基準身長を乗ずることにより、基準となる人とその周囲に位置する人の距離を算出する。
基準となる人の周囲に他の人が一人しかいない場合、その人について算出された距離が第1距離になる。またほかの人が複数いた場合、これら複数の人それぞれについて上記した距離を算出し、その距離の最小値が第1距離になる。
なお、上記したように、基準身長は予め設定されている。撮像装置20が設置されている場所(例えば国)によって、この基準身長を変えてもよい。例えば基準身長は、対象となっている撮像装置20が設置されている国の成人の平均身長が用いられる。具体的な処理の例として、記憶部150は、基準身長を特定する情報を撮像装置識別情報別に記憶している。そして画像処理部110は、処理対象となっている画像を生成した撮像装置20の撮像装置識別情報を取得し、この撮像装置識別情報に対応する基準身長を記憶部150から読み出して使用する。
また画像処理部110は、画像処理によって高さtの算出対象となった人の属性(例えば性別及び年齢層の少なくとも一方)が推定できた場合、この属性によって基準身長を変更してもよい。
なお、ほとんどの画像には、その画像を生成した撮像装置20に固有の歪が生じている。画像処理部110は、第1距離を算出する際、この歪を補正する処理を行うのが好ましい。画像処理部110は、画像内における人の位置に応じたひずみ補正処理を行う。一般的に、画像の歪は、例えば撮像装置20が有する光学系(例えばレンズ)、及びその撮像装置20の上下方向の向き(例えば水平面に対する角度)に起因している。そこで画像内における人の位置に応じたひずみ補正処理の内容は、撮像装置20が有する光学系(例えばレンズ)、及びその撮像装置20の上下方向の向きに応じて設定される。
なお、本図を用いて説明した処理において、大きさがある程度規格化されている物体が画像に含まれていた場合、画像処理部110は、人の身長の代わりにこの物体の大きさを用いて第1距離を算出してもよい。
図7は、図5のステップS40において表示部140に表示される画像の一例を示す図である。表示制御部130は、表示部140に、感染リスク情報とともに、感染リスク情報を生成するときに用いた画像(動画の場合もある)を表示させる。この際、表示制御部130は、第1距離が基準値以下である人の組み合わせを認識させるための表示を画像に重ねたうえで、その表示及び画像を、表示部140に表示させる。
本図に示す例において、表示制御部130は、表示部140に、画像処理部110が認識した人の組み合わせを示すマークを表示させている。そして表示制御部130は、このマークの態様を、第1距離が基準値以下であるか否かで変えている。より詳細には、本図に示す例において、人の組み合わせを構成する二人は、円又は楕円で囲まれている。そしてこの円又は楕円の表示色や線の態様(実線、点線、及び一点鎖線など)が、第1距離が基準値以下であるか否かで変わっている。
なお、表示される画像が動画の場合、図7及び図8に示すように、時間が経過するにつれて、第1距離の算出対象となる人の組み合わせが変わる。例えば図7のタイミングにおいて、人Pにとって、人Pが第1距離を算出するときの相手になっているが、それより後の図8のタイミングでは、人Pが第1距離を算出するときの相手になっている。
図17及び図18は、図5のステップS40において表示部140に表示される画像の第2例を示す図である。これらの図において、表示制御部130は、人ごとに、当該人を中心とした社会的距離の推奨値(例えば上記した基準値)の範囲を示すマークを表示させる。そしてある人に対応するマークとその近くの人に対応するマークとが重なった場合、すなわちある人とその近くの人の距離が社会的距離の推奨値以下になった場合(例えば図17、図18の人P,P)、これら2人それぞれに対応するマークを、他の人に対応するマーク(例えば図17の人P、図18の人P,P4,,P)とは異なる態様で表示させる。態様の異ならせ方は、例えば表示色を変えたり、マークを構成する線の態様(実線、点線、及び一点鎖線など)を異ならせるなどである。表示制御部130は、表示色を変える場合、例えば通常の状態のマークを青色で表示し、2つのマークが重なっている場合はこれら2つのマークを赤色で表示させる。
図17に示す例では、表示制御部130は、感染リスク情報を生成するときに用いた画像(動画の場合もある)に、上記したマークを重ねている。一方、図18に示す例では、人の配置を平面図で示したうえで、当該平面図に上記したマークを重ねている。表示制御部130は、図17に示す表示及び図18に示す表示を、同時に表示部140に表示させてもよい。
図7、図8、図17、及び図18に示す表示は、リアルタイムの動画や画像を用いて行われてもよい。この場合、これらに示した表示は、例えば対象領域の近くに設置された表示部140に対して行われてもよいし、インターネットや放送のコンテンツとして用いられてもよい。
図9は、画像処理装置10が行う処理の第2例を示すフローチャートである。本図に示す例は、画像処理部110が第1距離を算出するときに第2距離も算出し(ステップS22)、この第2距離をさらに用いて感染リスク情報を生成する(ステップS30)点を除いて、図5に示した例と同様である。
第2距離は、基準となる人と、その人から2番目に近い人までの距離である。第2距離の算出方法は、1番目ではなく2番目に近い人までの距離を選択する点を除いて、第1距離の算出方法と同様である。そしてリスク情報生成部120は、感染リスク情報を生成する際に、第2距離が近くなるにつれて、リスクが高まる(安全率が下がる)ようにする。なお、画像処理部110は、基準となる人と、その人から3番目に近い人までの距離(第3距離)をさらに生成してもよい。この場合、リスク情報生成部120は、さらに第3距離を用いて感染リスク情報を生成する。
図10は、画像処理装置10が行う処理の第3例を示すフローチャートである。本図に示す例は、リスク情報生成部120が、感染リスク情報を生成する際に、人と人の間の距離以外の情報をさらに用いる点を除いて、図5又は図9に示した例と同様である。
具体的には、ステップS10及びステップS20(又はステップS22)は、図5(又は図9)に示した例と同様である。そして画像処理部110は、画像を処理することにより、感染リスク情報を生成するために必要な、追加の情報を生成する。ここで生成される情報は、人の顔の向きの特定結果、顔への装着物の有無及びその種類の特定結果、並びに人の口の動きの特定結果の少なくとも一つである(ステップS24)。
「人の顔の向き」は、少なくとも、基準となる人の顔の向きと、その人に最も近い人の顔の向きと、の少なくとも一方を含んでいる。そしてリスク情報生成部120は、人の顔が相手に対向する方向に近づくにつれて、感染リスク情報が示すリスクを高める(安全率を下げる)。ここで画像処理部110及びリスク情報生成部120は、第2距離や第3距離を用いる場合、さらに第2距離を算出するときの相手となる人の顔の向きや、第3距離を算出するときの相手となる人の顔の向きを用いてもよい。
「顔への装着物の有無」は、少なくとも、基準となる人における装着物の有無と、その人に最も近い人における装着物の有無と、の少なくとも一方を含んでいる。そしてリスク情報生成部120は、特定の種類の装着物が検知された場合、それ以外の場合と比較して、感染リスク情報が示すリスクを下げる(安全率を上げる)。ここで特定の種類の装着物は、口及び鼻の少なくとも一方(好ましくは双方)を覆うもの、例えばマスクやマフラーである。ここで画像処理部110及びリスク情報生成部120は、第2距離や第3距離を用いる場合、さらに第2距離を算出するときの相手となる人や、第3距離を算出するときの相手となる人に対して、同様のことを行ってもよい。
「口の動き」は、少なくとも口が動いていることである。口が動いている場合、その人は話している可能性が高い。そこでリスク情報生成部120は、基準となる人と、その人に最も近い人と、の少なくとも一方において口が動いている場合、それ以外の場合と比較して、感染リスク情報が示すリスクを高める(安全率を下げる)。ここで画像処理部110及びリスク情報生成部120は、第2距離や第3距離を用いる場合、さらに第2距離を算出するときの相手となる人の口の動きや、第3距離を算出するときの相手となる人の口の動きを用いてもよい。
図11は、画像処理装置10が行う処理の第4例を示すフローチャートである。画像処理装置10は、図5、図9、又は図10に示した処理に加えて、本図に示した処理も行う。
本図に示す例において、撮像装置20は固定カメラである。このため、画像内の各位置は、対象領域の特定の位置に対応している。画像処理部110は、この対応関係を予め記憶している。そして、画像処理部110は、複数の人の近接状態に関する指標である近接指標が基準を満たした場所(以下、要注意場所と記載)を特定する。そしてリスク情報生成部120(出力部の一例)は、要注意場所を示す情報を出力する。
より詳細には、画像処理装置10の画像処理部110は、図5及び図10のステップS20、又は図9のステップS22において、画像内における第1距離が基準値以下となった位置を特定することにより、対象領域のうち第1距離が基準値以下となった位置を特定する。そして、画像処理部110は、処理された画像に紐づけて、当該位置を示す情報を記憶部150に記憶させる。
そして画像処理装置10のリスク情報生成部120は、記憶部150に記憶されている情報を処理することにより、対象期間において第1距離が基準値以下となった回数(上記した近接指標の一例)を対象領域内の位置別に集計する。対象期間の長さは、例えば1日でもよいし、1週間でもよいし、一ヵ月でもよい。
詳細には、まずリスク情報生成部120は、対象となる撮像装置20を特定する情報、対象期間の始まりと終わりを特定する情報を取得する。この取得は、例えばユーザから入力されることにより行われる。次いでリスク情報生成部120は、対象となる撮像装置20が対象期間に生成した画像の解析結果を記憶部150から読み出す。ここで読みだされる情報は、第1距離が基準値以下となった位置を示す情報を含んでいる。この情報は、画像毎に生成されている(ステップS110)。
また対象領域は、あらかじめ複数の部分に区分けされている。そしてリスク情報生成部120は、これら複数の部分別に、第1距離が基準値以下となった回数をカウントする(ステップS120)。なお、記憶部150が記憶している情報のうち上記した「第1距離が基準値以下となった位置」は、この部分を示す情報であってもよい。
そしてリスク情報生成部120は、カウント数が基準値以上になった部分を示す情報を出力する。この情報によって示される部分は、感染リスクが高い部分、すなわち要注意場所である。本図に示す例において、リスク情報生成部120は、この部分を示す情報を出力する。この出力先は、例えば表示制御部130である。この場合、表示制御部130は、この部分示す情報を表示するための表示情報を生成し(ステップS130)、当該表示情報を表示部140に表示させる(ステップS140)。
図2を用いて説明したように、画像処理部110は、時間的に連続する複数の画像を処理すると、第1距離が基準値以下になった状態が継続した時間を算出できる。この場合、画像処理部110は、第1距離が基準値以下になった状態が基準時間以上継続した回数をカウントして、上記した処理を行ってもよい。
また、リスク情報生成部120が行う出力は、対象領域内において人が密集しやすい場所を特定し、そのような場所を改善するため(例えば人の動線を改善するため)に用いられる。一例として対象領域が屋内である場合、この出力は、その屋内(例えば待合室や廊下)に配置されている物体(例えば待合室のベンチ)の配置や数を変えるための参考データとして用いられる。なお、改善対象となる動線には、例えば、病院内における待合室から診察室までの動線、病院の入り口から治療室までの動線がある。
ここで、屋内の例としては、病院、役所、駅、及び空港などの施設が挙げられるが、店舗、例えばショッピングモールなどの大規模店舗(空港や駅に併設されている場合を含む)であってもよい。後者の場合、リスク情報生成部120が行う出力は、大規模店舗となっている建物内において人が密集しやすい場所を特定している。そしてこの特定結果は、テナントの配置や動線を変更して当該場所で人が密集しないようにする際の参考データとして用いられる。
上述した例において、「要注意場所」を設定するときの単位は、一つの対象領域を複数の部分に分割することによって設定されている。一方、画像処理装置10に複数の撮像装置20が接続しており、これら複数の撮像装置20が同一の施設の互いに異なる場所を撮影していることがある。この場合、「要注意場所」を設定するときの単位は、一つの撮像装置20の撮像領域(すなわち一つの対象領域)であってもよい。このようにするためには、画像処理部110は、上記した複数の部分別ではなく、撮像装置20別に、第1距離が基準値以下になった回数、又はこの状態が基準時間以上継続した回数をカウントすればよい。
図12は、図11のステップS140で表示部140に表示される画面の一例を示している。本図に示す例において、表示部140は、対象領域の平面図を表示している。そして表示制御部130は、表示部140に、この平面図において、ステップS120におけるカウント数が基準値以上になった部分を、他の部分とは識別可能に表示させる。
なお、カウント数に関する基準値として、複数の値が段階的に設定されていてもよい。この場合、リスク情報生成部120は、ステップS120におけるカウント数が基準値のうちどの値を超えたかを特定し、特定した値を示す情報を出力する。例えば表示制御部130は、この出力に応じて、当該部分の表示態様を変えてもよい。例えば最も低い基準値のみを超えた部分は緑色で示され、最も高い基準値を超えた部分は赤色で示されてもよい。
図13は、画像処理装置10が行う処理の第5例を示すフローチャートである。画像処理装置10は、図5、図9、又は図10に示した処理に加えて、本図に示した処理も行う。また画像処理装置10は、さらに図11に示した処理も行ってもよい。
本図において、画像処理装置10のリスク情報生成部120は、感染症にかかるリスクが高まるタイミング(安全率が下がるタイミング)を特定する。このタイミングは、例えば曜日別、時間帯別、又は曜日かつ時間帯別に設定される。
本図に示す例において、ステップS110に示した処理は図11を用いて説明した処理と同様である。
次いでリスク情報生成部120が、タイミング別に、第1距離が基準値以下となった回数をカウントする(ステップS122)。ここでリスク情報生成部120は、さらに図11に示したように、対象領域内の複数の部分別に、タイミング別のカウントを行ってもよい。
次いでリスク情報生成部120は、カウント数が基準値以上になったタイミングを示す情報を出力する。この情報によって示されるタイミング(例えば時間帯や曜日)は、感染リスクが高いタイミングである。一例として、リスク情報生成部120は、このタイミングを示す情報を表示制御部130に出力する。すると表示制御部130は、このタイミングを示す情報を表示するための表示情報を生成し(ステップS130)、当該表示情報を表示部140に表示させる(ステップS140)。
なお、対象領域が店内である場合、表示部140は、当該店の入り口やショーウインドウの中に設けられていてもよい。このようにすると、その店に入ろうとする人は、その店がすいていると思われるタイミングを認識することができる。また表示制御部130は、ステップS130で生成された表示情報をインターネット上で公開してもよい。このようにすると、その店に行こうとする人は、その店がすいていると思われるタイミングを認識することができる。
また対象領域が店内であり、表示部140が当該店の入り口やショーウインドウの中に設けられている場合、表示制御部130は、表示部140に、現在の感染リスク情報を表示させてもよいし、リアルタイムの動画や画像を用いて図7、図8、図17、および図18に示した表示を行わせてもよい。
図14は、画像処理装置10が行う処理の第6例を示すフローチャートである。画像処理装置10は、図5、図9、又は図10に示した処理に加えて、本図に示した処理も行う。また画像処理装置10は、さらに図11及び図13に示した処理の少なくとも一方を行ってもよい。
本図に示す例において、リスク情報生成部120は、過去の感染リスク情報の履歴及び当該履歴を統計処理した結果の少なくとも一方を、複数の撮像装置20別、すなわち複数の対象領域ごとに記憶部150に記憶させている。なお、これら複数の対象領域は、人の流れにおいて互いに関連している。一例として、これら複数の対象領域は互いに隣り合っていてもよいし、同一の道路や鉄道(地下鉄)に沿っていてもよい。
そしてリスク情報生成部120は、記憶部150が過去の感染リスク情報の履歴のみを記憶している場合、この履歴を統計処理する。そして感染リスク情報の履歴を統計処理した結果、及び現在の感染リスク情報を用いて、将来の所定タイミングにおける感染リスク情報の推定結果を生成する。所定タイミングは、例えば1時間後であってもよいし、3時間後であってもよいし、5時間後であってもよいが、24時間以内であるのが好ましい。履歴を統計処理した結果は、例えば機械学習によって生成されたモデルであるが、これに限定されない。なおこのモデルは、現在の感染リスク情報が入力されると、将来の所定タイミングにおける感染リスク情報の推定結果を出力するものである。
まずリスク情報生成部120は、互いに異なる対象領域に設置された複数の撮像装置20のそれぞれが生成した現在の画像を処理することにより、複数の対象領域それぞれの現在の感染リスク情報を生成する(ステップS210)。この際、リスク情報生成部120は、現在から所定時間前までの間に生成された画像を、さらに処理してもよい。
次いでリスク情報生成部120は、これら複数の対象領域それぞれにおける、感染リスク情報の履歴を統計処理した結果を取得する。この取得は、記憶部150から読み出すことにより行われてもよいし、感染リスク情報の履歴をその場で統計処理することにより行われてもよい。次いでリスク情報生成部120は、感染リスク情報の履歴を統計処理した結果、及び現在の感染リスク情報を用いて、将来の所定タイミングにおける感染リスク情報の推定結果を生成する(ステップS220)。
次いで表示制御部130は、リスク情報生成部120が生成した、現在の感染リスク情報、及び将来の所定タイミングにおける感染リスク情報の推定結果を表示するための表示情報を生成する(ステップS230)。表示部140は、この表示情報を用いて、現在の感染リスク情報、及び将来の所定タイミングにおける感染リスク情報の推定結果を表示する(ステップS240)。この表示を見た人は、自分が行動を起こすタイミング(例えば電車に乗るタイミングや目的地に行くタイミング)を感染リスクが少ないタイミングにすることができる。
なお、リスク情報生成部120は、将来の所定タイミングにおける感染リスク情報の推定結果を生成する際に、統計処理の代わりに、現在の感染リスク情報の増減の傾向を特定し、この特定結果を用いてもよい。リスク情報生成部120は、この増減の傾向を、例えば、過去から現在までの第1距離が基準値以下となった回数の推移を用いることにより、特定する。
図15は、表示部140に表示される現在の感染リスク情報を示している。上記したように、リスク情報生成部120は、複数の対象領域別に、感染リスク情報を生成している。本図に示す例において、複数の対象領域は一つの大きな地域を複数に分割した領域である。そして表示制御部130は、表示部140に、感染リスク情報が示すリスクが基準値以上となった対象領域を、他の対象領域から識別可能な状態で表示させている。なお、表示制御部130は、この処理において、過去から現在までの感染リスク情報の推移を表示させてもよい。
図16は、表示部140に表示される将来の感染リスク情報を示している。本図に示す例において、表示制御部130は、表示部140に、将来の感染リスク情報が示すリスクが基準値以上となった対象領域を、他の対象領域から識別可能な状態で表示させている。ここで、複数の対象領域は、人の流れにおいて互いに関連している場合、ある対象領域の将来の感染リスク情報を生成する際に、その対象領域の周囲の現在の感染リスク情報を用いることもできる。これは、ある対象領域にいる人は、数時間後には他の対象領域に移動することがあるためである。
なお、図15及び図16に示した表示は、インターネット上で公開されてもよいし、テレビの放送内容に含まれてもよい。
以上、本実施形態によれば、画像処理装置10の画像処理部110は、撮像装置20が生成した画像、すなわち複数の人を含む画像を取得して処理することにより、複数の人の少なくとも一部の人について、当該人に最も近い人までの距離(第1距離)を算出する。そしてリスク情報生成部120は、第1距離を用いて、撮像装置20の撮影対象となっている対象領域における感染リスク情報を生成する。このため、対象領域において感染症にかかるリスクを容易に把握することができる。
また、リスク情報生成部120は、複数の人の近接状態に関する指標である近接指標が基準を満たした場所を出力する。この出力は、例えば表示部140に表示される。これにより、感染症にかかる可能性がある場所を把握しやすくなる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理手段と、
前記要注意場所を示す情報を出力する出力手段と、
を備える画像処理装置。
2.上記1に記載の画像処理装置において、
前記画像処理手段は、
前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
複数の場所ごとに、前記第1距離が基準値以下になった回数をカウントし、
前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されている画像処理装置。
3.上記2に記載の画像処理装置において、
前記近接指標は、前記回数に対して設定された基準値であり、
前記基準値として複数の値が設定されており、
前記出力手段は、前記要注意場所を示す情報とともに、当該要注意場所において前記回数が満たした前記値を示す情報を出力する画像処理装置。
4.上記2又は3に記載の画像処理装置において、
前記画像処理手段は、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている画像処理装置。
5.上記1~4のいずれか一項に記載の画像処理装置において、
前記少なくとも一つの画像は、施設を撮影した画像である画像処理装置。
6.上記5に記載の画像処理装置において、
前記施設はショッピングモール、空港、駅、病院、又は店舗である画像処理装置。
7.コンピュータが、
少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理と、
前記要注意場所を示す情報を出力する出力処理と、
を行う画像処理方法。
8.上記7に記載の画像処理方法において、
前記画像処理において、前記コンピュータは、
前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
複数の場所ごとに、前記第1距離が基準値以下になった回数をカウントし、
前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されている画像処理方法。
9.上記8に記載の画像処理方法において、
前記近接指標は、前記回数に対して設定された基準値であり、
前記基準値として複数の値が設定されており、
前記出力処理において、前記コンピュータは、前記要注意場所を示す情報とともに、当該要注意場所において前記回数が満たした前記値を示す情報を出力する画像処理方法。
10.上記8又は9に記載の画像処理方法において、
前記画像処理において、前記コンピュータは、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている画像処理方法。
11.上記7~10のいずれか一項に記載の画像処理方法において、
前記少なくとも一つの画像は、施設を撮影した画像である画像処理方法。
12.上記11に記載の画像処理方法において、
前記施設はショッピングモール、空港、駅、病院、又は店舗である画像処理方法。
13.コンピュータに、
少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理機能と、
前記要注意場所を示す情報を出力する出力機能と、
を持たせるプログラム。
14.上記13に記載のプログラムにおいて、
前記画像処理機能は、
前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
複数の場所ごとに、前記第1距離が基準値以下になった回数をカウントし、
前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されているプログラム。
15.上記14に記載のプログラムにおいて、
前記近接指標は、前記回数に対して設定された基準値であり、
前記基準値として複数の値が設定されており、
前記出力機能は、前記要注意場所を示す情報とともに、当該要注意場所において前記回数が満たした前記値を示す情報を出力するプログラム。
16.上記14又は15に記載のプログラムにおいて、
前記画像処理機能は、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されているプログラム。
17.上記13~16のいずれか一項に記載のプログラムにおいて、
前記少なくとも一つの画像は、施設を撮影した画像であるプログラム。
18.上記17に記載のプログラムにおいて、
前記施設はショッピングモール、空港、駅、病院、又は店舗であるプログラム。
この出願は、2020年6月5日に出願された日本出願特願2020-098405号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 画像処理装置
20 撮像装置
110 画像処理部
120 リスク情報生成部
130 表示制御部
140 表示部
150 記憶部

Claims (7)

  1. 少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理手段と、
    前記要注意場所を示す情報を出力する出力手段と、
    を備え
    前記画像処理手段は、
    前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
    複数の場所ごとに、前記第1距離が基準値以下になった回数をカウントし、
    前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されている画像処理装置。
  2. 請求項に記載の画像処理装置において、
    前記近接指標は、前記回数に対して設定された基準値であり、
    前記基準値として複数の値が設定されており、
    前記出力手段は、前記要注意場所を示す情報とともに、当該要注意場所において前記回数が満たした前記値を示す情報を出力する画像処理装置。
  3. 請求項又はに記載の画像処理装置において、
    前記画像処理手段は、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
    前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている画像処理装置。
  4. 請求項1~のいずれか一項に記載の画像処理装置において、
    前記少なくとも一つの画像は、施設を撮影した画像である画像処理装置。
  5. 請求項に記載の画像処理装置において、
    前記施設はショッピングモール、空港、駅、病院、又は店舗である画像処理装置。
  6. コンピュータが、
    少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理と、
    前記要注意場所を示す情報を出力する出力処理と、
    を行う画像処理方法あって、
    前記画像処理は、
    前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
    複数の場所ごとに、前記第1距離が基準値以下になった回数をカウントすることを含み、
    前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されている画像処理方法。
  7. コンピュータに、
    少なくとも一つの画像を処理することにより、複数の人の近接状態に関する指標である近接指標が基準を満たした場所である要注意場所を特定する画像処理機能と、
    前記要注意場所を示す情報を出力する出力機能と、
    を持たせるプログラムであって、
    前記画像処理機能は、
    前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
    複数の場所ごとに、前記第1距離が基準値以下になった回数をカウントし、
    前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されているプログラム。
JP2022528482A 2020-06-05 2021-04-22 画像処理装置、画像処理方法、及びプログラム Active JP7392851B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020098405 2020-06-05
JP2020098405 2020-06-05
PCT/JP2021/016304 WO2021246079A1 (ja) 2020-06-05 2021-04-22 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2021246079A1 JPWO2021246079A1 (ja) 2021-12-09
JPWO2021246079A5 JPWO2021246079A5 (ja) 2023-02-14
JP7392851B2 true JP7392851B2 (ja) 2023-12-06

Family

ID=78830414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022528482A Active JP7392851B2 (ja) 2020-06-05 2021-04-22 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230230380A1 (ja)
JP (1) JP7392851B2 (ja)
WO (1) WO2021246079A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142173A (ja) 2017-02-28 2018-09-13 セコム株式会社 画像監視装置
JP2019200715A (ja) 2018-05-18 2019-11-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142173A (ja) 2017-02-28 2018-09-13 セコム株式会社 画像監視装置
JP2019200715A (ja) 2018-05-18 2019-11-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
WO2021246079A1 (ja) 2021-12-09
US20230230380A1 (en) 2023-07-20
JPWO2021246079A1 (ja) 2021-12-09

Similar Documents

Publication Publication Date Title
JP6898165B2 (ja) 人流分析方法、人流分析装置及び人流分析システム
JP4876687B2 (ja) 注目度計測装置及び注目度計測システム
CN110383832B (zh) 显示处理设备、***和存储介质
WO2018059408A1 (zh) 跨线计数方法和神经网络训练方法、装置和电子设备
CN100450179C (zh) 基于全方位计算机视觉的独居老人家庭安保装置
US20110293148A1 (en) Content determination program and content determination device
TW201118803A (en) Person-tracing apparatus and person-tracing program
JP2024014971A (ja) 情報処理装置、表示方法、及びプログラム
JP2007133847A (ja) 混雑状況提示装置、及び、混雑状況情報閲覧システム
JP2007233523A (ja) 非同期カメラ映像を用いた人物位置推定方法及びそのシステム
JP5147760B2 (ja) 画像監視装置
US20210378520A1 (en) Free flow fever screening
JP2020194493A (ja) 介護設備又は病院用の監視システム及び監視方法
JP2024014930A (ja) 情報処理装置
KR20190078579A (ko) 정보 처리 장치, 정보 처리 방법, 및 기록 매체
JP7392851B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2007219603A (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JP2019029747A (ja) 画像監視システム
JP2015015031A (ja) 広告効果測定サーバ、広告効果測定システム、プログラム
JP2009147607A (ja) 人物追尾装置
WO2021246010A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2011192220A (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
JP6540445B2 (ja) 同一判定プログラム、同一判定装置、および同一判定方法
JPWO2017061239A1 (ja) 監視システム
JP2010136113A (ja) 撮像パラメータ調整装置、撮像パラメータ調整方法とそのプログラム及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231106

R151 Written notification of patent or utility model registration

Ref document number: 7392851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151