JP2000207664A - Falling detecting device - Google Patents

Falling detecting device

Info

Publication number
JP2000207664A
JP2000207664A JP11009618A JP961899A JP2000207664A JP 2000207664 A JP2000207664 A JP 2000207664A JP 11009618 A JP11009618 A JP 11009618A JP 961899 A JP961899 A JP 961899A JP 2000207664 A JP2000207664 A JP 2000207664A
Authority
JP
Japan
Prior art keywords
human body
area
image
difference
differential
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11009618A
Other languages
Japanese (ja)
Inventor
Kenichi Hagio
健一 萩尾
Satoshi Furukawa
聡 古川
Tadahiro Arakawa
忠洋 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP11009618A priority Critical patent/JP2000207664A/en
Publication of JP2000207664A publication Critical patent/JP2000207664A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect not only a falling state but also falling action itself by detecting the falling action of a human body on the basis of a differential area between a fetched image and a reference image which is picked up when the human body does not exist. SOLUTION: A differential means extracts the differential area from a newly picked-up image (b) and a reference image (a) which is picked up when the human body does not exist (e). Similarly, each time a new image is inputted (c), the differential area from the reference image (a) is extracted. Next, each time the new image is inputted, a differential area extracting means binarizes the differential image and calculates the total sum of differential areas of respective differential images. A judging means detects falling of the human body while utilizing the differential area at every time calculated by an image processing means. Namely, a threshold value is set from the differential area in the falling state of the human body and the differential area in the other state and it is monitored whether or not the differential area is to exceed the threshold value.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人が転倒したこと
を自動的に検知可能となる転倒検知装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fall detecting device capable of automatically detecting that a person has fallen.

【0002】[0002]

【従来の技術】高齢者等、介護を必要とする患者に生じ
た異常状態を自動的に検知するために、従来より画像処
理技術を応用した装置が考案されている。これらの装置
は、画像処理によって室内の3次元情報を獲得し、その
情報を基に患者の異常状態を判断するものである。
2. Description of the Related Art In order to automatically detect an abnormal condition occurring in a patient requiring care, such as an elderly person, a device using image processing technology has been devised. These apparatuses acquire three-dimensional information in a room by image processing, and determine an abnormal state of a patient based on the information.

【0003】この種の装置にあっては、人体の転倒動作
を検知することを目的とするものもある。このものにあ
っては、カメラにより撮像した画像から三角測量の原理
を駆使することにより、患者の存在する位置を示す3次
元情報を演算するものであり、床面に患者が横たわって
いる状態を検出してから所定時間にわたってその状態が
続いた場合に患者が転倒しているものと判断し、その旨
を報知するようになっている。
[0003] In this type of device, there is a device for detecting a falling motion of a human body. In this method, three-dimensional information indicating a position where a patient is present is calculated by making full use of the principle of triangulation from an image captured by a camera, and the state in which the patient is lying on the floor surface is calculated. When the state continues for a predetermined time after the detection, it is determined that the patient has fallen, and the fact is notified.

【0004】[0004]

【発明が解決しようとする課題】ところが、上述のよう
な構成の転倒検知装置にあっては、3次元情報を獲得す
るために患者の居室を投光する投光手段及び投光された
画像を撮像するカメラ等が必要になるため、装置自体が
大がかりなものとなるとともに、装置自体が大きくなる
ことにより設置される居室にいる患者に対して圧迫感を
与えかねないという問題点を有していた。さらに、従来
の転倒検知装置は、患者が転倒状態にあることを検知す
るものであり、転倒動作そのものを検知することはでき
ないという問題点を有していた。
However, in the fall detecting device having the above-mentioned structure, the light emitting means for projecting the patient's room to obtain three-dimensional information and the projected image are displayed. Since a camera or the like for imaging is required, the apparatus itself becomes large-scale, and there is a problem that a patient in a living room where the apparatus is installed due to the enlargement of the apparatus itself may give a feeling of oppression. Was. Further, the conventional fall detecting device detects that the patient is in a fall state, and has a problem that the fall operation itself cannot be detected.

【0005】本発明は、上記の問題点に鑑みて成された
ものであり、その目的とするところは、転倒した状態の
みならず転倒動作そのものを精度良く検知することが可
能になる低コストな転倒検知装置を提供することにあ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and has as its object to provide a low-cost method capable of accurately detecting not only a falling state but also a falling operation itself. An object of the present invention is to provide a fall detection device.

【0006】[0006]

【課題を解決するための手段】請求項1記載の発明は、
カメラと、カメラが出力する映像信号を取り込み、取り
込まれた画像と人体が存在しないときに撮像された参照
画像との差分領域を抽出する差分処理を行う画像処理手
段と、差分処理によって得られた差分領域の面積に基づ
いて人体の転倒動作を検知する判断手段とからなるよう
にしたことを特徴とするものである。
According to the first aspect of the present invention,
A camera, image processing means for capturing a video signal output by the camera, and performing difference processing for extracting a difference area between the captured image and a reference image captured when no human body is present; And determining means for detecting a falling motion of the human body based on the area of the difference region.

【0007】請求項2記載の発明は、請求項1記載の転
倒検知装置において、前記画像処理手段において、差分
領域として抽出された差分領域の形状から人体の向きを
検知し、前記判断手段において、人体の向きから人体が
どの向きに転倒したかを検知するようにしたことを特徴
とするものである。
According to a second aspect of the present invention, in the fall detection device according to the first aspect, the image processing means detects a direction of a human body from a shape of the difference area extracted as the difference area, and the determination means includes: It is characterized in that the direction of the human body falling is detected from the direction of the human body.

【0008】請求項3記載の発明は、請求項1又は請求
項2記載の転倒検知装置において、前記判断手段におい
て、差分領域の位置の履歴から人体の移動方向を検知
し、人体の移動方向から人体がどのように転倒したかを
検知するようにしたことを特徴とするものである。
According to a third aspect of the present invention, in the fall detecting device according to the first or second aspect, the determining means detects a moving direction of the human body from the history of the position of the difference area, and detects the moving direction of the human body from the moving direction of the human body. It is characterized by detecting how the human body has fallen.

【0009】[0009]

【発明の実施の形態】以下、本発明の一実施の形態に係
る転倒検知装置について図1及び図10に基づき詳細に
説明する。図1は転倒検知装置の概略構成図である。図
2は画像処理手段の概略構成図である。図3はカメラに
より撮像される画像の模式図であり、(a)は人体が存
在しないときに撮像された参照画像であり、(b)乃至
(d)は所定時間毎に撮像された入力画像であり、
(e)乃至(g)は入力画像と参照画像との間において
差分処理を行うことにより抽出される差分画像である。
図4は人体が転倒動作をしたときの時間と差分領域の面
積との関係を示すグラフである。図5は人体が横たわっ
たときの時間と差分領域の面積との関係を示すグラフで
ある。図6は人体が転倒動作をしたときの時間と差分領
域の面積の変化との関係を示すグラフである。図7は人
体が横たわったときの時間と差分領域の面積の変化との
関係を示すグラフである。図8は他の画像処理手段の概
略構成図である。図9は人体の向きを判定する手続きを
示す模式図である。図10は人体の移動方向を判定する
手続きを示す模式図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a fall detecting device according to an embodiment of the present invention will be described in detail with reference to FIGS. FIG. 1 is a schematic configuration diagram of a fall detection device. FIG. 2 is a schematic configuration diagram of the image processing means. 3A and 3B are schematic diagrams of images captured by a camera, FIG. 3A is a reference image captured when no human body is present, and FIGS. 3B to 3D are input images captured at predetermined time intervals. And
(E) to (g) are difference images extracted by performing difference processing between the input image and the reference image.
FIG. 4 is a graph showing the relationship between the time when the human body falls over and the area of the difference region. FIG. 5 is a graph showing the relationship between the time when the human body is lying down and the area of the difference region. FIG. 6 is a graph showing the relationship between the time when the human body falls down and the change in the area of the difference region. FIG. 7 is a graph showing the relationship between the time when the human body lays down and the change in the area of the difference region. FIG. 8 is a schematic configuration diagram of another image processing means. FIG. 9 is a schematic diagram showing a procedure for determining the orientation of the human body. FIG. 10 is a schematic diagram showing a procedure for determining the moving direction of the human body.

【0010】[第1の実施の形態]本実施の形態に係る
転倒検知装置は、図1に示すように、カメラ1と、画像
処理手段20と、判断手段30とを備えてなる。本実施
の形態にあっては、居室内を撮影するカメラ1は居住者
10の居室の天井に設置されており、居住者10を上方
から撮像するようになっている。そして、カメラ1は居
住者10を撮像した映像信号を出力し、画像処理手段2
0はその映像を取り込むようになっている。
[First Embodiment] As shown in FIG. 1, a fall detecting device according to the present embodiment includes a camera 1, an image processing means 20, and a judging means 30. In the present embodiment, the camera 1 for photographing the living room is installed on the ceiling of the living room of the resident 10 and images the resident 10 from above. Then, the camera 1 outputs a video signal of the resident 10 and outputs the video signal.
0 is to capture the video.

【0011】画像処理手段20は、図2に示すように、
映像信号をデジタル信号に変換するAD変換器21と、
変換された映像信号を記憶する画像メモリ22と、新た
に撮像された入力画像と人体が存在しないときに撮像さ
れた参照画像との差分を演算する差分手段23と、得ら
れた差分を記憶する差分画像メモリ24と、差分領域の
面積を演算する差分領域面積抽出手段25とを備えてな
る。また、本実施の形態の画像処理手段20は、アドレ
ス制御手段26を備え、カメラ1により撮像された映像
信号を参照画像として記憶するのか、入力画像として記
憶するのかに応じて取り込み先のメモリアドレスを制御
するためのものである。
The image processing means 20, as shown in FIG.
An AD converter 21 for converting a video signal into a digital signal;
An image memory 22 for storing the converted video signal, a difference unit 23 for calculating a difference between a newly captured input image and a reference image captured when no human body is present, and storing the obtained difference. It comprises a difference image memory 24 and a difference region area extracting means 25 for calculating the area of the difference region. Further, the image processing means 20 of the present embodiment includes an address control means 26, and stores a memory address of a capture destination according to whether a video signal captured by the camera 1 is stored as a reference image or an input image. Is to control the

【0012】上述した構成の転倒検知装置の動作につい
て図3に基づいて説明する。差分手段23は、新たに撮
像された画像(図3(b)参照)と人体が存在しないと
きに撮像された参照画像(図3(a)参照)とから差分
領域を抽出する(図3(e)参照)。同様に、新たな入
力画像(図3(c)参照)が撮像される度に参照画像
(図3(a)参照)との差分領域が抽出されるようにな
っている(図3(f)参照)。これら、抽出された差分
画像(図3(e)乃至(g)参照)は、差分画像メモリ
24に書き込まれる。次に、差分領域面積抽出手段25
にあっては、新たな入力画像がある度に、差分画像に対
して2値化処理を施し、各差分画像の差分領域の面積の
総和を算出する。
The operation of the fall detecting device having the above-described configuration will be described with reference to FIG. The difference unit 23 extracts a difference area from a newly captured image (see FIG. 3B) and a reference image (see FIG. 3A) captured when no human body exists (see FIG. e)). Similarly, each time a new input image (see FIG. 3C) is captured, a difference area from the reference image (see FIG. 3A) is extracted (FIG. 3F). reference). These extracted difference images (see FIGS. 3E to 3G) are written to the difference image memory 24. Next, the difference area area extracting means 25
In, each time there is a new input image, a binarization process is performed on the difference image to calculate the sum of the areas of the difference regions of each difference image.

【0013】判断手段30は、画像処理手段20が算出
した各時刻における差分画像の領域の面積を利用して人
体の転倒を検知するものである。すなわち、転倒時はカ
メラ1により撮像される人体の動きが短時間に大きく変
化することに着目して人体を検出するようにしている。
先ず、予め人体が転倒した状態での差分領域の面積(S
0)とそれ以外の状態(例えば、普通に人体が歩行して
いる状態)での差分領域の面積(S1)とから閾値(T
h)を設定しておく。このとき、S1<Th<S0の関
係を有し、本実施の形態にあっては、差分領域の面積
(S)が閾値(Th)を越えるか否かを監視している
(図4、図5参照)。
The judging means 30 detects the fall of the human body by using the area of the area of the difference image at each time calculated by the image processing means 20. In other words, the human body is detected by paying attention to the fact that the motion of the human body imaged by the camera 1 changes greatly in a short time when the vehicle falls.
First, the area of the difference region (S
0) and the area (S1) of the difference area in other states (for example, a state where the human body is normally walking)
h) is set. At this time, there is a relationship of S1 <Th <S0, and in the present embodiment, it is monitored whether or not the area (S) of the difference region exceeds the threshold value (Th) (FIG. 4, FIG. 5).

【0014】さらに、本実施の形態にあっては、人体の
転倒動作を判断するために、所定の時間間隔での差分領
域の面積変化(θ)が所定の閾値(Thp)を越えるか
否かを監視している(図6、図7参照)。ここで、閾値
(Thp)は人体が転倒したときのように急激に動作し
たときに差分領域の面積変化(θ)が所定の閾値(Th
p)を越えるように設定している。
Further, in the present embodiment, in order to determine the overturning motion of the human body, it is determined whether or not the area change (θ) of the difference region at a predetermined time interval exceeds a predetermined threshold value (Thp). (See FIGS. 6 and 7). Here, the threshold value (Thp) is such that when the human body suddenly moves, such as when the human body falls down, the area change (θ) of the difference region is a predetermined threshold value (Th).
p) is set to be exceeded.

【0015】本実施の形態の形態の転倒検知装置にあっ
ては、上述した2つのパラメータ(差分領域の面積
(S)及び差分領域の面積変化(θ))が予め定めた閾
値(Th、Thp)を越えた場合に人体が転倒したと判
断している。これにより、例えば、図6に示すように、
人体が単に横たわった場合は差分領域の面積(S)は閾
値(Th)を越えるものの、転倒のように急激な動作で
ないことから差分領域の面積変化(θ)は閾値Thpを
越えないので(図7参照)、人体が転倒したのか単に横
たわっただけなのかを正確に区別することが可能になる
のである。また、人体が急に着座するといった素早い動
作を行ったとしても、差分領域の面積(S)は閾値(T
h)を越えないので、人体が転倒したのか単に素早い動
作を行っただけなのかを正確に区別することが可能にな
るのである。
In the fall detecting device according to this embodiment, the two parameters described above (the area of the difference area (S) and the change in the area of the difference area (θ)) are set to predetermined thresholds (Th, Thp). If it exceeds), it is determined that the human body has fallen. Thereby, for example, as shown in FIG.
If the human body simply lays down, the area (S) of the difference area exceeds the threshold (Th), but the area change (θ) of the difference area does not exceed the threshold Thp because it is not an abrupt movement like falling down (FIG. 7), it is possible to accurately distinguish whether the human body has fallen or merely laid down. Further, even if the human body performs a quick motion such as suddenly sitting down, the area (S) of the difference region is equal to the threshold (T
Since h) is not exceeded, it is possible to accurately distinguish whether the human body has fallen or merely performed a quick motion.

【0016】本実施の形態にあっては、上述したよう
に、参照画像と人体が転倒した後に撮像された画像にお
いて、短時間にその差分領域の面積が大きく変化し、か
つ差分領域の面積が相当の面積を有することに鑑みて、
新たに入力された画像と参照画像との差分領域の面積及
び面積変化から人体の転倒を精度良く検知することが可
能になるのである。これにより、介護を必要とする居住
者10が転倒したことを自動的に発見し、迅速に対応す
ることができるようになるのである。
In the present embodiment, as described above, in the reference image and the image taken after the human body has fallen, the area of the difference region greatly changes in a short time, and the area of the difference region is reduced. In view of having a considerable area,
The fall of the human body can be accurately detected from the area of the difference area between the newly input image and the reference image and the change in the area. Thus, it is possible to automatically detect that the resident 10 in need of nursing has fallen, and to take prompt action.

【0017】[第2の実施の形態]本実施の形態に係る
転倒検知装置は、図1に示すものと同じ構成を有すると
ともに、図8に示す画像処理手段20を有しており、そ
の詳細な説明は省略し、異なる構成につき以下に説明す
る。
[Second Embodiment] A fall detecting device according to the present embodiment has the same configuration as that shown in FIG. 1 and has an image processing means 20 shown in FIG. Detailed description is omitted, and different configurations will be described below.

【0018】画像処理手段20は、図8に示すように、
映像信号をデジタル信号に変換するAD変換器21と、
変換された映像信号を記憶する画像メモリ22と、新た
に撮像された入力画像と人体が存在しないときに撮像さ
れた参照画像との差分を演算する差分手段23と、得ら
れた差分を記憶する差分画像メモリ24と、カメラ1に
より撮像された映像信号を参照画像として記憶するの
か、入力画像として記憶するのかに応じて取り込み先の
メモリアドレスを制御するアドレス制御手段26と、差
分領域の特徴量を演算する差分領域特徴抽出手段27と
を備えてなる。
The image processing means 20, as shown in FIG.
An AD converter 21 for converting a video signal into a digital signal;
An image memory 22 for storing the converted video signal, a difference unit 23 for calculating a difference between a newly captured input image and a reference image captured when no human body is present, and storing the obtained difference. A difference image memory 24; address control means 26 for controlling a memory address of a capture destination according to whether the video signal captured by the camera 1 is stored as a reference image or an input image; Is calculated.

【0019】差分領域特徴抽出手段27は、差分領域の
面積を算出するとともに、人体の向きを算出するもので
ある。人体の向きを算出する方法については、本実施の
形態では図9に示すように、予め人体の形状とその向き
とが定義された人体モデルを備えておき、差分領域の形
状と人体モデルとのマッチング処理を行うことで人体の
向きを判定するようになっている。
The difference area feature extraction means 27 calculates the area of the difference area and the direction of the human body. As for the method of calculating the orientation of the human body, in the present embodiment, as shown in FIG. 9, a human body model in which the shape of the human body and its orientation are defined in advance is provided, and the shape of the difference region and the human body model are defined. The orientation of the human body is determined by performing the matching process.

【0020】判断手段30にあっては、第1の実施の形
態にて行った転倒検知の処理に加えて、人体の向きを考
慮し、人体がどの方向に転倒したかを判断することが可
能になる。また、図10に示すように、この差分画像の
領域の位置(重心座標等)を記憶しておき、転倒方向に
あわせて移動方向及び移動速度を考慮し、人体がどのよ
うに転倒したかを判断することが可能になる。これによ
り、例えば、歩いている状態で勢いよく進行方向に転倒
する場合(人体の移動方向及び転倒方向が一致する場合
等)は危険度の高い転倒が生じたといった転倒の危険度
を検知することが可能になる。
The judging means 30 can judge in which direction the human body has fallen in consideration of the orientation of the human body in addition to the fall detection processing performed in the first embodiment. become. Further, as shown in FIG. 10, the position of the region of the difference image (coordinates of the center of gravity and the like) is stored, and the moving direction and the moving speed are considered in accordance with the falling direction to determine how the human body has fallen. It will be possible to judge. This makes it possible to detect a falling risk such as a high-risk falling when, for example, the user falls vigorously in the traveling direction while walking (when the moving direction of the human body coincides with the falling direction). Becomes possible.

【0021】本実施の形態にあっては、第1の実施の形
態と同様に、人体の転倒を精度良く検知することが可能
になるとともに、人体がどのように転倒したかを検知す
ることが可能になるのである。
In the present embodiment, as in the first embodiment, it is possible to accurately detect the fall of the human body and to detect how the human body has fallen. It becomes possible.

【0022】[0022]

【発明の効果】以上のように、請求項1記載の発明にあ
っては、カメラと、カメラが出力する映像信号を取り込
み、取り込まれた画像と人体が存在しないときに撮像さ
れた参照画像との差分領域を抽出する差分処理を行う画
像処理手段と、差分処理によって得られた差分領域の面
積に基づいて人体の転倒動作を検知する判断手段とから
なるようにしたので、居室内を撮影するカメラ以外に投
光手段を必要としないため構成が簡単になるとともに、
転倒時に特徴的な変化を生じる差分領域の面積を算出す
るという簡単な処理だけで人体の転倒動作を検知できる
ため、転倒した状態のみならず転倒動作そのものを精度
良く検知することが可能になる低コストな転倒検知装置
を提供することが可能になるという効果を奏する。
As described above, according to the first aspect of the present invention, a camera, a video signal output by a camera are captured, and a captured image and a reference image captured when no human body is present. Image processing means for performing a difference process for extracting a difference region of the living room, and determination means for detecting a falling motion of the human body based on the area of the difference region obtained by the difference process, so that the living room is photographed. Since no light emitting means other than a camera is required, the configuration is simplified and
Since the falling motion of the human body can be detected only by a simple process of calculating the area of the difference region that causes a characteristic change when falling, it is possible to accurately detect not only the falling state but also the falling motion itself. It is possible to provide a costly fall detection device.

【0023】請求項2記載の発明にあっては、請求項1
記載の転倒検知装置において、前記画像処理手段におい
て、差分領域として抽出された差分領域の形状から人体
の向きを検知し、前記判断手段において、人体の向きか
ら人体がどの向きに転倒したかを検知するようにしたの
で、人体がどのように転倒したかを考慮して人体の転倒
を判断することが可能になるため、より精度の高い転倒
検知が可能になるという効果を奏する。
According to the second aspect of the present invention, there is provided the first aspect.
In the fall detection device described in the above, the image processing means detects the direction of the human body from the shape of the difference area extracted as the difference area, and the determination means detects in which direction the human body has fallen from the direction of the human body. As a result, it is possible to determine the fall of the human body in consideration of how the human body has fallen, so that there is an effect that the fall can be detected with higher accuracy.

【0024】請求項3記載の発明にあっては、請求項1
又は請求項2記載の転倒検知装置において、前記判断手
段において、差分領域の位置の履歴から人体の移動方向
を検知し、人体の移動方向から人体がどのように転倒し
たかを検知するようにしたので、人体がどのように転倒
したかを考慮して人体の転倒を判断することが可能にな
るため、より精度の高い転倒検知が可能になるという効
果を奏する。
According to the third aspect of the present invention, there is provided the first aspect.
Alternatively, in the fall detecting device according to claim 2, the determining means detects a moving direction of the human body from the history of the position of the difference area, and detects how the human body has fallen from the moving direction of the human body. Therefore, since it is possible to determine the fall of the human body in consideration of how the human body has fallen, there is an effect that the fall can be detected with higher accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】転倒検知装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a fall detection device.

【図2】画像処理手段の概略構成図である。FIG. 2 is a schematic configuration diagram of an image processing unit.

【図3】カメラにより撮像される画像の模式図であり、
(a)は人体が存在しないときに撮像された参照画像で
あり、(b)乃至(d)は所定時間毎に撮像された入力
画像であり、(e)乃至(g)は入力画像と参照画像と
の間において差分処理を行うことにより抽出される差分
画像である。
FIG. 3 is a schematic diagram of an image captured by a camera;
(A) is a reference image captured when no human body is present, (b) to (d) are input images captured at predetermined time intervals, and (e) to (g) are input images and reference This is a difference image extracted by performing difference processing between the image and the image.

【図4】人体が転倒動作をしたときの時間と差分領域の
面積との関係を示すグラフである。
FIG. 4 is a graph showing a relationship between a time when a human body falls down and an area of a difference region.

【図5】人体が横たわったときの時間と差分領域の面積
との関係を示すグラフである。
FIG. 5 is a graph showing the relationship between the time when a human body lays down and the area of a difference region.

【図6】人体が転倒動作をしたときの時間と差分領域の
面積の変化との関係を示すグラフである。
FIG. 6 is a graph showing the relationship between the time when the human body falls down and the change in the area of the difference region.

【図7】人体が横たわったときの時間と差分領域の面積
の変化との関係を示すグラフである。
FIG. 7 is a graph showing the relationship between the time when the human body is lying down and the change in the area of the difference region.

【図8】他の画像処理手段の概略構成図である。FIG. 8 is a schematic configuration diagram of another image processing means.

【図9】人体の向きを判定する手続きを示す模式図であ
る。
FIG. 9 is a schematic diagram showing a procedure for determining the orientation of a human body.

【図10】人体の移動方向を判定する手続きを示す模式
図である。
FIG. 10 is a schematic diagram showing a procedure for determining a moving direction of a human body.

【符号の説明】[Explanation of symbols]

1 カメラ 20 画像処理手段 30 判断手段 1 camera 20 image processing means 30 judgment means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 荒川 忠洋 大阪府門真市大字門真1048番地松下電工株 式会社内 Fターム(参考) 5C054 FC01 FC13 FC15 GB12 HA00 HA12 5C086 AA22 AA49 AA51 BA01 CA28 CB36 DA33 EA11 EA13 EA15 EA23 EA40 EA41 EA45 5C087 DD03 DD24 EE08 EE18 FF01 FF04 GG02 GG03 GG08 GG12 GG24 GG30 GG32 GG37  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Tadahiro Arakawa 1048 Kazuma Kadoma, Kadoma City, Osaka Prefecture F-term in Matsushita Electric Works, Ltd. EA15 EA23 EA40 EA41 EA45 5C087 DD03 DD24 EE08 EE18 FF01 FF04 GG02 GG03 GG08 GG12 GG24 GG30 GG32 GG37

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 カメラと、カメラが出力する映像信号を
取り込み、取り込まれた画像と人体が存在しないときに
撮像された参照画像との差分領域を抽出する差分処理を
行う画像処理手段と、差分処理によって得られた差分領
域の面積に基づいて人体の転倒動作を検知する判断手段
とからなるようにしたことを特徴とする転倒検知装置。
1. A camera, image processing means for capturing a video signal output by the camera, and performing a difference process for extracting a difference area between the captured image and a reference image captured when no human body exists. A fall detecting device, characterized by comprising judging means for detecting a fall motion of a human body based on an area of a difference region obtained by the processing.
【請求項2】 前記画像処理手段において、差分領域と
して抽出された差分領域の形状から人体の向きを検知
し、前記判断手段において、人体の向きから人体がどの
向きに転倒したかを検知するようにしたことを特徴とす
る請求項1記載の転倒検知装置。
2. The method according to claim 1, wherein the image processing means detects a direction of the human body from a shape of the difference area extracted as the difference area, and the determining means detects in which direction the human body has fallen from the direction of the human body. 2. The fall detecting device according to claim 1, wherein:
【請求項3】 前記判断手段において、差分領域の位置
の履歴から人体の移動方向を検知し、人体の移動方向か
ら人体がどのように転倒したかを検知するようにしたこ
とを特徴とする請求項1又は請求項2記載の転倒検知装
置。
3. The method according to claim 2, wherein the determining means detects a moving direction of the human body from the history of the position of the difference area, and detects how the human body has fallen from the moving direction of the human body. 3. The fall detecting device according to claim 1 or 2.
JP11009618A 1999-01-18 1999-01-18 Falling detecting device Withdrawn JP2000207664A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11009618A JP2000207664A (en) 1999-01-18 1999-01-18 Falling detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11009618A JP2000207664A (en) 1999-01-18 1999-01-18 Falling detecting device

Publications (1)

Publication Number Publication Date
JP2000207664A true JP2000207664A (en) 2000-07-28

Family

ID=11725279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11009618A Withdrawn JP2000207664A (en) 1999-01-18 1999-01-18 Falling detecting device

Country Status (1)

Country Link
JP (1) JP2000207664A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056471A1 (en) * 2000-02-02 2001-08-09 Hunter, Jeremy, Alexander Patient monitoring devices and methods
JP2009268854A (en) * 2008-05-12 2009-11-19 Shimizu Corp Fall detection system
JP2012212236A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Left person detection device
US8457401B2 (en) 2001-03-23 2013-06-04 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US9020261B2 (en) 2001-03-23 2015-04-28 Avigilon Fortress Corporation Video segmentation using statistical pixel modeling
JP2015222191A (en) * 2014-05-22 2015-12-10 学校法人慶應義塾 Behavior detection system and method using infrared array sensor
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
CN112535476A (en) * 2020-12-01 2021-03-23 业成科技(成都)有限公司 Fall detection system and method thereof
CN113160520A (en) * 2021-05-11 2021-07-23 Tcl通讯(宁波)有限公司 Data processing method and device, storage medium and intelligent glasses
JP2021115391A (en) * 2020-01-29 2021-08-10 積水ハウス株式会社 Stair safety device
JP7489633B2 (en) 2017-08-02 2024-05-24 株式会社木村技研 Security Management Systems

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056471A1 (en) * 2000-02-02 2001-08-09 Hunter, Jeremy, Alexander Patient monitoring devices and methods
US9378632B2 (en) 2000-10-24 2016-06-28 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US10026285B2 (en) 2000-10-24 2018-07-17 Avigilon Fortress Corporation Video surveillance system employing video primitives
US10347101B2 (en) 2000-10-24 2019-07-09 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US10645350B2 (en) 2000-10-24 2020-05-05 Avigilon Fortress Corporation Video analytic rule detection system and method
US8457401B2 (en) 2001-03-23 2013-06-04 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US9020261B2 (en) 2001-03-23 2015-04-28 Avigilon Fortress Corporation Video segmentation using statistical pixel modeling
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
JP2009268854A (en) * 2008-05-12 2009-11-19 Shimizu Corp Fall detection system
JP2012212236A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Left person detection device
JP2015222191A (en) * 2014-05-22 2015-12-10 学校法人慶應義塾 Behavior detection system and method using infrared array sensor
JP7489633B2 (en) 2017-08-02 2024-05-24 株式会社木村技研 Security Management Systems
JP2021115391A (en) * 2020-01-29 2021-08-10 積水ハウス株式会社 Stair safety device
JP7347241B2 (en) 2020-01-29 2023-09-20 積水ハウス株式会社 stair safety device
CN112535476A (en) * 2020-12-01 2021-03-23 业成科技(成都)有限公司 Fall detection system and method thereof
CN112535476B (en) * 2020-12-01 2022-11-22 业成科技(成都)有限公司 Fall detection system and method thereof
CN113160520A (en) * 2021-05-11 2021-07-23 Tcl通讯(宁波)有限公司 Data processing method and device, storage medium and intelligent glasses

Similar Documents

Publication Publication Date Title
Bevilacqua et al. Fall detection in indoor environment with kinect sensor
JP2000253382A (en) Falling detector
JP2000207664A (en) Falling detecting device
JP3900726B2 (en) Fall detection device
JP7094814B2 (en) Detection system and detection method
EP1329838A3 (en) Pointing device using the image of the hand
WO2015125701A1 (en) Monitoring system
JP2018067203A (en) Danger notification device, danger notification method, and calibration method for danger notification device
JP2000285223A (en) Fall detector
JP6119938B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP5771039B2 (en) Abandoned person detection device
JP2019052889A (en) Image processor
JP2018533240A (en) Occupancy detection
JP2009033564A (en) Display device and display program
JPH0210045A (en) Automatic air conditioner
JP6870514B2 (en) Watching support system and its control method
JP2004187125A (en) Monitoring apparatus and monitoring method
JP2006228025A (en) Over-turning/falling detecting device, over-turning/falling detecting system and program
JP6922914B2 (en) Watching system, watching device, watching method, and watching program
JP2014021619A (en) Patient recognition device
CN108846996A (en) One kind falling down detecting system and method
JP6000762B2 (en) Image monitoring device
KR101441285B1 (en) Multi-body Detection Method based on a NCCAH(Normalized Cross-Correlation of Average Histogram) And Electronic Device supporting the same
JP6607253B2 (en) Image analysis apparatus, image analysis method, and image analysis program
JP6115689B1 (en) Fall detection device, fall detection method and monitored person monitoring device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060404