JP2018106729A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2018106729A
JP2018106729A JP2018013158A JP2018013158A JP2018106729A JP 2018106729 A JP2018106729 A JP 2018106729A JP 2018013158 A JP2018013158 A JP 2018013158A JP 2018013158 A JP2018013158 A JP 2018013158A JP 2018106729 A JP2018106729 A JP 2018106729A
Authority
JP
Japan
Prior art keywords
processing
sensor
unit
passenger
trouble
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018013158A
Other languages
English (en)
Inventor
和敬 高橋
Kazuyuki Takahashi
和敬 高橋
真美 村谷
Mami Muratani
真美 村谷
山田 直人
Naoto Yamada
直人 山田
伸次郎 村木
Shinjiro Muraki
伸次郎 村木
裕也 阿達
Yuya Adachi
裕也 阿達
政一 関口
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018013158A priority Critical patent/JP2018106729A/ja
Publication of JP2018106729A publication Critical patent/JP2018106729A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】対象者の動作に応じた適切な処理を行う電子機器を提供する。
【解決手段】対象者の生体情報の変化を検出する生体センサ(21)の検出結果を入力する第1入力部(31)と、前記対象者の動作を認識する認識装置(13,23,33)の認識結果を入力する第2入力部(32)と、前記第1、第2入力部の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理部(40)と、を備えている。
【選択図】図6

Description

本発明は、電子機器に関する。
ユーザがカメラに向かってジェスチャーを行なうことで機器を操作するインターフェース装置が提案されている(例えば、特許文献1)。
特開2004−246856号公報
しかしながら、従来のインターフェース装置では、ユーザが行った動作がジェスチャーかどうか必ずしも正確に判定することができなかった。
そこで本発明は上記の課題に鑑みてなされたものであり、対象者の動作に応じた適切な処理を行うことが可能な電子機器を提供することを目的とする。
本発明の電子機器は、対象者の生体情報の変化を検出する生体センサ(21)の検出結果を入力する第1入力部(31)と、前記対象者の動作を認識する認識装置(13,23,33)の認識結果を入力する第2入力部(32)と、前記第1、第2入力部の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理部(40)と、を備える電子機器(19)である。
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。
本発明の電子機器は、対象者の動作に応じた適切な処理を行うことができるという効果を奏する。
一実施形態に係るトラブル対応システムの構成を概略的に示す図である。 トラブル対応システムの電車内への実装例を示す図である。 つり革に設けられた圧力センサ及び生体センサを示す図である。 リファレンス画像の一例を示す図である。 電子機器のハードウェア構成図である。 電子機器の機能ブロック図である。 トラブル対応システム(電子機器の処理・制御部)の処理を示すフローチャートである。
以下、一実施形態に係るトラブル対応システム100について詳細に説明する。図1は、トラブル対応システム100の概略構成を示すブロック図である。図1に示すように、トラブル対応システム100は、処理装置19と、本体部12と、生体センサ21と、圧電センサ13と、圧力センサ23と、車両センサ11と、空調部29と、タイマー20と、フラッシュメモリ30と、を備える。
図2にはトラブル対応システム100の実装例が示されている。この図2に示すように、本実施形態では、トラブル対応システム100は、電車50内に設けられるものとする。例えば、処理装置19や本体部12は、電車50の天井部に設けられ、圧電センサ13は、電車50の床面に設けられる。また、生体センサ21や圧力センサ23は、電車50内のつり革22(図3参照)に設けられる。更に、その他の装置についても電車50内に設けられるものとする。
本体部12は、図1に示すように、撮像部14、スピーカ15、マイク16、LED(Light Emitting Diode)18、及び駆動装置9を有する。本体部12は、各装置を1つのユニットとして構成してもよいが、少なくとも1つの装置を分離配置することとしてもよい。
撮像部14は、撮影レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、及び撮像素子を制御する制御回路などを有する。撮像部14は、前述のように電車50の天井部に設けられているので、主に、乗客の頭部を撮像する。また、撮像部14は、乗客が天井の方向を見たときに当該乗客の顔を撮像する。なお、撮像部14が主に頭部を撮像するのは、乗客のプライバシーを守るためである。
スピーカ15は、車内でトラブルが発生した際にトラブルを抑制するためのアナウンスをしたり、乗客に問いかけてトラブルが発生しているかどうかを確認するためのものである。スピーカ15は、処理装置19(処理・制御部40(図6参照))からの指示に基づいて、例えば“大丈夫ですか”、“落ち着いて下さい”などといった音声合成技術を用いて合成された音声を出力する。スピーカ15としては、種々のスピーカを用いることができるが、例えば、超音波トランスデューサを有し、限られた方向のみに音声を伝達する指向性スピーカや超指向性スピーカを用いることができる。指向性のあるスピーカを用いた場合、車両全体ではなく、トラブルが起きている付近に向けて音声を発することができる。
マイク16は、車内の音声を集音するものである。マイク16では、例えば、トラブル時に乗客から発せられる“助けて”や“キャー”などの音声を集音し、処理装置19(処理・制御部40)に入力する。
LED18は、トラブルが発生している付近に向けて光を照射するものであり、トラブルが発生していることを周りの乗客や駅員などに知らせるものである。
駆動装置9は、例えばボイスコイルモータ等を含み、撮像部14、スピーカ15、マイク16及びLED18の位置・姿勢の調節を行うものである。
上述のように構成される本体部12は、車両毎に1台もしくは複数台設けることができる(図2では、2台の場合を図示している)。本体部12を何台設けるかは、例えば、撮像部14の撮像領域に応じて(車両全体を撮像できるように)決定することができる。
圧電センサ13は、ピエゾ素子を有し、外部から与えられた力を圧電効果により電圧に変換することで、振動を電気的に検出するものである。多数の圧電センサ13を車両内の全域をカバーするように配置すれば、車両内のどの位置において振動が生じているかを検出することができる。
例えば、車両内の女性が複数の男性に囲まれて困っており、床(圧電センサ13)を何回か強く踏んだとする。この場合、圧電センサ13がその振動を検出して処理装置19(処理・制御部40)に当該検出結果を送信することで、処理装置19(処理・制御部40)ではトラブル発生の可能性及びその位置を検出することができる。なお、トラブルの検出方法の詳細については、後述する。
タイマー20は、計時機能を有し、圧電センサ13が振動を検出した時間を計測するものである。例えば、タイマー20は、振動が5秒以上続けて検出された場合や、所定時間(例えば30秒)内に断続的に振動が検出された場合に、処理装置19(処理・制御部40)に対してその旨を通知する。
生体センサ21は、心拍数、血中酸素濃度、血圧などの生体情報を検出するものであり、図1に示すように、LED24、フォトセンサ25、発汗センサ26を有する。LED24、フォトセンサ25、発汗センサ26は、図3に示すように、電車50内に設けられるつり革22の手すり部分22aに設けられるものとする。具体的には、手すり部分22aには、LED24とフォトセンサ25が、交互に複数配置されるとともに、LED24とフォトセンサ25とを挟むように一対の発汗センサ26が設けられている。
LED24とフォトセンサ25は、LED24の照射する光を指に当てたときに反射する光をフォトセンサ25で受光することにより心拍数や血中酸素濃度を検出する。発汗センサ26は、複数の電極により手のインピーダンスを測定して、発汗量を検出する。なお、LED24、フォトセンサ25、発汗センサ26の数や配置は適宜設定することができる。
また、図3のつり革22の手すり部分22aには、圧力センサ23も設けられているものとする。圧力センサ23としては、歪センサを用いてもよいし、静電容量の変化から圧力を検出するセンサを用いてもよい。圧力センサ23は、乗客がつり革22につかまっていることを検出したり、あるいは、乗客がトラブルに巻き込まれた場合などにおいてつり革22を強く握るなどの通常と異なる握り方(ジェスチャー)をしたことを検出する。なお、圧力センサ23を設ける数や配置は適宜設定することができる。
なお、本実施形態においては、図3に示すように生体センサ21の一部と、圧力センサ23を近接配置したが、別々に設けてもよく、また、これらを一つのユニットとしてもよい。なお、つり革22の位置は、予めわかっており、各つり革22の位置の情報は、フラッシュメモリ30等に格納されているものとする。
車両センサ11は、電車が走行、停止等することで生じる電車自体の振動を検出する振動センサを含む。また、車両センサ11は、車両内の温度を検出する温度センサを含んでいてもよい。車両センサ11の検出結果は、処理装置19(処理・制御部40)に対して送信される。
空調部29は、車両内の空調を行なうものであり、本実施の形態においては、撮像部14により撮像された頭の数(すなわち乗客数)に基づいて、処理装置19(処理・制御部40)により制御される。
フラッシュメモリ30は、各種データを記憶している不揮発性のメモリであり、本実施形態においては、フラッシュメモリ30には、乗客の頭を基準とした、手、足の位置を示すリファレンス画像が記憶されている。図4は、リファレンス画像の一例を示す図である。図4において、破線で囲まれた領域が、頭の位置を基準とした手の存在範囲(存在している可能性が高い範囲)であり、一点鎖線で囲まれた領域が、頭の位置を基準とした足の存在範囲である。
次に、処理装置19について、詳細に説明する。処理装置19は、トラブル対応システム100全体を制御するものであり、生体センサ21や圧電センサ13、圧力センサ23等の出力に基づいて、車両内でトラブルが発生しているかどうかの判断を行う。また、処理装置19は、トラブルが発生した際にトラブルが沈静化するような動作・処理を、本体部12等に行わせる。
図5には、処理装置19のハードウェア構成図が示されている。この図5に示すように、処理装置19は、CPU90、ROM92、RAM94、記憶部(ここではHDD(Hard Disk Drive))96等を備えており、処理装置19の構成各部は、バス98に接続されている。処理装置19では、ROM92あるいはHDD96に格納されている処理プログラムをCPU90が実行することにより、図6の各部の機能が実現される。
図6には、処理装置19の機能ブロック図が示されている。この図6に示すように、処理装置19は、CPU90が処理プログラムを実行することで、生体情報入力部31、動作情報入力部32、顔認識部33、音声認識部34、及び処理・制御部40としての機能を発揮する。
生体情報入力部31には、生体センサ21において検出された検出結果が入力される。生体情報入力部31は、入力された情報を、処理・制御部40に対して出力する。
動作情報入力部32には、圧電センサ13、圧力センサ23において検出された検出結果、及び後述する顔認識部33の認識結果が入力される。動作情報入力部32は、入力された情報を、処理・制御部40に対して出力する。
顔認識部33は、撮像部14が撮像した画像を取得し、当該画像中の顔画像を検出するものである。顔認識部33は、目、鼻、口といった顔の特徴部分を画像として検出することにより顔と判定する。本実施形態においては、撮像部14が車両の天井部に設けられているため、顔認識部33は、撮像部14で撮像した画像に含まれる略円形状の画像が、頭部であるか、顔であるかを判別しているとも言える。また、顔認識部33は、頭部の動きを非接触にて検出するものでもある。なお、車内においては天井を見るために顔を動かすことが難しい状況もある。したがって、顔認識部33は、乗客があごを上げて額と目が撮像部14に撮像されたときに、顔の検出が行われたとするアルゴリズムを採用してもよい。
音声認識部34は、音声認識辞書を有しており、当該音声認識辞書を用いて、マイク16から入力された音声の識別を行う。本実施形態では、音声認識辞書には、“助けて”、“キャー”というような、非常時に発する音声が登録されているものとする。なお、マイク16から処理・制御部40に対しては、音声のみならず、集音された音声の大きさ(dB)も入力されるものとする。なお、図6では、音声認識部34に、マイク16から処理装置19に入力された音声が、処理・制御部40を介して入力されているが、これに限られるものではない。マイク16から音声認識部34に直接音声が入力されることとしてもよい。
処理・制御部40は、処理装置19内部又は外部から入力される情報を用いて、各種処理を行ったり、処理装置19内部又は外部の装置の制御を行ったりする。例えば、処理・制御部40は、フラッシュメモリ30に記憶されているリファレンス画像を用いることで、顔認識部33で認識された頭又は顔の画像を基準として、生体センサ21、圧電センサ13、圧力センサ23の出力が同一人物(一人の乗客)からの出力であるかどうかを判別する。この場合、リファレンス画像を拡大、縮小、回転させて乗客とのパターンマッチングを行うことにより同一人物かどうかの判別を行うものとする。なお、処理・制御部40は、リファレンス画像の拡大、縮小を、頭の大きさに基づいて行うことができる。このようにするのは、頭の大きさに応じて体格が異なるためである。なお、処理・制御部40は、ジェスチャーを検出した圧力センサ23及び生体情報の変化を検出した生体センサ21の位置を、つり革22の位置情報(フラッシュメモリ30等に格納されている)に基づいて取得することができる。なお、リファレンス画像として男性用、女性用、子供用などをそれぞれの平均的な体格からフラッシュメモリ30に記憶させてもよい。
また、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23の検出結果に基づいて、乗客が車内でトラブルに巻き込まれたか否かを判断する。ここで、トラブルに巻き込まれた乗客は、生体情報が変化したり、あるいは床を何回か踏むというジェスチャー(アクション)や、つり革22を強く握るというジェスチャー(アクション)や、顔を上げて天井を見るといったジェスチャー(アクション)を行う。また、トラブルに巻き込まれた乗客は、恐怖のあまりに足がガタガタ震えだしたり、つり革22を無意識に強くにぎることがあるため、乗客は無意識にジェスチャー(アクション)を行なうことができる。したがって、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23、顔認識部33からの情報に基づいて、トラブルの発生の有無を判断することができる。なお、圧電センサ13、圧力センサ23、顔認識部33は、上記のようなジェスチャー(アクション)を検出しているので、ジェスチャー(アクション)検出部であるともいえる。以下においては、圧電センサ13、圧力センサ23、顔認識部33を纏めて、ジェスチャー検出部(13,23,33)と呼ぶものとする。
また、処理・制御部40は、前述した本体部12を駆動する駆動装置9を制御して、トラブルが発生した場所に向けて、音声や光を発したり、トラブルが発生した場所で発せられる音声を集音する。更に、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23、顔認識部33からの情報に基づいてトラブルが発生したと判断したタイミングで、マイク16などのスイッチをオンにする(通常はオフの状態が維持される)ような制御を行うこともできる。これにより、省エネルギー化を図ることができる。また、省エネルギー化の観点からすると、処理・制御部40は、つり革22に設けられたLED24やフォトセンサ25の近傍の圧力センサ23で、乗客がつり革につかまったことを検出している間だけ、LED24を発光させるようにしてもよい。
次に、上述したように構成されるトラブル対応システム100の処理・動作について、図7のフローチャートに沿って説明する。
図7の処理では、ステップS10において、生体情報入力部31が生体センサ21から入力される生体情報を、処理・制御部40に入力する。具体的には、生体情報入力部31は、処理・制御部40に対して、LED24およびフォトセンサ25で検出された心拍数および血中酸素濃度を入力するとともに、発汗センサ26で検出された発汗量を入力する。なお、生体センサ21から生体情報入力部31に入力される生体情報は、1つの情報であっても複数の情報であってもよい。また、生体情報には、例えば血圧の情報などが含まれていてもよい。なお、ステップS10では、生体情報入力部31は、複数の乗客の生体情報を、処理・制御部40に繰り返し入力するものとする。
次いで、ステップS12では、圧電センサ13、圧力センサ23の検出情報及び顔認識部33の認識結果を用いて、処理・制御部40が、ジェスチャーの検出を行う。なお、本実施形態では、圧電センサ13、圧力センサ23、顔認識部33を利用してジェスチャー検出を行うが、トラブル検出のシチュエーションに応じて、圧電センサ13、圧力センサ23、顔認識部17の少なくとも1つを利用してジェスチャー検出を行うこととしてもよい。また、圧電センサ13、圧力センサ23、顔認識部17とは別のセンサを利用してジェスチャー検出を行うこととしてもよい。なお、処理・制御部40は、生体センサ21による生体情報の検出と、圧電センサ13又は圧力センサ23によるジェスチャー検出の少なくとも一方があった場合に、撮像部14による撮像を行い、それ以外の場合は撮像部14のスイッチをオフにしておく(又は電源を供給しない)こととしてもよい。
なお、ステップS10とステップS12の実行順は入れ替えてもよい。この場合、ステップS10において圧力センサ23からの出力がなかったつり革22においては、ステップS12の生体センサ21による検出を省略してもよい。この場合、生体センサ21への電力供給を、同一のつり革22に設けられた圧力センサ23による圧力の検出タイミングで行うこととしてもよい。
次いで、ステップS14では、処理・制御部40が、ステップS10,S12の結果に基づき電車50内でトラブルが発生しているか否かの判断を行う。具体的には、まず、処理・制御部40は、フラッシュメモリ30に記憶されているリファレンス画像(図4)を用いて、乗客の頭又は顔の位置と、生体センサ21及びジェスチャー検出部(圧電センサ13、圧力センサ23)の位置関係(手と足の位置関係)から、どの乗客の生体情報が変化しているか、どの乗客がジェスチャーをしているか、及び、それは同一の乗客かどうかを判断する。そして、処理・制御部40は、乗客が特定できた後に、トラブルが発生しているかどうかを判断する。この場合、処理・制御部40は、以下の(a)〜(c)の判断基準を満たしている場合に、トラブルが発生していると判断する。
(a) 同一の乗客に関し、生体センサ21が、心拍数もしくは血中酸素濃度の変化を検出するとともに、ジェスチャー検出部(13,23,33)の少なくとも1つが乗客のジェスチャーを検出した場合。
(b) 車両センサ11(温度センサ)による検出の結果、車内の温度が高くない(例えば、23℃以下)にもかかわらず、同一の乗客に関し、発汗センサ26が所定量以上の発汗を検出し、かつジェスチャー検出部(13,23,33)の少なくとも1つのセンサが乗客のジェスチャーを検出した場合。
(c) 同一の乗客に関し、圧力センサ23の出力がない(すなわち生体センサ21からの出力も得られていない)が、圧電センサ13と顔認識部33から所定量以上のジェスチャーを検出した場合。
なお、車両内に乗客の体温を検出することが可能な赤外線センサを設ける場合には、処理・制御部40は、以下の(d)の判断基準を満たす場合に、トラブルが発生していると判断してもよい。
(d) 同一の乗客に関し、圧力センサ23の出力がないが、赤外線センサにて体温の上昇が検出されるとともに、圧電センサ13と顔認識部17との少なくとも一方から所定量以上のジェスチャーを検出した場合。
ここで、赤外線センサは、乗客から出ている赤外線放出エネルギー量を検出して、温度に変換するものであり、広い範囲の表面温度の分布を検出することができる。この場合、乗客の頭部の温度変化を検出して、トラブル発生の検出ができる。赤外線カメラのような非接触のセンサを用いれば、乗客に特別なセンサを持たせる(掴ませる)ことなく、乗客の生体情報を入手することができる。
なお、上記(a)〜(d)の判断では、処理・制御部40は、タイマー20の計時結果に基づいて、生体センサ21の出力値の変化が5秒以上続いた場合、もしくは生体センサ21の出力値が30秒以内に断続的に変化している場合に、生体センサ21の出力値の変化があったと判断する。ただし、これに限らず、処理・制御部40は、生体センサ21の出力値の変化が大きい場合(例えば変化量が元の値の10%以上となった場合)に、生体情報の変化があったと判断することとしてもよい。また、処理・制御部40は、タイマー20の計時結果に基づいて、ジェスチャー検出部(13,23,33)の出力値の変化が5秒以上続いた場合、もしくはジェスチャー検出部(13,23,33)の出力値が30秒以内に断続的に変化している場合に、乗客がジェスチャーを行ったと判断する。
また、電車が急停車した場合や、揺れが大きい場合、あるいは乗客が乗り降りする場合などにおいては、ジェスチャー検出部(13,23,33)の検出結果が、トラブル発生時と同様の検出結果となる場合がある。このような場合に、トラブルが発生したと判断することが無いようにするため、処理・制御部40は、車両センサ11の検出結果を考慮して、トラブル発生有無の判断を行うこととしてもよい。
上記のような判断により、ステップS14の判断が肯定された場合には、ステップS22に移行し、否定された場合には、ステップS16に移行する。
ステップS16に移行した場合、処理・制御部40は、トラブルが発生しているかいないかが明確に判断できないかどうか(すなわち、確認が必要かどうか)を判断する。具体的には、処理・制御部40は、以下の(A)及び(B)のいずれかの条件を満足するか否かに基づいた判断を行う。
(A) 生体センサ21が生体情報の変化を検出している一方、ジェスチャー検出部(13,23,33)の検出結果からはジェスチャーが行われていることを確認できない場合。
(B) 圧力センサ23の検出結果からジェスチャーが行われていることを確認できる場合で、生体センサ21が生体情報の変化を検出しておらず、圧電センサ13の検出結果及び顔認識部33の認識結果の少なくとも一方からジェスチャーが行われていることを確認できる場合。
上記(A)、(B)のいずれかの条件を満たす場合には、ステップS16の判断が肯定され、ステップS18に移行する。一方、上記(A)、(B)のいずれの条件も満たさない場合には、トラブルが発生している可能性はほとんどないとして、ステップS16の判断が否定され、ステップS10に戻る。
ステップS18に移行した場合、処理・制御部40は、ステップS14で特定した乗客に対して確認を行う。具体的には、処理・制御部40は、スピーカ15及びマイク16を駆動装置9により駆動して、特定した乗客に向け、スピーカ15を用いて“大丈夫ですか?”などの音声で問い掛けを行う。また、処理・制御部40は、問い掛けたタイミングでマイク16のスイッチをオンにして、問い掛けに対する乗客からの応答音声を取得する。そして、処理・制御部40は、応答音声を音声認識部34に送信し、音声認識部34による音声認識結果を取得する。
次いで、ステップS20では、処理・制御部40が、音声認識部34の認識結果及びステップS16からステップS18の間の生体センサ21およびジェスチャー検出部(13,23,33)の出力に基づいて、トラブルが発生しているか否かを判断する。例えば、処理・制御部40は、音声認識部34の認識結果が“大丈夫です”などであった場合にはトラブルがなかったと判断し、“助けて”や“キャー”などであった場合には、トラブルが発生していると判断する。また、例えば、乗客からの応答音声が無い一方、当該乗客においてジェスチャーがされた場合には、トラブルが発生していると判断する。なお、処理・制御部40は、集音された応答音声の大きさ(dB)を考慮して、トラブルの発生有無を判断してもよい。
ステップS20の判断が否定された場合(トラブルが発生していない場合)には、ステップS10に戻るが、肯定された場合(トラブルが発生していた場合)には、ステップS22に移行する。
上記ステップS20の判断、又は前述したステップS14の判断が肯定されて、ステップS22に移行すると、処理・制御部40は、トラブル抑制処理を実行する。
具体的には、処理・制御部40は、トラブルを抑制するために、駆動装置9を制御して、撮像部14、スピーカ15、マイク16及びLED18を特定した乗客(トラブルに巻き込まれた乗客)及びその周辺に向ける。そして、処理・制御部40は、スピーカ15から、“どうかしましたか”、“大丈夫ですか”などと問い掛けを行ったり、スピーカ15から“トラブルが発生した恐れがありますので、状況を記録いたします”などとアナウンスした後、撮像部14により撮像した映像やマイク16により集音した音声をフラッシュメモリ30に記録する。また、処理装置19は、LED18を発光させ、特定した乗客がいる付近に向け光を照射する。処理・制御部40が、ステップS22を実行すれば、車内で痴漢行為が行われているような場合に、痴漢行為の実行者は行為続行を躊躇する可能性が高い。これにより、その後の痴漢行為の発生を抑制することが可能となる。なお、処理・制御部40は、上記アナウンス、撮像、録音、照射のうちの少なくとも1つの動作を行うこととしてもよい。例えば、LED18の発光は、撮像部14の撮像結果、圧電センサの検出結果などから、乗車率が高いと判断できる場合、あるいは夜間などにおいてのみ、行うこととしてもよい。
次いで、ステップS24では、処理・制御部40は、トラブルが沈静化したか否かの確認を行う。この場合、処理・制御部40は、前述したステップS18と同様、スピーカ15を用いた問い掛けを行い、マイク16から取得した応答音声の音声認識部34による認識結果に基づいて、トラブルが沈静化したか否かを判断する。なお、処理・制御部40は、生体センサ21、ジェスチャー検出部(13,23,33)の検出結果に基づいてトラブルが沈静化したか否かを判断することとしてもよい。この場合、生体センサ21、ジェスチャー検出部(13,23,33)の検出結果が正常の値に戻っていれば、トラブルが沈静化したと判断することができる。
ステップS24における判断が肯定された場合には、ステップS10に戻る。一方、ステップS24の判断が否定された場合には、ステップS26に移行する。ステップS26では、処理・制御部40は、次の停車駅の駅員にトラブルが発生している車両を通知する。この場合、処理・制御部40は、図4のCPUによって実現される通信機能(電話機能やメール機能など)や、処理装置に接続される通信装置を用いて、次の停車駅の駅員に通知することができる。
以上の処理を、電車運行中に繰り返し実行することで、電車内におけるトラブル発生の検出及びトラブルの沈静化を図ることが可能となる。
以上、詳細に説明したように、本実施形態によると、処理・制御部40は、生体情報入力部31から入力される電車内の乗客の生体情報の変化を検出する生体センサ21の検出結果と、動作情報入力部32から入力される乗客の動作を認識するジェスチャー検出部(13,23,33)の認識結果とに基づいて、乗客の動作(ジェスチャー)に応じた処理を行う。すなわち、処理・制御部40は、ジェスチャー検出部(13,23,33)が認識した動作に加えて、生体センサ21の検出結果を考慮した処理(トラブル発生有無の判断やトラブル沈静化の処理)を行うことで、乗客の動作に応じた適切な処理を行うことができる。
また、本実施形態によると、ジェスチャー検出部(13,23,33)が、異なる複数のセンサを有しており、処理・制御部40は、生体情報入力部31への生体情報の変化の入力がない場合でも、動作情報入力部32が入力する複数のセンサの認識結果に基づいて、乗客の動作に応じた処理を行うこととしている。したがって、複数のセンサの動作(ジェスチャー)の認識結果に基づく処理を行うことで、乗客の動作に応じた処理をより適切に行うことが可能となる。
また、本実施形態によると、ジェスチャー検出部が、非接触センサである顔認識部33と、圧電センサ13や圧力センサ23などの接触式のセンサとを含んでおり、処理・制御部40は、接触式のセンサが乗客の動作を認識したときに、撮像部14による撮像を行う。これにより、撮像部14は、接触式のセンサが乗客の動作を認識するまでの間、電源をオフにすることができるので省エネルギー化を図ることが可能となる。
また、本実施形態によると、撮像部14は、接触式のセンサよりも上方(天井部)に設けられているので、撮像部14では、主に乗客の頭を撮像することができる。これにより、乗客のプライバシーを守ることが可能となる。
また、本実施形態によると、ジェスチャー検出部の少なくとも一部(本実施形態では圧力センサ23)が、生体センサ21の近傍に設けられているので、ジェスチャーを行った手自体の生体情報の変化を生体センサ21で検出することができる。この場合、ジェスチャーと生体情報の変化の関連が高いため、乗客の動作に応じた処理をより適切に行うことが可能となる。
また、本実施形態によると、処理・制御部40は、乗客の動作に応じた処理として、乗客に向けてスピーカ15から音を出力する処理を行うので、乗客への問い掛けや乗客の行為に対する注意などを行うことができる。これにより、トラブル発生有無の判断やトラブル抑制の処理を適切に行うことができる。
また、本実施形態では、スピーカ15が、限られた方向に音を出力する指向性スピーカとすることができる。この場合、乗客への問い掛けや注意を、特定の乗客(ジェスチャーを行った乗客)やその周囲の乗客に限定して、行うことができる。
また、本実施形態によると、処理・制御部40は、音声を入力するマイク16から乗客が発する音声を受け付け、音声認識部34に音声を識別させるので、処理・制御部40は、乗客が発した音声の意味に基づいた適切な処理(トラブル発生の確認など)を行うことが可能となる。
また、本実施形態では、乗客の生体情報が変化している時間と、乗客のジェスチャーが認識されている時間と、を計時するタイマー20を備えており、処理・制御部40は、生体情報入力部31及び動作情報入力部32の入力結果と、タイマー20の計時結果と、に応じた処理を実行する。例えば、処理・制御部40は、入力結果の変化が5秒以上続けて検出された場合や、所定時間(例えば30秒)内に断続的に入力結果が変化した場合に、ジェスチャーが行われたと判断して、処理を実行するようにする。これにより、ジェスチャーが行われたことの判断を適切に行うことができ、ひいては処理を適切に実行することが可能となる。
また、本実施形態では、乗客が、電車という移動可能な装置内に存在しており、処理・制御部40は、電車の動きを検出する車両センサ11の検出結果を考慮して、処理を行うこととしている。すなわち、急な加減速、停止、乗客の昇降などにおいて生じる電車の動きを考慮することで、電車の動きに起因する乗客の動作があっても乗客のジェスチャーの有無を適切に判断することができ、ひいては、適切な処理を行うことが可能となる。
また、本実施形態では、動作情報入力部32が、乗客の手の動きを検出する圧力センサ23の検出結果、足の動きを検出する圧電センサ13の検出結果、及び頭部の動きを検出する顔認識部33の認識結果を入力し、処理・制御部40が、手、足、頭部が同一人物の一部であるか否かを判定するので、処理・制御部40は、同一人物の手、足、頭部の動きの検出結果を関連付けることが可能となる。また、本実施形態では、処理・制御部40は、同一人物の手、足、頭の動きの検出結果に基づいた処理を行うので、手、足、頭部の動きに基づいた適切な処理を行うことができる。
また、本実施形態では、処理・制御部40は、手の動きを検出した圧力センサ23の位置情報、足の動きを検出した圧電センサ13の位置情報に基づいて、手と足とが、同一人物のものであるか否かを判定するので、位置情報に基づく適切な判定が可能となる。
また、本実施形態では、動作情報入力部32に加えて、乗客の生体情報の変化を検出する生体センサ21の検出結果を入力する生体情報入力部31を備えているので、ジェスチャーと生体情報の変化とに基づいた適切な処理を行うことが可能となる。
また、本実施形態では、処理・制御部40は、顔認識部33から入力される、頭部の動きと頭部以外(手や足)の動きとに基づいた処理を行うので、頭部の動きや頭部以外の動きいずれかに基づいた処理を行う場合と比べて、適切な処理を行うことが可能となる。
なお、上記実施形態では、処理装置19が、音声認識部34、顔認識部33の機能を有する場合について説明した。しかしながら、これに限られるものではなく、音声認識部34と同等の機能を有する装置や顔認識部33と同等の機能を有する装置(CPUなど)が、処理装置19の外部に設けられることとしてもよい。
なお、上記実施形態では、圧電センサ13に代えて、又はこれとともに、乗客が身に付ける加速度センサをジェスチャー検出部の一部として採用することとしてもよい。加速度センサは、例えば、靴に内蔵する又は取り付けることとする。加速度センサの情報は、処理装置19又はフラッシュメモリ30に登録しておく。そして、乗客が車内で床を踏むジェスチャーを行った際には、加速度センサの検出結果が、無線通信などにより処理装置19(動作情報入力部32)に入力される。このようにすることで、圧電センサ13を利用した場合と同様の処理を行うことが可能となる。また、加速度センサをつま先部分とかかと部分にそれぞれ設けることとすれば、車内でどのような姿勢になった場合でも、乗客が行った床を踏むというジェスチャーを検出することが可能となる。このように加速度センサを使用した場合には、トラブルの発生をより正確に検出することが可能である。
なお、上記実施形態では、生体センサ21をつり革22に設ける場合について説明したが、これに限られるものではない。例えば、生体センサ21を乗客が身に付ける時計型の装身具や指輪型の装身具に設けることとしてもよい。この場合、装身具には無線ユニットを設けておき、無線ユニットを用いて生体センサ21が検出した生体情報を無線送信するようにする。また、生体センサ21は、処理装置19に登録しておく。この場合、乗客が生体センサ21を身につけておけば、例えば乗客が痴漢行為を受け心拍数が上昇したときに(すなわち、生体情報が変化したときに)、無線ユニットを用いて処理装置19に痴漢行為の発生の可能性を通知することができる。また、この場合、痴漢行為を受けている乗客がつり革を掴んでいなくてもよいため、より正確にトラブルの発生を検出することができる。
なお、上記実施形態では、処理装置19が車両内に設けられた場合について説明したが、これに限られるものではない。例えば、処理装置19は、車両外(例えば駅や鉄道管制施設など)に設けることとしてもよい。この場合、図1に示す処理装置19以外の各部と、処理装置19とが通信可能である必要がある。
なお、上記実施形態では、車両内のつり革22に生体センサ21や圧力センサ23を設ける場合について説明したが、これに限らず、車両内に設けられた棒状の手すりに生体センサ21や圧力センサ23を設けることとしてもよい。
なお、トラブル対応システム100は、電車内に設ける場合に限らず、バスやエレベータなど人が搭乗することが可能な移動装置内に設置することが可能であり、これに加えて、学校、病院、銀行、商業施設、自宅などへ設置することも可能である。
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
11 車両センサ
13 圧電センサ
15 スピーカ
16 マイク
19 処理装置
20 タイマー
21 生体センサ
23 圧力センサ
31 生体情報入力部
32 動作情報入力部
33 顔認識部
34 音声認識部
40 処理・制御部
50 電車
90 CPU
100 トラブル対応システム

Claims (1)

  1. 対象者の生体情報の変化を検出する生体センサの検出結果を入力する第1入力部と、
    前記対象者の動作を認識する認識装置の認識結果を入力する第2入力部と、
    前記第1、第2入力部の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理部と、を備えたことを特徴とする電子機器。
JP2018013158A 2018-01-30 2018-01-30 電子機器 Pending JP2018106729A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018013158A JP2018106729A (ja) 2018-01-30 2018-01-30 電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018013158A JP2018106729A (ja) 2018-01-30 2018-01-30 電子機器

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015239648A Division JP2016053990A (ja) 2015-12-08 2015-12-08 電子機器

Publications (1)

Publication Number Publication Date
JP2018106729A true JP2018106729A (ja) 2018-07-05

Family

ID=62785794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018013158A Pending JP2018106729A (ja) 2018-01-30 2018-01-30 電子機器

Country Status (1)

Country Link
JP (1) JP2018106729A (ja)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6312579A (ja) * 1986-07-04 1988-01-19 清水建設株式会社 エレベ−タにおける人工知能型セキユリテイシステム
JP2000354943A (ja) * 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> 作業管理・支援方法、その装置及びそのプログラムを記録した記録媒体
JP2001023095A (ja) * 1999-07-12 2001-01-26 Mazda Motor Corp 車両の周囲情報報知装置
JP2004180169A (ja) * 2002-11-28 2004-06-24 Seiwa Electric Mfg Co Ltd 照明装置及び監視システム
JP2005033694A (ja) * 2003-07-11 2005-02-03 Nippon Telegr & Teleph Corp <Ntt> 撮影システムおよび移動体装置
US20050088297A1 (en) * 2003-10-06 2005-04-28 Yasushi Miyajima Information recording device and information recording method
JP2005303734A (ja) * 2004-04-13 2005-10-27 Ntt Docomo Inc 通信装置およびサーバシステム
JP2005346254A (ja) * 2004-06-01 2005-12-15 Hitachi Ltd 危機監視システム
US20080107361A1 (en) * 2006-11-07 2008-05-08 Sony Corporation Imaging apparatus, display apparatus, imaging method, and display method
JP2009302252A (ja) * 2008-06-12 2009-12-24 Nissan Motor Co Ltd 有機薄膜受光素子、有機薄膜受発光素子、有機薄膜受発光素子アレイ、これらを用いた脈拍センサ、およびこの脈拍センサを設けた車両
JP2010237781A (ja) * 2009-03-30 2010-10-21 National Institute Of Advanced Industrial Science & Technology 監視用撮像装置及び監視用撮像システム
JP2011039737A (ja) * 2009-08-10 2011-02-24 Npo E-Jikei Network Promotion Institute 所有者,画像閲覧可能な者を知らしめる情報開示手段を持つことを特徴とする防犯カメラシステム

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6312579A (ja) * 1986-07-04 1988-01-19 清水建設株式会社 エレベ−タにおける人工知能型セキユリテイシステム
JP2000354943A (ja) * 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> 作業管理・支援方法、その装置及びそのプログラムを記録した記録媒体
JP2001023095A (ja) * 1999-07-12 2001-01-26 Mazda Motor Corp 車両の周囲情報報知装置
JP2004180169A (ja) * 2002-11-28 2004-06-24 Seiwa Electric Mfg Co Ltd 照明装置及び監視システム
JP2005033694A (ja) * 2003-07-11 2005-02-03 Nippon Telegr & Teleph Corp <Ntt> 撮影システムおよび移動体装置
US20050088297A1 (en) * 2003-10-06 2005-04-28 Yasushi Miyajima Information recording device and information recording method
JP2005110869A (ja) * 2003-10-06 2005-04-28 Sony Corp 記録装置、及び記録方法
JP2005303734A (ja) * 2004-04-13 2005-10-27 Ntt Docomo Inc 通信装置およびサーバシステム
JP2005346254A (ja) * 2004-06-01 2005-12-15 Hitachi Ltd 危機監視システム
US20080107361A1 (en) * 2006-11-07 2008-05-08 Sony Corporation Imaging apparatus, display apparatus, imaging method, and display method
JP2008118527A (ja) * 2006-11-07 2008-05-22 Sony Corp 撮像装置、表示装置、撮像方法、表示方法
JP2009302252A (ja) * 2008-06-12 2009-12-24 Nissan Motor Co Ltd 有機薄膜受光素子、有機薄膜受発光素子、有機薄膜受発光素子アレイ、これらを用いた脈拍センサ、およびこの脈拍センサを設けた車両
JP2010237781A (ja) * 2009-03-30 2010-10-21 National Institute Of Advanced Industrial Science & Technology 監視用撮像装置及び監視用撮像システム
JP2011039737A (ja) * 2009-08-10 2011-02-24 Npo E-Jikei Network Promotion Institute 所有者,画像閲覧可能な者を知らしめる情報開示手段を持つことを特徴とする防犯カメラシステム

Similar Documents

Publication Publication Date Title
WO2012120959A1 (ja) 電子機器、処理システム及び処理プログラム
US20160379463A1 (en) Method and apparatus for setting a notification readout mode based on proximity detection
JP5366048B2 (ja) 情報提供システム
US11514269B2 (en) Identification device, robot, identification method, and storage medium
US20190231253A1 (en) Using a hearable to generate a user health indicator
US10536852B2 (en) Electronic apparatus, method for authenticating the same, and recording medium
CN111475206B (zh) 用于唤醒可穿戴设备的方法及装置
JP2024023193A (ja) 情報処理装置及び情報処理方法
JP2016053990A (ja) 電子機器
WO2021095832A1 (ja) 首掛け型装置
JP5923858B2 (ja) 電子機器、処理システム及び処理プログラム
JP2018106729A (ja) 電子機器
JP2012185632A (ja) 電子機器、処理システム及び処理プログラム
JP2021135363A (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
JP7435641B2 (ja) 制御装置、ロボット、制御方法およびプログラム
JP7118456B2 (ja) 首掛け型装置
KR20230154380A (ko) 행동 및 발화 패턴 기반 감성 인식 결과에 의해 사용자의 감성 상태에 적합한 헬스케어 서비스를 제공하는 시스템 및 방법
JP2007155985A (ja) ロボットおよび音声認識装置ならびにその方法
Spexard et al. Human-like person tracking with an anthropomorphic robot
US20220020257A1 (en) Method and system for monitoring a user
KR20170029390A (ko) 음성 명령 모드 진입 방법
JP2007190620A (ja) ロボット装置の制御装置および方法
KR20190104704A (ko) 낙상 검출을 위한 단말기
US12039223B2 (en) Head-mountable information processing apparatus
US20220310090A1 (en) Vehicle control system and vehicle control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190909

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200107