JP7115277B2 - 行動監視装置、行動監視システム、及び行動監視プログラム - Google Patents

行動監視装置、行動監視システム、及び行動監視プログラム Download PDF

Info

Publication number
JP7115277B2
JP7115277B2 JP2018231199A JP2018231199A JP7115277B2 JP 7115277 B2 JP7115277 B2 JP 7115277B2 JP 2018231199 A JP2018231199 A JP 2018231199A JP 2018231199 A JP2018231199 A JP 2018231199A JP 7115277 B2 JP7115277 B2 JP 7115277B2
Authority
JP
Japan
Prior art keywords
person
behavior
monitoring device
behavior monitoring
persons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018231199A
Other languages
English (en)
Other versions
JP2020095357A (ja
Inventor
功一 鈴木
亮 神田
大輝 久保
光一郎 三巻
美久 安藤
俊治 立石
吉孝 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018231199A priority Critical patent/JP7115277B2/ja
Priority to US16/664,349 priority patent/US11195001B2/en
Priority to CN201911194124.7A priority patent/CN111294554B/zh
Publication of JP2020095357A publication Critical patent/JP2020095357A/ja
Application granted granted Critical
Publication of JP7115277B2 publication Critical patent/JP7115277B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)

Description

本開示は、行動監視装置、行動監視システム、及び行動監視プログラムに関する。
従来、カメラによる監視装置が知られている。例えば特許文献1には、定点カメラによって対象者の行動を監視し、異常行動の発生を迅速かつ効率的に通報するシステムが開示されている。
特開2014-67383号公報
対象者個人の行動の解析だけでは顕在化しないリスクが存在しうる。行動監視によるリスクの検出精度の向上が求められる。
かかる事情に鑑みてなされた本開示の目的は、行動監視によるリスクの検出精度を向上させることにある。
本開示の一実施形態に係る行動監視装置は、
車載カメラ画像に含まれている人物の行動を検出する制御部を備え、
前記制御部は、
前記車載カメラ画像から複数の人物を検出し、
検出した各人物の属性情報と、検出した複数の人物の間の関連性を表す相関情報とを検出し、
前記検出した各人物の行動を、前記属性情報と前記相関情報とに基づいて評価し、評価結果を出力し、
前記相関情報は、前記複数の人物のうちの少なくとも1人の人物の視線に基づいて前記複数の人物それぞれの関係を表す情報を含む
本開示の一実施形態に係る行動監視システムは、
車両と、行動監視装置とを備える行動監視システムであって、
前記行動監視装置は、前記車両の車載カメラ画像に含まれている人物の行動を検出する制御部を備え、
前記制御部は、
前記車載カメラ画像から複数の人物を検出し、
検出した各人物の属性情報と、検出した複数の人物の間の関連性を表す相関情報とを検出し、
前記検出した各人物の行動を、前記属性情報と前記相関情報とに基づいて評価し、評価結果を出力し、
前記相関情報は、前記複数の人物のうちの少なくとも1人の人物の視線に基づいて前記複数の人物それぞれの関係を表す情報を含む
本開示の一実施形態に係る行動監視プログラムは、
プロセッサに、
車載カメラ画像から複数の人物を検出するステップと、
検出した各人物の属性情報と、検出した複数の人物の間の関連性を表す相関情報とを検出するステップと、
前記検出した各人物の行動を、前記属性情報と前記相関情報とに基づいて評価するステップと、
評価結果を出力するステップと
を実行させ
前記相関情報は、前記複数の人物のうちの少なくとも1人の人物の視線に基づいて前記複数の人物それぞれの関係を表す情報を含む
本開示の一実施形態に係る行動監視装置、行動監視システム、及び行動監視プログラムによれば、行動監視によるリスクの検出精度が向上する。
一実施形態に係る行動監視システムの構成例を示す模式図である。 一実施形態に係る行動監視システムの構成例を示すブロック図である。 車載カメラ及び画像解析部の構成例を示すブロック図である。 行動監視方法の手順の一例を示すフローチャートである。 行動監視装置を備える車両を含む行動監視システムの構成例を示すブロック図である。 行動監視方法の手順の他の例を示すフローチャートである。
(一実施形態に係る行動監視システムの構成例)
図1及び図2に示されるように、一実施形態に係る行動監視システム100は、車両1を備える。車両1は、例えば自動車であるが、これに限られず任意の車両であってもよい。行動監視システム100は、複数の車両1を備えてもよい。行動監視システム100が複数の車両1を備える場合、各車両1は、互いに通信可能であるとする。各車両1は、ネットワーク60を介して他の車両1と通信してもよいし、ネットワーク60を介さずに直接、他の車両1と通信してもよい。行動監視システム100は、サーバ50をさらに備えてもよい。車両1は、サーバ50と通信可能であるとする。車両1は、ネットワーク60を介してサーバ50と通信してもよい。
サーバ50は、サーバ制御部51と、サーバ通信部52と、サーバ記憶部53とを備える。サーバ制御部51は、1つ以上のプロセッサを含んでよい。サーバ通信部52は、通信モジュールを含み、車両1の通信装置30と通信してよい。サーバ記憶部53は、1つ以上のメモリを含んでよい。本実施形態において「メモリ」は、例えば半導体メモリ、磁気メモリ、又は光メモリ等であるが、これらに限られない。サーバ記憶部53に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。サーバ記憶部53は、磁気ディスク等の電磁記憶媒体を含んでよい。サーバ記憶部53は、サーバ50の動作に用いられる任意の情報を記憶する。例えば、サーバ記憶部53は、システムプログラム、又はアプリケーションプログラム等を記憶してもよい。
行動監視システム100は、行動監視装置10を備える。行動監視装置10は、1つ以上のプロセッサによって実現されてよい。本実施形態において「プロセッサ」は、汎用のプロセッサ、特定の処理に特化した専用のプロセッサ等であるが、これらに限られない。行動監視装置10は、サーバ50の機能の一部として実現されてもよい。つまり、サーバ制御部51は、行動監視装置10の制御部として機能してもよい。行動監視装置10は、車両1に搭載されていてもよい。図2に例示される実施形態において、行動監視装置10は、サーバ50の機能の一部として実現されるとする。
行動監視システム100は、端末70をさらに備えてよい。端末70は、ネットワーク60を介して、又は、ネットワーク60を介さずに、行動監視装置10と通信する。端末70は、例えばスマートフォン等の携帯端末を含んでよい。端末70は、例えばトランシーバ等の機器を含んでもよい。図1の例において、端末70は、人物5によって所持されているとする。端末70を所持する人物5は、例えば、自治体の職員、地域の見回りボランティア、又は、警察官若しくは警備員等を含んでよい。端末70を所持する人物5は、端末所持者ともいう。端末70は、行動監視装置10から取得する情報を端末所持者に報知する報知部を有する。
報知部は、表示デバイスを含んでよい。表示デバイスは、端末所持者に対して報知する情報を表す、文字、図形又は画像等を表示してよい。表示デバイスは、LED(Light Emission Diode)等の発光デバイスを含んでよい。表示デバイスは、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)であってよい。表示デバイスは、有機EL(Electro-Luminescence)ディスプレイ又は無機ELディスプレイであってよい。表示デバイスは、プラズマディスプレイ(PDP:Plasma Display Panel)であってよい。表示デバイスは、これらのディスプレイに限られず、他の種々の方式のディスプレイであってもよい。報知部は、スピーカを含んでよい。スピーカは、端末所持者に対して報知する情報を表す音声を出力してよい。報知部は、振動デバイスを含んでよい。振動デバイスは、端末所持者に対して報知する情報を表す振動パターンを出力してよい。報知部は、これらの例に限られず、他の種々のデバイスを含んでよい。
車両1は、車載カメラ20と、通信装置30と、画像解析部40とを搭載している。車載カメラ20と、通信装置30と、画像解析部40とは、例えばCAN(Controller Area Network)等の車載ネットワーク又は専用線を介して、互いに通信可能に接続されている。
通信装置30は、他の車両1に搭載されている通信装置30と通信する。通信装置30は、ネットワーク60を介して、他の車両1に搭載されている通信装置30と通信してよい。通信装置30は、ネットワーク60を介さずに直接、他の車両1に搭載されている通信装置30と通信してもよい。本実施形態において、車両1は、ネットワーク60を介して互いに通信すると仮定する。通信装置30は、ネットワーク60を介して、サーバ50と通信してもよい。通信装置30は、例えばDCM(Data Communication Module)等の車載通信機であってよい。通信装置30は、ネットワーク60に接続する通信モジュールを含んでよい。通信モジュールは、例えば4G(4th Generation)及び5G(5th Generation)等の移動体通信規格に対応する通信モジュールを含んでよいが、これらに限られない。
車載カメラ20は、車両1の周囲に存在する人物2を、行動監視システム100の監視対象として撮影する。車載カメラ20は、一人で歩いている人物2aを、行動監視システム100の監視対象として撮影してよい。車載カメラ20は、複数で集まっている人物2b、又は、人物2bを含むグループ3を、行動監視システム100の監視対象として撮影してよい。車両1は、車載カメラ20が撮影した人物2の画像を、車両1の間で共有したり、サーバ50に送信したりしてよい。
車載カメラ20は、車両1の周囲又は車室内に位置する対象物を撮影する。車載カメラ20が撮影した画像は、車載カメラ画像ともいう。車載カメラ画像は、撮影位置に関する情報、又は、撮影時刻に関する情報と対応づけられるとする。車載カメラ画像は、静止画像を含んでよいし、動画を含んでもよい。
車両1は、位置情報取得装置25をさらに搭載していてもよい。位置情報取得装置25は、車両1に搭載されている他の構成部とCAN等の車載ネットワーク又は専用線を介して互いに通信可能に接続されている。位置情報取得装置25は、車両1の位置情報を取得する。位置情報取得装置25は、衛星測位システムに対応する受信機を含んでよい。衛星測位システムに対応する受信機は、例えばGPS(Global Positioning System)受信機を含んでもよい。本実施形態において、車両1は、位置情報取得装置25を用いて自車両の位置情報を取得できるとする。車両1は、車載カメラ画像に対して、車載カメラ画像が撮影された位置に関する情報として、位置情報取得装置25で取得した自車両の位置情報を対応づけてよい。
車載カメラ20は、図3に例示されているように、前方カメラ21、側方カメラ22、後方カメラ23及び車内カメラ24のうち少なくとも1つを備えてよい。前方カメラ21は、車両1の前方に位置する対象物を撮影する。前方カメラ21が撮影した画像は、前方画像ともいう。側方カメラ22は、車両1の側方に位置する対象物を撮影する。側方カメラ22が撮影した画像は、側方画像ともいう。後方カメラ23は、車両1の後方に位置する対象物を撮影する。後方カメラ23が撮影した画像は、後方画像ともいう。車内カメラ24は、車両1の車室内に位置する対象物及び車両1の後方に位置する対象物を撮影する。車内カメラ24が撮影した画像は、車内画像ともいう。
画像解析部40は、車載カメラ画像を解析し、解析結果を通信装置30に出力する。画像解析部40は、1つ以上のプロセッサによって実現されてよい。画像解析部40は、車載カメラ20に含まれてもよい。画像解析部40は、前方カメラ21から前方画像を取得し、前方画像を解析する前方画像解析部41を含んでよい。画像解析部40は、側方カメラ22から側方画像を取得し、側方画像を解析する側方画像解析部42を含んでよい。画像解析部40は、後方カメラ23から後方画像を取得し、車内カメラ24から車内画像を取得し、後方画像と、車内画像に含まれる車両1の後方の対象物の画像とを解析する後方画像解析部43を含んでよい。
画像解析部40は、車載カメラ画像から、人物2、又は、複数の人物2を含むグループ3の画像を検出し、行動監視装置10に出力する。人物2又はグループ3の画像は、監視対象画像ともいう。
車両1は、画像解析部40を備えていなくてもよい。車両1が画像解析部40を備えていない場合、車載カメラ20は、車載カメラ画像を、通信装置30を介して、行動監視装置10の機能を実現するサーバ50に出力する。行動監視装置10は、車載カメラ画像から、監視対象画像を検出する。
車載カメラ画像及び監視対象画像の少なくとも一方を含む情報は、カメラ出力情報ともいう。車両1が画像解析部40を備えるか否かにかかわらず、行動監視装置10は、カメラ出力情報を取得するといえる。行動監視装置10は、監視対象画像に基づいて、人物2又はグループ3の行動を監視する。行動監視装置10は、カメラ出力情報が監視対象画像を含む場合、カメラ出力情報から監視対象画像を抽出し、抽出した監視対象画像に基づいて、人物2又はグループ3の行動を監視する。行動監視装置10は、カメラ出力情報が車載カメラ画像を含む場合、車載カメラ画像から監視対象画像を検出し、検出した監視対象画像に基づいて、人物2又はグループ3の行動を監視する。
図1に例示されている行動監視システム100は、人物2aと、人物2bとを含むグループ3を監視対象としている。行動監視装置10は、車載カメラ画像から、人物2a及び2bを含む画像を、監視対象画像として検出する。
行動監視装置10は、監視対象画像に基づいて、人物2の属性情報を検出する。人物2の属性情報は、監視対象画像が撮影された場所に関する情報に基づく位置情報を含んでよい。人物2の属性情報は、監視対象画像が撮影された時刻に関する情報を含んでよい。
人物2の属性情報は、例えば、人物2の年齢層又は性別等を表す情報を含んでよい。年齢層の分類は、例えば、子どもと大人とを含んでよい。子どもとして分類される年齢層は、例えば、乳幼児、小学生、中学生又は高校生等を含んでよい。図1の例において、行動監視装置10は、人物2aを小学生と分類する属性情報を検出し、人物2bを大人と分類する属性情報を検出してよい。
人物2の属性情報は、人物2の服装又は持ち物等の外見に関する情報を含んでよい。人物2の服装に関する情報は、例えば、制服を着ているか、私服を着ているかに関する情報等を含んでよい。人物2の持ち物に関する情報は、例えば、かばんを持っているかに関する情報等を含んでよい。図1の例において、行動監視装置10は、人物2aがランドセルを背負っていることを属性情報として検出してよい。
人物2の属性情報は、人物2の顔に関する情報を含んでよい。人物2の顔に関する情報は、例えば、人物2の視線若しくは目つき等の目に関する情報、又は、表情に関する情報等を含んでよい。人物2の顔に関する情報は、表情に基づいて推定される感情を表す情報を含んでもよい。図1の例において、行動監視装置10は、人物2bが人物2aに対して視線を向けていることを、人物2bの属性情報として検出してよい。
人物2の属性情報は、人物2の行動を表す情報を含んでよい。行動監視装置10は、監視対象画像が動画を含む場合、動画に基づいて、人物2の行動を表す情報を検出してよい。行動監視装置10は、異なる時刻に撮影された複数の監視対象画像それぞれから人物2を検出し、人物2の行動を表す情報を検出してもよい。人物2の行動を表す情報は、人物2がその場にとどまっているか移動中であるかを表す情報、又は、人物2がふらついていることを表す情報等を含んでよい。図1の例において、行動監視装置10は、人物2a及び人物2bが所定方向に歩いていることを人物2a及び人物2bそれぞれの属性情報として検出してよい。
人物2の属性情報は、これらの例に限られず、種々の情報を含んでもよい。
行動監視装置10は、監視対象画像に基づいて、複数の人物2の間の関連性を表す相関情報を検出する。行動監視装置10は、2人以上の人物2を含むグループ3を仮定し、グループ3に含まれる人物2間の関連性を表す情報を相関情報として検出してよい。グループ3は、所定範囲内に存在している2人以上の人物2を含んでよい。グループ3は、1枚の監視対象画像に含まれる2人以上の人物2を含んでよい。グループ3は、1枚の監視対象画像に含まれる複数の人物2のうち、一部の人物2だけを含んでよい。グループ3は、ある監視対象画像だけに含まれる人物2と、他の監視対象画像だけに含まれる人物2とを含んでもよい。
図1の例において、行動監視装置10は、人物2aと人物2bとを含むグループ3を仮定する。行動監視装置10は、人物2aと人物2bとの間の関連性を表す相関情報を検出する。
相関情報は、人物2aと人物2bとの間の距離を表す情報を含んでよい。行動監視装置10は、人物2aと人物2bとが第1距離だけ離れて存在していることをグループ3の相関情報として検出してよい。行動監視装置10は、人物2a又は人物2bの行動に関する情報に基づいて、人物2aと人物2bとが第1距離だけ離れて存在している状態が所定時間にわたって継続していることを、グループ3の相関情報として検出してよい。
行動監視装置10は、人物2aと人物2bとが家族又は友だち若しくは知人の関係にあることを表す情報を、グループ3の相関情報として検出してよい。行動監視装置10は、人物2aと人物2bとが互いに面識を有していないことを表す情報を、グループ3の相関情報として検出してよい。
行動監視装置10は、人物2の属性情報と、グループ3の相関情報とに基づいて、人物2、又は、グループ3に含まれる人物2を監視する。図1の例において、行動監視装置10は、人物2bが人物2aに対して視線を向けていることを表す属性情報に基づいて、人物2bが人物2aに対して関心を持っている可能性があることを検出する。行動監視装置10は、人物2aと人物2bとが第1距離だけ離れて存在している状態が所定時間にわたって継続していることを表す相関情報に基づいて、人物2bが人物2aの後をつけている可能性があることを検出してもよい。
行動監視装置10は、人物2bに関する検出結果に基づいて、人物2bが異常行動を引き起こす可能性があることを検出してよい。つまり、行動監視装置10は、人物2bの属性情報と、人物2bを含むグループ3の相関情報とに基づいて、人物2bの行動を評価してよい。行動監視装置10は、人物2bが異常行動を引き起こす可能性があるか否かを、人物2bの行動の評価結果として出力してよい。
行動監視装置10は、人物2aが異常行動に巻き込まれる可能性があることを検出してよい。つまり、行動監視装置10は、人物2aを含むグループ3の相関情報に基づいて、人物2aがリスクにさらされる可能性があるか評価してよい。行動監視装置10は、人物2aがリスクにさらされる可能性があるか否かを、人物2aの行動の評価結果として出力してよい。
行動監視装置10は、人物2の属性情報と、人物2を含むグループ3の相関情報とに基づいて、人物2の行動を評価するスコアを算出してよい。人物2の行動を評価するスコアは、人物2の行動評価値と称される。行動監視装置10は、人物2が異常行動を引き起こす可能性を表すスコアを行動評価値として算出してよい。人物2が異常行動を引き起こす可能性を表すスコアは、人物2の行動危険度と称される。行動危険度は、行動評価値の一形態であるとする。人物2が異常行動を引き起こす可能性が高いほど、人物2の行動危険度の値が大きくなるように算出されてよい。人物2が異常行動を引き起こす可能性が高いほど、人物2の行動危険度の値が小さくなるように算出されてもよい。人物2が異常行動を引き起こす可能性が高いほど、人物2の行動危険度の絶対値が大きくなるように算出されてもよい。
本実施形態において、人物2が異常行動を引き起こす可能性が高いほど、人物2の行動危険度は、大きい値で表されるとする。図1の例において、行動監視装置10は、人物2bが人物2aに対して視線を向ける頻度を属性情報として検出し、その頻度が高いほど人物2bの行動危険度を大きい値に算出してよい。行動監視装置10は、人物2bが人物2aに対して所定距離以内に存在する時間が長いほど人物2bの行動危険度を大きい値に算出してよい。行動監視装置10は、これらの例に限られず、人物2の属性情報及び人物2を含むグループ3の相関情報に含まれる種々の情報に基づいて、人物2の行動評価値又は行動危険度を算出してよい。行動監視装置10は、行動評価値を評価結果として出力してもよい。
図1に例示されている行動監視システム100において、行動監視装置10は、人物2bの行動危険度が所定条件を満たす場合に、人物2bが異常行動を引き起こす可能性があることを、人物2bの行動の評価結果として出力してよい。行動監視装置10は、人物2bの行動危険度が所定条件を満たす場合に、人物2bに対して所定範囲内にいる人物2aが異常行動に巻き込まれる可能性があることを、人物2aの行動の評価結果として出力してよい。言い換えれば、行動監視装置10は、人物2aがさらされているリスクの大きさを人物2aの行動の評価結果として出力してもよい。所定条件は、例えば、行動危険度が所定値以上であることを含んでよい。
人物2の異常行動は、他の人物2に危害を加えるような他の人物2に影響を及ぼす行動に限られず、人物2が自ら転倒したりするような他の人物2に影響を及ぼさない行動も含んでよい。他の人物2に影響を及ぼさない異常行動は、他の人物2がさらされているリスクの大きさに影響を及ぼしにくいともいえる。
行動監視装置10は、人物2の行動の評価結果を端末70に出力してよい。端末70に出力される評価結果は、人物2の位置情報を含んでよい。端末70は、人物2の行動の評価結果に基づいて、人物2が異常行動を引き起こす可能性があることを表す警告を報知してよい。端末70が警告を報知することによって、端末所持者は、人物2が異常行動を引き起こす可能性があることを認識できる。端末所持者が人物2の位置情報に基づいて人物2がいる場所に向かうことによって、異常行動の発生が未然に防がれうる。図1の例において、端末70を所持している人物5が、人物2bがいる場所に向かってよい。その結果、地域の安全性が向上する。
行動監視装置10は、人物2の行動の評価結果を車両1に出力してもよい。行動監視装置10は、人物2が異常行動を引き起こす可能性がある場合、人物2に対して所定範囲内に位置する車両1に、人物2を追跡する指示を出力してよい。車両1は、人物2を追跡する指示に基づいて走行する場合、車載カメラ20で人物2を撮影できるように走行してよい。車両1が自動運転制御されている場合、行動監視装置10は、車両1が人物2を追跡するように走行させる自動運転制御情報を出力してよい。車両1が運転者によって運転されている場合、行動監視装置10は、運転者に走行ルートを指示する情報を出力し、車両1に搭載されているカーナビゲーションシステム等に表示させてよい。異常行動を引き起こす可能性がある人物2を車両1が追跡することによって、異常行動の発生が未然に防がれうる。図1の例において、人物2bを撮影している車載カメラ20を備える車両1が継続して人物2bを追跡してもよい。他の車両1が人物2bの位置情報を取得し、人物2bを撮影するための追跡を開始してもよい。その結果、地域の安全性が向上する。
以上説明してきたように、一実施形態に係る行動監視装置10は、人物2の行動を評価できる。人物2の行動を評価することによって、人物2の行動に起因するリスクが予測されうる。行動監視装置10は、人物2の行動を単独行動として評価しただけでは見逃すかもしれない異常行動の予兆を、相関情報に基づいて人物2の行動を評価することによって検出しうる。つまり、リスクの予測精度が高まりうる。その結果、地域の安全性が向上する。
行動監視装置10は、車載カメラ画像を用いて人物2の行動を評価できる。車載カメラ画像を用いることによって、定点カメラで撮影する画像を用いる場合と比較して、人物2を検出する範囲が広がりうる。言い換えれば、監視の死角が減少しうる。その結果、リスクの予測精度が高まりうる。
(行動監視方法の一例)
行動監視装置10は、図4に例示されるフローチャートの手順を含む行動監視方法を実行してよい。行動監視方法は、プロセッサに実行させる行動監視プログラムとして実現されてもよい。
行動監視装置10は、監視対象画像を取得する(ステップS1)。行動監視装置10は、車載カメラ20又は画像解析部40からカメラ出力情報を取得する。カメラ出力情報が監視対象画像を含む場合、行動監視装置10は、カメラ出力情報から監視対象画像を抽出する。カメラ出力情報が車載カメラ画像を含む場合、行動監視装置10は、車載カメラ画像から監視対象画像を検出する。
行動監視装置10は、監視対象画像から人物2を検出する(ステップS2)。
行動監視装置10は、監視対象画像に基づいて、人物2の属性情報を検出する(ステップS3)。
行動監視装置10は、人物2を含むグループ3を仮定し、グループ3に含まれる人物2の相関情報を検出する(ステップS4)。
行動監視装置10は、人物2の属性情報と、人物2を含むグループ3の相関情報とに基づいて、人物2の行動を評価する(ステップS5)。
行動監視装置10は、人物2の行動の評価結果を出力する(ステップS6)。行動監視装置10は、評価結果を端末70に出力してもよいし、車両1に出力してもよい。行動監視装置10は、ステップS6の手順を実行した後、図4のフローチャートに示されている手順の実行を終了する。
行動監視装置10は、ステップS5の、人物2の行動を評価する手順において、人物2の行動評価値を算出してもよい。行動監視装置10は、人物2の行動評価値として、人物2の行動危険度を算出してもよい。
以上説明してきたように、一実施形態に係る行動監視方法によれば、人物2の行動が評価される。人物2の行動が評価されることによって、人物2の行動に起因するリスクが予測されうる。本実施形態に係る行動監視方法において、相関情報に基づいて人物2の行動を評価することによって、人物2の行動を単独行動として評価しただけでは見逃すかもしれない異常行動の予兆が検出されうる。つまり、リスクの予測精度が高まりうる。その結果、地域の安全性が向上する。
一実施形態に係る行動監視方法によれば、車載カメラ画像を用いて人物2の行動が評価される。車載カメラ画像を用いることによって、定点カメラで撮影する画像を用いる場合と比較して、人物2を検出する範囲が広がりうる。言い換えれば、監視の死角が減少しうる。その結果、リスクの予測精度が高まりうる。
(行動監視装置が車両に搭載されている場合の構成例)
図5に示されるように、行動監視装置10は、車両1に搭載されていてよい。行動監視装置10は、車両1に搭載されている場合、車両1のECU(Electronic Control Unit)の機能の一部として実現されてもよい。行動監視装置10を搭載している車両1は、車両1aと称されるとする。車両1aは、行動監視装置10と、車載カメラ20と、位置情報取得装置25と、通信装置30と、画像解析部40とを搭載しているとする。行動監視装置10は、制御部11を備えてよい。制御部11は、1つ以上のプロセッサによって実現されてよい。行動監視装置10を搭載していない車両1は、車両1bと称されるとする。車両1bは、車載カメラ20と、位置情報取得装置25と、通信装置30と、画像解析部40とを搭載しているとする。
車両1aの車載カメラ20又は画像解析部40は、カメラ出力情報を、自車両内の行動監視装置10に出力してよい。行動監視システム100が複数の車両1aを備える場合、車両1aの車載カメラ20又は画像解析部40は、カメラ出力情報を、他の車両1aに搭載されている行動監視装置10に出力してもよい。行動監視システム100が行動監視装置10の機能を実現するサーバ50を備える場合、車両1aの車載カメラ20又は画像解析部40は、カメラ出力情報を、サーバ50に出力してもよい。
行動監視装置10は、車両1aに搭載されている場合であっても、サーバ50の機能の一部として実現されている場合と同じ動作を実行できる。車両1aに搭載されている行動監視装置10は、人物2の行動の評価結果を自車両に出力してよい。車両1aは、評価結果に基づいて人物2を追跡してもよい。つまり、車両1aは、自車両に搭載されている行動監視装置10による人物2の行動の評価結果に基づいて走行してよい。
(リスクを低減する行動を検出する構成例)
図1において、行動監視システム100は、人物2aと人物2bとを含むグループ3を監視対象としている。一例として、さらに人物2a及び2bと異なる人物2がグループ3に含まれると仮定する。人物2a及び2bと異なる人物2は、本構成例において第三者と称されるとする。行動監視装置10は、第三者がグループ3に含まれていない場合に、人物2aと人物2bとを含むグループ3の相関情報に基づいて、人物2bの行動危険度を高い値で算出しているとする。
グループ3が人物2a及び2bの他に第三者を含む場合、行動監視装置10は、第三者の属性情報を検出するとともに、第三者を含むグループ3の相関情報を検出する。第三者が地域の見回りボランティア又は警備員等の地域の安全性の向上に寄与しうる人物2である場合、行動監視装置10は、第三者の存在によって人物2bが異常行動を引き起こす可能性が低下すると判定し、人物2bの行動危険度を低くしてよい。一方で、行動監視装置10は、第三者の行動評価値として、第三者が他の人物2による異常行動の発生を防止する可能性を表すスコアを算出してよい。人物2が他の人物2による異常行動の発生を防止する可能性を表すスコアは、人物2の行動安全度と称される。行動安全度は、行動評価値の一形態であるとする。人物2が他の人物2による異常行動の発生を防止する可能性が高いほど、人物2の行動安全度の値が大きくなるように算出されてよいし、小さくなるように算出されてもよい。人物2が他の人物2による異常行動の発生を防止する可能性が高いほど、人物2の行動安全度の絶対値が大きくなるように算出されてもよい。行動安全度と行動危険度とは、互いに独立に算出されてもよい。
本実施形態において、人物2が他の人物2による異常行動の発生を防止する可能性が高いほど、人物2の行動安全度は、大きい値で表されるとする。行動監視装置10は、グループ3に含まれる各人物2の行動危険度と行動安全度とを算出し、ある人物2の行動危険度を、他の人物2の行動安全度に基づいて低下させてよい。
行動安全度は、行動危険度と異なる符号の値で表されてもよい。例えば行動危険度が正の値で表される場合、行動安全度は負の値で表されてよい。この場合、行動監視装置10は、人物2bの行動危険度と、第三者の行動安全度との和を算出するだけで、人物2bの行動危険度を更新できる。その結果、行動監視装置10は、行動評価値を容易に管理できる。
行動監視装置10は、行動安全度が高い値である人物2の行動を、グループ3に含まれる人物2等の周囲の人物2がさらされているリスクを減少させる安全行動として判定してもよい。行動監視装置10は、行動危険度が高い値である人物2の行動を、グループ3に含まれる人物2等の周囲の人物2がさらされているリスクを増大させる異常行動として判定してもよい。
行動監視装置10は、グループ3に含まれる人物2がスマートフォン等の携帯端末又は雑誌若しくは新聞等を注視していることを検出した場合、その人物2の行動安全度と行動危険度とを両方とも小さい値で算出してよい。行動安全度と行動危険度とが両方とも低い値である人物2は、グループ3に含まれる他の人物2の行動危険度、又は、他の人物2がさらされているリスクを増大も減少もさせにくい。行動監視装置10は、行動安全度と行動危険度とが両方とも低い値である人物2の行動を、安全行動でも異常行動でもない通常行動であると判定してよい。
行動監視装置10は、グループ3が行動安全度を有する複数の人物2を含む場合、各人物2の行動の相乗効果を考慮して、行動安全度をさらに高い値に更新してよい。行動監視装置10は、グループ3が行動危険度を有する複数の人物2を含む場合、各人物2の行動の相乗効果を考慮して、行動危険度をさらに高い値に更新してよい。
(時系列に沿った行動の検出の例)
行動監視装置10は、複数の時刻それぞれで撮影された監視対象画像を取得してよい。行動監視装置10は、例えば、第1時刻に撮影された第1時刻画像と、第2時刻に撮影された第2時刻画像とを取得すると仮定する。行動監視装置10は、第1時刻画像及び第2時刻画像それぞれに含まれる人物2を検出し、第1時刻画像及び第2時刻画像に共通に含まれる人物2を特定してよい。このようにすることで、行動監視装置10は、第1時刻画像及び第2時刻画像に共通に含まれる人物2の行動を、時系列に沿って監視できる。
行動監視装置10は、第1時刻における人物2の属性情報及びその人物2を含むグループ3の相関情報と、第2時刻における人物2の属性情報及びその人物2を含むグループ3の相関情報とをそれぞれ検出し、比較する。行動監視装置10は、第1時刻における人物2の属性情報と、第2時刻における人物2の属性情報との差に基づいて、その人物2がさらされているリスクの大きさを検出してもよい。行動監視装置10は、第1時刻における人物2を含むグループ3の相関情報と、第2時刻における人物2を含むグループ3の相関情報との差に基づいて、その人物2がさらされているリスクの大きさを検出してもよい。
行動監視装置10は、例えば、グループ3に含まれる人物2の数が第1時刻よりも第2時刻において減少した場合に、第2時刻においてグループ3に含まれる人物2がさらされているリスクが増大したと検出してもよい。
行動監視装置10は、例えば、図1に示されている人物2a及び2bの位置関係が第1時刻と第2時刻とで変わらないことを検出すると仮定する。行動監視装置10は、人物2a及び2bを含むグループ3に含まれる人物2の数が第1時刻よりも第2時刻において減少したことをさらに検出した場合、人物2aがさらされているリスクが増大したと検出してもよい。
行動監視装置10は、グループ3に含まれる各人物2の属性情報が第1時刻と第2時刻とで差異を有する場合、その差異に基づいて、グループ3に含まれる各人物2がさらされているリスクの大きさを算出してもよい。
(相関情報に含まれる情報の例)
行動監視装置10は、複数の人物2を含むグループ3の相関情報として種々の情報を検出し、人物2の行動を評価してよい。
行動監視装置10は、グループ3に含まれる複数の人物2が制服を着用している等によって類似の服装であると検出された場合、これらの人物2が学校又は会社等の組織に所属していることを表す相関情報を検出してよい。行動監視装置10は、このような相関情報を検出したグループ3に含まれる人物2の行動安全度を高い値で算出してよいし、行動危険度を低い値で算出してもよい。
行動監視装置10は、グループ3に含まれる複数の人物2が所定範囲内に集まる集団を形成しており、その中の一部の人物2が他の多数の人物2に取り囲まれていることを表す相関情報を検出してよい。行動監視装置10は、各人物2の視線に基づいて、どの人物2がその集団の中で注目されているかを表す相関情報を検出してもよい。例えば、行動監視装置10は、子どもを含むグループ3の相関情報を検出することによって、グループ3の中にいじめにつながりうる行動があるか監視してもよい。行動監視装置10は、このような相関情報を検出したグループ3に含まれる人物2の行動危険度を高い値で算出してもよい。
行動監視装置10は、例えば、グループ3に老人が含まれている場合において、老人単独の行動危険度を高い値で算出してもよい。一方で、そのグループ3に含まれる他の人物2の行動として、老人を手助けする行動が検出された場合、行動監視装置10は、老人の行動危険度を低い値に更新してもよい。行動監視装置10は、老人を手助けしている人物2の行動安全度を高い値で算出してもよい。
行動監視装置10は、例えば、グループ3に含まれる人物2の感情に関する情報として人物2がリラックスしていることを検出した場合、グループ3に含まれる人物2が家族又は友だち若しくは知人の関係にあることを表す相関情報を検出してもよい。行動監視装置10は、このような相関情報を検出したグループ3に含まれる人物2の行動安全度を高い値で算出してよいし、行動危険度を低い値で算出してもよい。
行動監視装置10は、例えば、グループ3に含まれる人物2の感情に関する情報として人物2が緊張していることを検出した場合、グループ3に含まれる人物2が互いに面識を有していないことを表す相関情報を検出してもよい。行動監視装置10は、このような相関情報を検出したグループ3に含まれる人物2の行動危険度を高い値で算出してよいし、行動安全度を低い値で算出してもよい。
行動監視装置10は、例えば、人物2の顔に関する情報として、人物2が他の人物2を所定期間にわたって見続けていることを検出した場合、人物2が他の人物2に関心を抱いていることを表す相関情報を検出してもよい。行動監視装置10は、このような相関情報を検出したグループ3に含まれる人物2の行動危険度を高い値で算出してよいし、行動安全度を低い値で算出してもよい。
行動監視装置10は、人物2から所定範囲内に他の人物2がいない場合、人物2がグループ3に含まれないことを検出してよい。この場合、行動監視装置10は、人物2を含むグループ3の相関情報を検出できない。行動監視装置10は、人物2を含むグループ3の相関情報を検出できないことに基づいて、人物2が単独行動していることを検出してよい。行動監視装置10は、人物2が単独行動している場合、その人物2の行動危険度を高い値で算出してもよい。このようにすることで、行動監視装置10は、人物2がグループ3に含まれない場合でも、人物2の属性情報だけでなく相関情報にさらに基づいて人物2の行動を監視できるといえる。
行動監視装置10は、例えば、人物2の属性情報として人物2が老人であり、且つ、視線が定まっていないことを検出し、さらに、その人物2が単独行動していることを検出した場合、その人物2が徘徊老人である可能性が高いと検出してもよい。行動監視装置10は、このような人物2の行動危険度を高い値で算出してもよい。
(種々の行動を対象とする行動監視方法の例)
車両1と、行動監視装置10として機能するサーバ50とを備える行動監視システム100は、図6に例示されるフローチャートの手順を含む行動監視方法を実行してもよい。車両1に搭載されている、車載カメラ20と、位置情報取得装置25と、通信装置30と、画像解析部40とは、まとめて車載機と称されるとする。
車両1は、車載機によって、車載カメラ画像に含まれている人物2を検出する(ステップS11)。
車両1は、車載機によって、人物2を含む動画を監視対象画像としてサーバ50に出力する(ステップS12)。車両1は、ステップS12の手順を実行した後、図6のフローチャートに示されている手順の実行を終了する。
サーバ50は、車載機から監視対象画像を取得する(ステップS21)。サーバ50は、複数の車両1の車載機から監視対象画像を取得してよい。
サーバ50は、取得した監視対象画像を、撮影された場所に関する情報、及び、含まれている人物2に関する情報の少なくとも一方の情報に基づいて分類し、分類毎に時系列に連結する(ステップS22)。
サーバ50は、ステップS22において分類毎に連結した監視対象画像から人物2の行動を検出する(ステップS23)。サーバ50は、監視対象画像から人物2の属性情報を検出してよい。サーバ50は、監視対象画像から人物2を含むグループ3の相関情報を検出してよい。
サーバ50は、検出した人物2の行動が、老人の挙動がふらついている等の異常行動に該当するか判定する(ステップS24)。つまり、サーバ50は、検出した人物2の行動を単独行動として異常か否か判定してよい。サーバ50は、老人に限られず、種々の人物2の行動に関して異常行動に該当するか判定してよい。異常行動は、挙動がふらついている行動に限られず、座り込んでいたり倒れこんでいたりする行動を含んでよい。サーバ50は、検出した人物2の行動が異常行動に該当する場合(ステップS24:YES)、ステップS27の手順に進む。サーバ50は、検出した人物2の行動が異常行動に該当しない場合(ステップS24:NO)、ステップS25の手順に進む。
サーバ50は、検出した人物2の行動が、暗所において子どもが集団で留まっている行動に該当するか判定する(ステップS25)。サーバ50は、人物2の属性情報に基づいて、人物2が小学生等の子どもであるか判定してよい。サーバ50は、人物2がいる場所が暗所であるか判定してよい。サーバ50は、所定範囲内にいる人物2の数を算出してもよい。サーバ50は、検出した人物2の行動が暗所において子どもが集団で留まっている行動に該当する場合(ステップS25:YES)、ステップS27の手順に進む。サーバ50は、検出した人物2の行動が暗所において子どもが集団で留まっている行動に該当しない場合(ステップS25:NO)、ステップS26の手順に進む。
サーバ50は、検出した人物2の行動が、子ども又は女性の後ろを追尾している行動に該当するか判定する(ステップS26)。サーバ50は、複数の人物2を含むグループ3の相関情報に基づいて、人物2が他の人物2を追尾しているか判定してよい。追尾されている人物2は、子ども又は女性に限られず、種々の人物2であってよい。サーバ50は、検出した人物2の行動が子ども又は女性の後ろを追尾している行動に該当する場合(ステップS26:YES)、ステップS27の手順に進む。サーバ50は、検出した人物2の行動が子ども又は女性の後ろを追尾している行動に該当しない場合(ステップS26:NO)、図6のフローチャートに示されている手順の実行を終了する。
サーバ50は、ステップS24からステップS26のいずれかのステップにおいて検出された人物2の行動が所定時間にわたって継続しているか判定する(ステップS27)。
サーバ50は、検出された人物2の行動が所定時間にわたって継続している場合(ステップS27:YES)、その行動が検出された監視対象画像と、検出された行動の内容とを通知する(ステップS28)。サーバ50は、端末70又は車両1に対して通知してよい。
サーバ50は、検出された人物2の行動が所定時間にわたって継続していない場合(ステップS27:NO)、図6のフローチャートに示されている手順の実行を終了する。
図6の例において、サーバ50は、ステップS24からステップS26の各手順を順番に実行しているが、各手順を並列に実行してもよいし、各手順の順番を入れ替えて実行してもよい。
図6のフローチャートの手順は、行動監視装置10の機能を実現するサーバ50によって実行されるとして説明されてきたが、車両1に搭載されている行動監視装置10によって実行されてもよい。
行動監視装置10は、図6に例示したフローチャートの手順を実行することによって、人物2の種々の行動を監視できる。その結果、地域の安全性が向上しうる。
(登録人物見守りの例)
行動監視システム100は、予め登録されている人物2を監視対象としてよい。例えば、徘徊する可能性がある老人を保護している、老人の家族又は施設の職員は、その老人を監視対象となる人物2として、行動監視システム100に登録しておいてよい。例えば、どのような行動をするかわからない幼児又は小学生等の子どもの親等の保護者は、その子どもを監視対象となる人物2として、行動監視システム100に登録しておいてよい。例えば、行動監視システム100に登録されている人物2は、登録人物と称される。登録人物を行動監視システム100に登録する、老人の家族若しくは施設の職員、又は、子どもの保護者等は、監視依頼者と称される。
行動監視システム100は、登録人物の位置情報を取得する機器を含んでよい。監視依頼者は、登録人物にその機器を所持させているとする。監視依頼者は、端末70を所持しているとする。
監視依頼者は、登録人物の所在を見失った場合、端末70から、行動監視システム100に登録人物の行動の監視を依頼する情報を出力する。行動監視装置10は、監視依頼者からの依頼情報に基づき、登録人物の位置情報を取得する。行動監視装置10は、登録人物の現在位置から所定範囲内に位置する車両1に対して、車載カメラ20による登録人物の現在位置周辺の撮影を要求する制御情報を送信する。
車両1は、制御情報に基づいて、登録人物の現在位置周辺の画像を含むカメラ出力情報を取得し、行動監視装置10に送信する。
行動監視装置10は、車両1から取得したカメラ出力情報から人物2を含む監視対象画像を検出する。行動監視装置10は、監視対象画像に含まれる人物2の属性情報を検出し、登録人物の属性情報と照合する。行動監視装置10は、属性情報が合致する人物2を登録人物として検出する。仮に複数の人物2が登録人物として検出される場合、行動監視装置10は、監視依頼者の端末70に対してどの人物2が登録人物であるか確認を求める情報を送信する。監視依頼者は、端末70によって、確認を求められている複数の人物2から登録人物を指定する情報を送信する。
行動監視装置10は、登録人物を含む監視対象画像を時系列に蓄積する。行動監視装置10は、登録人物を含むグループ3の相関情報を検出した場合、相関情報に基づいて、登録人物の行動を監視する。行動監視装置10は、登録人物の行動危険度を算出してもよい。行動監視装置10は、登録人物の行動を検出し、検出した情報を監視依頼者の端末70に通知する。例えば、行動監視装置10は、登録人物が信号又は横断歩道が無い場所で道路を横断しようとしている等の行動を検出した場合、監視依頼者の端末70に検出した情報を通知する。行動監視装置10は、登録人物を含む監視対象画像そのものを監視依頼者の端末70に送信してもよい。監視依頼者は、端末70によって、登録人物の行動に関する情報を閲覧できる。
本構成例によれば、監視依頼者は、登録人物の予期せぬ行動を把握しやすくなる。その結果、地域の安全性が向上する。
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。したがって、これらの変形及び修正は本開示の範囲に含まれることに留意されたい。例えば、各手段又は各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段又はステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。
1(1a、1b) 車両
2(2a、2b)、5 人物
3 グループ
10 行動監視装置
11 制御部
20 車載カメラ
21 前方カメラ
22 側方カメラ
23 後方カメラ
24 車内カメラ
25 位置情報取得装置
30 通信装置
40 画像解析部
41 前方画像解析部
42 側方画像解析部
43 後方画像解析部
50 サーバ
51 サーバ制御部
52 サーバ通信部
53 サーバ記憶部
60 ネットワーク
70 端末
100 行動監視システム

Claims (11)

  1. 車載カメラ画像に含まれている人物の行動を検出する制御部を備え、
    前記制御部は、
    前記車載カメラ画像から複数の人物を検出し、
    検出した各人物の属性情報と、検出した複数の人物の間の関連性を表す相関情報とを検出し、
    前記検出した各人物の行動を、前記属性情報と前記相関情報とに基づいて評価し、評価結果を出力し、
    前記相関情報は、前記複数の人物のうちの少なくとも1人の人物の視線に基づいて前記複数の人物それぞれの関係を表す情報を含む、
    行動監視装置。
  2. 前記相関情報は、前記複数の人物のうちの少なくとも1人の人物の視線に基づいて前記複数の人物の中で注目されている人物を表す情報を含む、請求項1に記載の行動監視装置。
  3. 前記相関情報は、前記複数の人物のうちの第1の人物の視線に基づいて前記第1の人物が関心を持っている人物を表す情報を含む、請求項1又は2に記載の行動監視装置。
  4. 請求項1から3までのいずれか一項に記載の行動監視装置であって、
    前記各人物を検出した車載カメラ画像の撮影時刻及び撮影位置の少なくとも一方をさらに特定し、
    前記検出した各人物の行動を、前記撮影時刻及び前記撮影位置の少なくとも一方にさらに基づいて評価する、行動監視装置。
  5. 請求項1から4までのいずれか一項に記載の行動監視装置であって、
    前記制御部は、前記評価結果として、検出した人物がさらされているリスクの大きさを出力する、行動監視装置。
  6. 請求項1からのいずれか一項に記載の行動監視装置であって、
    前記制御部は、
    前記車載カメラ画像から、第1時刻に撮影された第1時刻画像と、第2時刻に撮影された第2時刻画像とを取得し、
    前記第1時刻画像及び前記第2時刻画像の両方の画像から検出される第1の人物を特定する、行動監視装置。
  7. 請求項に記載の行動監視装置であって、
    前記制御部は、前記第1時刻における前記第1の人物の属性情報と、前記第2時刻における前記第1の人物の属性情報との差に基づいて、前記第1の人物がさらされているリスクの大きさを検出する、行動監視装置。
  8. 請求項又はに記載の行動監視装置であって、
    前記制御部は、前記第1時刻における前記第1の人物を含む複数の人物の相関情報と、前記第2時刻における前記第1の人物を含む複数の人物の相関情報との差に基づいて、前記第1の人物がさらされているリスクの大きさを検出する、行動監視装置。
  9. 請求項1からのいずれか一項に記載の行動監視装置であって、
    前記制御部は、
    前記検出した各人物の行動に関する行動評価値を算出し、
    前記行動評価値に基づいて、前記各人物の行動を、周囲の人物のリスクを増大させる異常行動、周囲の人物のリスクを減少させる安全行動、及び、周囲の人物のリスクの大きさを増大も減少もさせない通常行動のいずれかの行動であると判定する、行動監視装置。
  10. 車両と、行動監視装置とを備える行動監視システムであって、
    前記行動監視装置は、前記車両の車載カメラ画像に含まれている人物の行動を検出する制御部を備え、
    前記制御部は、
    前記車載カメラ画像から複数の人物を検出し、
    検出した各人物の属性情報と、検出した複数の人物の間の関連性を表す相関情報とを検出し、
    前記検出した各人物の行動を、前記属性情報と前記相関情報とに基づいて評価し、評価結果を出力し、
    前記相関情報は、前記複数の人物のうちの少なくとも1人の人物の視線に基づいて前記複数の人物それぞれの関係を表す情報を含む、
    行動監視システム。
  11. プロセッサに、
    車載カメラ画像から複数の人物を検出するステップと、
    検出した各人物の属性情報と、検出した複数の人物の間の関連性を表す相関情報とを検出するステップと、
    前記検出した各人物の行動を、前記属性情報と前記相関情報とに基づいて評価するステップと、
    評価結果を出力するステップと
    を実行させ
    前記相関情報は、前記複数の人物のうちの少なくとも1人の人物の視線に基づいて前記複数の人物それぞれの関係を表す情報を含む、
    行動監視プログラム。
JP2018231199A 2018-12-10 2018-12-10 行動監視装置、行動監視システム、及び行動監視プログラム Active JP7115277B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018231199A JP7115277B2 (ja) 2018-12-10 2018-12-10 行動監視装置、行動監視システム、及び行動監視プログラム
US16/664,349 US11195001B2 (en) 2018-12-10 2019-10-25 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
CN201911194124.7A CN111294554B (zh) 2018-12-10 2019-11-28 行为监视装置、行为监视***和非暂时性可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231199A JP7115277B2 (ja) 2018-12-10 2018-12-10 行動監視装置、行動監視システム、及び行動監視プログラム

Publications (2)

Publication Number Publication Date
JP2020095357A JP2020095357A (ja) 2020-06-18
JP7115277B2 true JP7115277B2 (ja) 2022-08-09

Family

ID=70971942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231199A Active JP7115277B2 (ja) 2018-12-10 2018-12-10 行動監視装置、行動監視システム、及び行動監視プログラム

Country Status (3)

Country Link
US (1) US11195001B2 (ja)
JP (1) JP7115277B2 (ja)
CN (1) CN111294554B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7439694B2 (ja) * 2020-08-11 2024-02-28 トヨタ自動車株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022035379A (ja) * 2020-08-20 2022-03-04 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び情報処理方法
CN116523319B (zh) * 2023-06-30 2023-09-08 中国市政工程西南设计研究总院有限公司 智慧公园综合管理方法和***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092396A (ja) 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd 単独行動者及びグループ行動者検知装置
JP2010128594A (ja) 2008-11-25 2010-06-10 Sogo Keibi Hosho Co Ltd 動作検出装置および動作検出方法
JP2010250775A (ja) 2009-04-20 2010-11-04 Takenaka Komuten Co Ltd 犯罪防止装置およびプログラム
WO2016002408A1 (ja) 2014-06-30 2016-01-07 日本電気株式会社 画像処理装置、監視システム、画像処理方法、及びプログラム
JP2016170725A (ja) 2015-03-13 2016-09-23 三菱電機株式会社 車載装置及び情報処理方法及び情報処理プログラム
JP2017068598A (ja) 2015-09-30 2017-04-06 セコム株式会社 群衆解析装置
JP2018124972A (ja) 2016-12-06 2018-08-09 ゼネラル・エレクトリック・カンパニイ ワンショット学習を通じた群衆解析
JP2018151693A (ja) 2017-03-09 2018-09-27 株式会社デンソーテン 運転支援装置および運転支援方法
JP2018195194A (ja) 2017-05-19 2018-12-06 シャープ株式会社 情報処理システム、情報処理装置、情報処理方法およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100712959B1 (ko) * 2005-09-16 2007-04-30 (주)서광시스템 지역방범 추적시스템 및 그 방법
JP5141048B2 (ja) * 2007-03-05 2013-02-13 オムロン株式会社 リスク監視装置、リスク監視システム、リスク監視方法
US20120033123A1 (en) * 2010-08-06 2012-02-09 Nikon Corporation Information control apparatus, data analyzing apparatus, signal, server, information control system, signal control apparatus, and program
CN102724482B (zh) * 2012-06-18 2015-08-26 西安电子科技大学 基于gps和gis的智能视觉传感网络运动目标接力跟踪***
JP2014067383A (ja) 2012-09-24 2014-04-17 Ramrock Co Ltd 行動監視通報システム
DE102014201159A1 (de) * 2014-01-23 2015-07-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
CN105096406A (zh) * 2014-04-30 2015-11-25 开利公司 用于建筑能耗设备的视频分析***和智能楼宇管理***
US20160189323A1 (en) * 2014-12-26 2016-06-30 Panasonic Intellectual Property Corporation Of America Risk determination method, risk determination device, risk determination system, and risk output device
JP2016218766A (ja) * 2015-05-21 2016-12-22 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
CN105184815B (zh) * 2015-07-31 2018-04-10 江苏诚创信息技术研发有限公司 聚众事件检测方法及***
CN105426820B (zh) * 2015-11-03 2018-09-21 中原智慧城市设计研究院有限公司 基于安防监控视频数据的多人异常行为检测方法
WO2017079341A2 (en) * 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
CN105825198A (zh) * 2016-03-29 2016-08-03 深圳市佳信捷技术股份有限公司 行人检测方法及装置
CN108062349B (zh) * 2017-10-31 2022-03-08 深圳大学 基于视频结构化数据及深度学习的视频监控方法和***
CN108717521A (zh) * 2018-04-17 2018-10-30 智慧互通科技有限公司 一种基于图像的停车场秩序管理方法及***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092396A (ja) 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd 単独行動者及びグループ行動者検知装置
JP2010128594A (ja) 2008-11-25 2010-06-10 Sogo Keibi Hosho Co Ltd 動作検出装置および動作検出方法
JP2010250775A (ja) 2009-04-20 2010-11-04 Takenaka Komuten Co Ltd 犯罪防止装置およびプログラム
WO2016002408A1 (ja) 2014-06-30 2016-01-07 日本電気株式会社 画像処理装置、監視システム、画像処理方法、及びプログラム
JP2016170725A (ja) 2015-03-13 2016-09-23 三菱電機株式会社 車載装置及び情報処理方法及び情報処理プログラム
JP2017068598A (ja) 2015-09-30 2017-04-06 セコム株式会社 群衆解析装置
JP2018124972A (ja) 2016-12-06 2018-08-09 ゼネラル・エレクトリック・カンパニイ ワンショット学習を通じた群衆解析
JP2018151693A (ja) 2017-03-09 2018-09-27 株式会社デンソーテン 運転支援装置および運転支援方法
JP2018195194A (ja) 2017-05-19 2018-12-06 シャープ株式会社 情報処理システム、情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US11195001B2 (en) 2021-12-07
CN111294554B (zh) 2022-03-08
JP2020095357A (ja) 2020-06-18
US20200184202A1 (en) 2020-06-11
CN111294554A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
Kashevnik et al. Methodology and mobile application for driver behavior analysis and accident prevention
US10848913B2 (en) Method for smartphone-based accident detection
US10155445B2 (en) Direct observation event triggering of drowsiness
US11623647B2 (en) Driver and vehicle monitoring feedback system for an autonomous vehicle
EP3316231B1 (en) Alert generation correlating between head mounted imaging data and external device
US20210197849A1 (en) Warning device and driving tendency analysis method
EP2758879B1 (en) A computing platform for development and deployment of sensor-driven vehicle telemetry applications and services
JP7115277B2 (ja) 行動監視装置、行動監視システム、及び行動監視プログラム
JP6954420B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10713861B2 (en) Vehicle tracker for monitoring operation of a vehicle and method thereof
US11285963B2 (en) Driver-based prediction of dangerous events
Shubham et al. A survey on IoT based automatic road accident detection
Ijjina et al. Accident detection from dashboard camera video
Kannimuthu et al. Certain investigation on significance of internet of things (IoT) and big data in vehicle tracking system
Vasudevan et al. An AI approach for real-time driver drowsiness detection—A novel attempt with high accuracy
Areef et al. A Study on Cloud and IoT based Accident Detection & Prevention Systems
Montanaro et al. A Survey on the combined use of IoT and Edge AI to improve Driver Monitoring systems
TWI640446B (zh) 基於模糊優化集合架構的駕駛輔助方法及其裝置與系統
Chaturvedi et al. Driver Safety and Assistance System using Machine Learning & IoT
Batra et al. DDSS: an AI powered system for driver safety
Tushaar et al. UDDSUI: An Unsafe Driving Detection System Using IoT
US12046128B2 (en) Monitoring device, monitoring method, and recording medium
Bhargava et al. Design and Implementation of Driver Assistance System using Machine Learning
Reddy et al. Cloud-Based Road Safety for Real-Time Vehicle Rash Driving Alerts with Random Forest Algorithm
Kaur et al. Intelligent impaired driving detection and road emergency services system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R151 Written notification of patent or utility model registration

Ref document number: 7115277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151