JP7294121B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7294121B2 JP7294121B2 JP2019234868A JP2019234868A JP7294121B2 JP 7294121 B2 JP7294121 B2 JP 7294121B2 JP 2019234868 A JP2019234868 A JP 2019234868A JP 2019234868 A JP2019234868 A JP 2019234868A JP 7294121 B2 JP7294121 B2 JP 7294121B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- behavior
- information processing
- information
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 46
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000003542 behavioural effect Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 13
- 230000033001 locomotion Effects 0.000 claims description 8
- 230000006399 behavior Effects 0.000 description 111
- 230000009471 action Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000003203 everyday effect Effects 0.000 description 3
- 230000002618 waking effect Effects 0.000 description 3
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06314—Calendaring for a resource
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/02—Control of vehicle driving stability
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/3438—Rendez-vous, i.e. searching a destination where several users can meet, and the routes to this destination for these users; Ride sharing, i.e. searching a route such that at least two users can share a vehicle for at least part of the route
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3617—Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B11/00—Automatic controllers
- G05B11/01—Automatic controllers electric
- G05B11/32—Automatic controllers electric with inputs from more than one sensing element; with outputs to more than one correcting element
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/02—Reservations, e.g. for tickets, services or events
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Automation & Control Theory (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Operations Research (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Game Theory and Decision Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Social Psychology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Educational Administration (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Primary Health Care (AREA)
Description
具体的には、前記屋内に設置された複数のセンサからセンサデータを取得することと、前記取得したセンサデータに基づいて、前記屋内におけるユーザの行動情報を生成することと、前記生成した行動情報に基づいて、前記ユーザが外出する時刻を推定することと、を実行する制御部を有することを特徴とする。
具体的には、屋内に設置された複数のセンサからデータを取得するステップと、前記取得したデータに基づいて、前記屋内におけるユーザの行動情報を生成するステップと、前記生成した行動情報に基づいて、前記ユーザが外出する時刻を推定するステップと、を含む。
制御部は、複数のセンサから取得したセンサデータに基づいて、ユーザの行動情報を生成する。行動情報とは、屋内においてユーザがどのような行動をしているかを表すデータである。行動情報は、ユーザの行動を時系列で表したデータであってもよい。
毎日のルーチンが決まっている場合、人は、外出前に特定の行動パターンを取る場合が多い。よって、センシングによって得られた行動情報に基づいて、ユーザの外出時刻を推定することができる。
屋内におけるユーザの位置は、例えば、複数の場所に設置されたセンサから得たデータによって判定することができる。また、機器の利用状況は、複数の機器から取得することができる。
行動情報は、例えば、ユーザがどの部屋にいるかを示した時系列データであってもよく
、ユーザがどの機器(例えば、コンピュータや電化製品)を利用したかを示した時系列データであってもよい。また、これらの組み合わせであってもよい。
ユーザが外出する前に取る標準的な行動パターンを記憶させ、これと、取得した行動情報とを比較することで、外出時刻を精度良く推定することが可能になる。
なお、比較は、単純な比較であってもよいし、機械学習モデルによって行動パターンの一致度を取得してもよい。
行動パターンは、複数のユーザについて定義してもよい。かかる場合であっても、複数のユーザのうちのいずれかが外出することを推定することができる。
例えば、センサが、生体情報を取得可能なものである場合や、画像センサである場合、人の識別を行うことができる。この場合、ユーザごとに行動情報を生成することで、個人に特化した推定が行えるようになる。
外出時刻は、絶対時刻であってもよいし、相対時刻(例えば、パターン中のある時点からの経過時間)であってもよい。
行動パターンと実際の行動が完全に一致することは少ない。よって、ずれ幅を算出することで、外出時刻を補正するようにしてもよい。ずれ幅とは、ある時点における遅延時間であってもよいし、外出時に最終的に予想される遅延時間であってもよい。
行動パターンと実際の行動がどの程度一致しているかを数値で求めることによって、ユーザが外出する尤度(確度)を算出することができる。
例えば、自動運転車両の配車を事前に予約することで、ユーザの利便性を高めることができる。
さらに、前記制御部は、前記ユーザが外出する尤度をさらに算出し、前記尤度が閾値を
下回る場合に、前記車両の利用意思を確認することを特徴としてもよい。
車両の配車を予約する場合、キャンセルが可能な期間内に意思確認を行うことが好ましい。この場合、外出する尤度がある程度高い場合(確実に外出すると見込まれる場合)、意思確認を省略するようにしてもよい。
また、前記制御部は、前記ユーザに関連付いた端末から取得した過去の移動情報を用いて、外出の手段をさらに推定することを特徴としてもよい。
ユーザに関連付いた端末とは、外出時にユーザが所持する携帯端末であってもよいし、外出時にユーザが利用する車両に搭載された車載端末であってもよい。また、当該車両を管理する装置であってもよい。
外出の手段とは、例えば、路線バス、タクシー、オンデマンドバス、自動運転車両、パーソナルモビリティ、自転車、徒歩などであり、車両に限られない。
また、前記制御部は、前記予約する車両のタイプを、前記手段に基づいて決定することを特徴としてもよい。
予約対象の車両は、自動運転を行う自動車に限られない。例えば、パーソナルモビリティや、乗り合いタクシーなどであってもよい。制御部は、過去に移動した際の目的地や手段に基づいて、適切なタイプの車両を予約することができる。
第一の実施形態に係る配車システムの概要について、図1を参照しながら説明する。本実施形態に係る配車システムは、ユーザに関連付いた所定の施設(例えば、ユーザの自宅)を管轄する情報処理装置100と、屋内においてユーザをセンシングする複数のセンサを含むセンサ群200と、配車サーバ400と、を含んで構成される。
なお、図1では、情報処理装置100が屋内に設置されているが、情報処理装置100の設置場所は遠隔地であってもよい。また、一台の情報処理装置100が、複数の施設(例えば、複数のユーザの自宅)を管轄してもよい。
人感センサによって、ユーザが宅内のどこに居るかを特定することができる。また、機器センサによって、ユーザが宅内でどの機器を利用しているかを特定することができる。また、外出検知センサによって、ユーザが自宅から外に出たことを検知することができる。
例えば、機器に内蔵された距離センサによって、ユーザが正面にいることを検出してもよいし、通電を検知するセンサによって、機器が利用されていることを検出してもよい。また、機器上で動作するソフトウェアが、ユーザによって特定の操作が行われたことを検出してもよい。
機器センサによるセンシングの対象は、特定のものに限られない。例えば、テレビに内蔵されたセンサが、テレビがついていることを検出してもよいし、特定のチャンネルがついていることを検出してもよい。また、炊飯器に内蔵されたセンサが、炊飯スイッチが押されたことを検出してもよいし、蓋が開閉されたことを検出してもよい。
なお、外出検知センサは、必ずしも宅内に設けられていなくてもよい。例えば、ユーザが所持する携帯端末から位置情報を取得し、当該携帯端末が自宅から離れた場合に外出したと判定してもよい。情報処理装置100は、当該携帯端末と通信可能に構成されていてもよい。
情報処理装置100は、ユーザが外出する前に取る典型的な行動を表すモデル(以下、行動モデル)を記憶し、センサ群200から取得した情報と行動モデルとを比較した結果に基づいて、近い将来にユーザが外出することを推定し、車両500の手配を行う。
ROM、ハードディスクドライブ、リムーバブルメディア等の補助記憶装置を有するコンピュータとして構成することができる。なお、リムーバブルメディアは、例えば、USBメモリ、あるいは、CDやDVDのようなディスク記録媒体であってもよい。補助記憶装置には、オペレーティングシステム(OS)、各種プログラム、各種テーブル等が格納され、そこに格納されたプログラムを主記憶装置の作業領域にロードして実行し、プログラムの実行を通じて各構成部等が制御されることによって、後述するような、所定の目的に合致した各機能を実現することができる。ただし、一部または全部の機能はASICやFPGAのようなハードウェア回路によって実現されてもよい。
行動モデルは、外出する前にユーザが取った行動の履歴に基づいて生成される。行動モデルによって表された所定行動パターンと、ユーザの実際の行動とを比較することで、ユーザが外出する蓋然性の大小を判定することが可能になる。
なお、行動モデルは、ユーザの外出時刻をさらに関連付けたモデルであってもよい。例えば、「所定行動パターンを取り始めた対象ユーザは、N分後に外出する傾向がある」といったものを表すものであってもよい。
行動モデルは、ユーザをセンシングした結果に基づいて自動で生成されてもよい。行動モデルを自動生成する場合、機械学習を利用してもよい。
制御部103は、データ取得部1031と、モデル管理部1032と、予測部1033と、手配部1034の4つの機能モジュールを有して構成される。各機能モジュールは、記憶されたプログラムをCPUによって実行することで実現してもよい。
データ取得部1031は、取得した信号を所定の形式に変換してもよい。例えば、画像データや音声データに基づいてユーザの検出を行い、ユーザの有無を表すデータを出力してもよい。また、センサデータを、機械学習を行う際の特徴量に変換してもよい。
ここで、ユーザの行動について説明する。図4Aは、ユーザの行動として、宅内におけるユーザの位置を利用した場合の例である。図示した例において、横軸は時刻を表し、縦軸は、ユーザを検知した人感センサの場所を表す。すなわち、図示したユーザの行動は、宅内におけるユーザの位置を時系列で表したものである。
本例では、平日の7:30に起床したユーザが、リビングとキッチン、居室を移動し、8:45に外出する旨が表されている。
なお、図示した例では、ユーザの存在または機器の利用有無を二値で表したが、より高次元のデータを利用してもよい。例えば、人感センサから得られるデータとして、単位時間における感知回数を利用してもよい。
予測部1033は、記憶された行動モデルと、センサ群200から取得したセンサデータに基づいて、ユーザの外出時刻を予測する。
図5は、ユーザが取った実際の行動に基づいて、行動モデルを生成ないし更新する処理を説明する図である。センサ群200からは、各センサが出力したセンサデータが、データ取得部1031に常時供給される。データ取得部1031は、周期的に(例えば、1分ごとに)取得した複数のセンサデータにそれぞれ時刻を関連付け、モデル管理部1032へ順次送信する。モデル管理部1032には、データ取得部1031から送信されたセンサデータが蓄積される。
具体的には、蓄積された複数のセンサデータを、時系列形式のデータ(以下、時系列データ)に変換する。時系列データは、例えば、センサの種類と時刻を要素に持ち、センシングによって得られた値が格納された配列データとすることができる。時系列データは、過去の所定の期間に対応するセンサデータを変換して得ることができる。
なお、行動モデルは、機械学習モデルであってもよいし、宅内で行われる複数の行動と外出時刻(あるいは、外出までの残り時間)との関係を統計的に表したモデルであってもよい。ユーザの所定行動パターンを表すものであれば、行動モデルはどのような形式であってもよい。
行動モデルが機械学習モデルである場合、時系列データを特徴量に変換したうえで、当該特徴量を入力データ、外出時刻を教師データとして学習を行ってもよい。
行動モデルの更新は、例えば、ユーザが外出するごとに実行することができる。
ユーザが外出したと判定した場合、処理はステップS13へ進み、蓄積したセンサデータを時系列データに変換する。本ステップでは、例えば、過去の所定時間分のセンサデータを時系列データに変換する。そして、得られた時系列データを用いて行動モデルを更新する(ステップS14)。
具体的には、予測部1033は、所定の判定周期が到来するごとに、蓄積されたセンサデータを時系列データに変換する。そして、得られた時系列データと、行動モデルによって表された所定行動パターンとを比較し、時系列データによって示された行動パターンと、所定行動パターンとの類似度を算出する。得られた類似度は、ユーザが外出する尤度(確からしさ)を表す値となる。
なお、行動モデルが機械学習モデルである場合、時系列データを特徴量に変換し、当該特徴量を入力データとして評価を行ってもよい。
ステップS22では、蓄積したセンサデータを時系列データに変換する。そして、得られた時系列データと、記憶された行動モデルとを用いて行動パターンの比較を行い、その類似度を算出する(ステップS23)。そして、得られた類似度に基づいて外出の兆候があるか否かを判定する(ステップS24)。
ここで、得られた類似度が所定の閾値を下回る場合、処理はステップS11へ戻り、センサデータの蓄積を続ける。
得られた類似度が所定の閾値を超える場合、処理はステップS25へ進み、ユーザが乗
車するための車両をリクエストする。なお、配車リクエストには、迎車場所や、到着希望時刻(すなわち、ユーザの外出時刻)を含ませてもよい。
なお、外出時刻の推定を行った後で、実際の外出時刻が判明した場合、実際の外出時刻を用いて行動モデルを更新する処理を実行してもよい。
第一の実施形態では、単一のユーザを対象として外出の兆候を判定したが、屋内には複数のユーザが存在してもよい。屋内に複数のユーザが存在する場合であっても、センサ群200から取得したセンサデータと、行動モデルを照合することは可能である。
複数のユーザの行動を表す行動モデルを併用して判定を行うことで、当該複数のユーザのうちの誰かが外出することを推定することができる。
また、第一の実施形態では、単一の行動モデルを例示したが、一人のユーザについて複数の行動モデルを記憶させてもよい。例えば、「平日の行動モデル」「休日の行動モデル」「午後出勤の場合の行動モデル」といったように、複数の行動モデルを記憶させ、当該複数の行動モデルを用いて、外出時刻を推定するようにしてもよい。
この場合、行動パターンの類似度を、固定された閾値と比較するのではなく、「ユーザの行動が、どのパターンに最も類似しているか」を判定するようにしてもよい。
さらに、日の属性別に行動モデルを持たせてもよい。例えば、曜日別や、平日/休日別に行動モデルを定義し、予測対象の日に適合する行動モデルを選択するようにしてもよい。
また、第一の実施形態では、行動モデルに外出時刻を関連付けたが、行動モデルは、ユーザの行動パターンを特定する用途のみに利用し、外出時刻は、他のデータソースから取得してもよい。例えば、ユーザの行動が、「出勤」という行動パターンに一致すると判定した場合、情報処理装置100は、当該ユーザの出勤時における移動履歴を取得し、出発時刻を推定してもよい。
また、行動パターンの類似度に応じて、追加の処理を行うようにしてもよい。例えば、類似度が所定値よりも低い場合、推定された時刻に外出する確度が低いことを意味する。このような場合、自動で配車を依頼すると不都合が生じるおそれがあるため、ユーザと対話することで推定確度を引き上げる処理を実行してもよい。例えば、配車依頼をすべきかを、ユーザ端末を介して問いかけ、回答を得るようにしてもよい。当該処理は、配車を依頼した車両のキャンセル期限が到来するよりも前に実行することが好ましい。
第一の実施形態では、時系列データと、予め記憶された行動モデルとに基づいて、外出時刻の推定を行った。しかし、人は必ずしも毎日同じ速度で行動するとは限らない。例えば、図9に示したように、起床してから外出するまでの間の行動の順序は毎日変わらない場合であっても、個々の行動の長さが日によって異なる場合がある。
これに対応するため、所定行動パターンからの遅れを算出するようにしてもよい。例え
ば、行動の順序は大きくずれていないにもかかわらず、各行動が長くなっていることを検出した場合、遅れ時間が発生したものとして比較を続けてもよい。また、遅れ時間のぶんだけ外出時刻が遅くなるという判定を行ってもよい。
第二の実施形態は、複数人の行動モデルが記憶部102に記憶されており、屋内に存在する複数のユーザそれぞれについて、外出を推定する実施形態である。
前述したように、屋内に複数のユーザが存在する場合であっても、センサデータと行動モデルを照合することはできる。しかし、個人の識別ができないセンサから送信されたセンサデータのみを用いた場合、誰が外出しようとしているかを特定することができない。
なお、個人の識別が可能なセンサであれば、カメラ以外を利用することもできる。例えば、虹彩認識、音声認識、その他の生体情報(体重等)などを利用してもよい。
ステップS31では、第一の実施形態と同様に、センサデータを受信して蓄積するが、センサデータの代わりにユーザ識別子が送信される場合があるという点において、第一の実施形態と相違する。例えば、カメラによって撮像された画像に基づいてユーザ識別が行われた場合、センサデータの代わりにユーザ識別子を受信する。
ステップS34では、マッチング対象のユーザが設定されているか否かを判定する。ここで、否定判定となった場合、処理はステップS31へ戻る。
第三の実施形態は、過去にユーザが外出した際の手段および目的地を記録し、記録されたデータに基づいて、より好ましい車両の配車を行う実施形態である。
図14は、第三の実施形態に係る配車システムの構成要素をより詳細に示した図である。第三の実施形態では、情報処理装置100が、ユーザが所持する端末(ユーザ端末300)と通信し、外出中における行動履歴を取得可能に構成される。
履歴管理部1035は、ユーザに関連付いたユーザ端末300と周期的に通信を行い、位置情報を取得する。取得した位置情報は、外出履歴として記憶部102に記憶される。
なお、本例では、履歴管理部1035の通信先としてユーザ端末300を例示したが、モビリティの利用履歴を管理する装置から情報を取得するようにしてもよい。
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
101・・・通信部
102・・・記憶部
103・・・制御部
104・・・入出力部
200・・・センサ群
300・・・ユーザ端末
400・・・配車サーバ
500・・・車両
Claims (17)
- 屋内に設置された複数のセンサからセンサデータを取得することと、
ユーザが外出する前に取得した第1のセンサデータに基づいて生成された、前記ユーザの行動情報に基づいて、前記ユーザの外出前にお ける前記ユーザの典型的な行動パターンであって、前記ユーザの外出時刻を含む複数の行動パターンを含む行動モデルを生成することと、
前記外出におけるユーザの目的地を、前記行動パターンと関連付けて記憶することと、
第2のセンサデータと、前記行動モデルに基づいて、前記ユーザの行動パターンを特定することと、
特定された前記ユーザの行動パターンに基づいて、前記ユーザの外出時刻および目的地を判定することと、
前記目的地へ向かうための車両を予約することと、
を実行する制御部を有する、情報処理装置。 - 前記センサデータは、前記屋内における前記ユーザの位置を示したデータである、
請求項1に記載の情報処理装置。 - 前記行動情報は、前記屋内における前記ユーザの位置を時系列で表したデータである、
請求項2に記載の情報処理装置。 - 前記第1および第2のセンサデータは、前記屋内における前記ユーザの位置、および、前記屋内に設置された一つ以上の機器の利用状況を示したデータである、
請求項1に記載の情報処理装置。 - 前記行動情報は、前記屋内における前記ユーザの位置、および、前記屋内に設置された一つ以上の機器の利用状況を時系列で表したデータである、
請求項4に記載の情報処理装置。 - 前記行動パターンは、複数のユーザごとに定義され、
前記制御部は、前記行動情報を、前記複数のユーザの行動パターンと比較した結果に基
づいて、前記複数のユーザのいずれかの外出時刻および目的地を推定する、
請求項1から5のいずれか1項に記載の情報処理装置。 - 前記複数のセンサのうちのいずれかは、人物を識別可能なセンサであり、
前記制御部は、識別されたユーザの行動パターンを前記行動情報と比較し、ユーザごとに外出時刻を推定する、
請求項6に記載の情報処理装置。 - 前記制御部は、比較結果に基づいて、前記行動パターンと、前記ユーザの実際の行動とのずれ幅を算出し、前記ずれ幅を用いて前記外出時刻を推定する、
請求項7に記載の情報処理装置。 - 前記制御部は、前記行動情報と前記行動パターンとの類似度に基づいて、前記ユーザが外出する尤度をさらに算出する、
請求項6から8のいずれか1項に記載の情報処理装置。 - 前記制御部は、推定した外出時刻に基づいて、前記ユーザが乗車する車両を予約する、
請求項1から9のいずれか1項に記載の情報処理装置。 - 前記制御部は、所定のキャンセル期限が到来するまでに、前記ユーザに前記車両の利用意思を確認する、
請求項10に記載の情報処理装置。 - 前記制御部は、前記ユーザが外出する尤度をさらに算出し、前記尤度が閾値を下回る場合に、前記車両の利用意思を確認する、
請求項11に記載の情報処理装置。 - 前記制御部は、前記予約する車両のタイプを、前記目的地に基づいて決定する、
請求項12に記載の情報処理装置。 - 前記制御部は、前記ユーザに関連付いた端末から取得した過去の移動情報を用いて、外出の手段をさらに推定する、
請求項10または11に記載の情報処理装置。 - 前記制御部は、前記予約する車両のタイプを、前記手段に基づいて決定する、
請求項14に記載の情報処理装置。 - 情報処理装置が、
屋内に設置された複数のセンサからセンサデータを取得するステップと、
ユーザが外出する前に取得した第1のセンサデータに基づいて生成された、前記ユーザの行動情報に基づいて、前記ユーザの外出前における前記ユーザの典型的な行動パターンであって、前記ユーザの外出時刻を含む複数の行動パターンを含む行動モデルを生成するステップと、
前記外出におけるユーザの目的地を、前記行動パターンと関連付けて記憶するステップと、
第2のセンサデータと、前記行動モデルに基づいて、前記ユーザの行動パターンを特定するステップと、
特定された前記ユーザの行動パターンに基づいて、前記ユーザの外出時刻および目的地を判定するステップと、
前記目的地へ向かうための車両を予約するステップと、
を実行する、情報処理方法。 - 請求項16に記載の情報処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019234868A JP7294121B2 (ja) | 2019-12-25 | 2019-12-25 | 情報処理装置、情報処理方法、およびプログラム |
US17/130,438 US11783586B2 (en) | 2019-12-25 | 2020-12-22 | Information processing apparatus, information processing method and program medium |
CN202011560629.3A CN113033942B (zh) | 2019-12-25 | 2020-12-25 | 信息处理装置、信息处理方法以及非临时性存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019234868A JP7294121B2 (ja) | 2019-12-25 | 2019-12-25 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021103462A JP2021103462A (ja) | 2021-07-15 |
JP7294121B2 true JP7294121B2 (ja) | 2023-06-20 |
Family
ID=76459155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019234868A Active JP7294121B2 (ja) | 2019-12-25 | 2019-12-25 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11783586B2 (ja) |
JP (1) | JP7294121B2 (ja) |
CN (1) | CN113033942B (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002297979A (ja) | 2001-03-30 | 2002-10-11 | Mitsubishi Electric Information Systems Corp | 予約業務支援サーバ及び予約業務支援処理方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム |
WO2015155916A1 (ja) | 2014-04-07 | 2015-10-15 | パナソニックIpマネジメント株式会社 | 行動予測装置、プログラム |
JP2016058029A (ja) | 2014-09-12 | 2016-04-21 | 株式会社東芝 | 行動分析装置、行動分析方法、及びプログラム |
JP2018120644A (ja) | 2018-05-10 | 2018-08-02 | シャープ株式会社 | 識別装置、識別方法およびプログラム |
JP2019207587A (ja) | 2018-05-30 | 2019-12-05 | 富士通株式会社 | 情報処理プログラム、情報処理装置及び情報処理方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009229178A (ja) * | 2008-03-21 | 2009-10-08 | Fujitsu Ltd | 到着予定時刻通知方法,到着予定時刻通知装置及び到着予定時刻通知プログラム |
JP6035812B2 (ja) * | 2012-03-28 | 2016-11-30 | カシオ計算機株式会社 | 情報処理装置、情報処理方法及びプログラム |
US8738292B1 (en) * | 2013-05-14 | 2014-05-27 | Google Inc. | Predictive transit calculations |
JP6459311B2 (ja) * | 2014-09-01 | 2019-01-30 | カシオ計算機株式会社 | 行動推定装置、行動推定方法、および、行動推定プログラム |
US11205240B2 (en) | 2015-12-30 | 2021-12-21 | Waymo Llc | Autonomous vehicle services |
JP6933015B2 (ja) * | 2017-06-20 | 2021-09-08 | 富士通株式会社 | 情報処理方法、情報処理プログラム及び情報処理装置 |
JP6668307B2 (ja) * | 2017-10-18 | 2020-03-18 | 本田技研工業株式会社 | 車両乗合支援システム |
US11410103B2 (en) * | 2017-12-06 | 2022-08-09 | International Business Machines Corporation | Cognitive ride scheduling |
US11294094B2 (en) * | 2018-01-19 | 2022-04-05 | Osram Sylvania Inc. | Methods and devices for activity monitoring in spaces utilizing an array of motion sensors |
JP7394776B2 (ja) * | 2018-10-02 | 2023-12-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報提供方法 |
US20200193335A1 (en) * | 2018-12-13 | 2020-06-18 | Accenture Global Solutions Limited | Seamless management of connected environments |
US11313688B2 (en) * | 2019-04-10 | 2022-04-26 | Waymo Llc | Advanced trip planning for autonomous vehicle services |
US11277277B2 (en) * | 2019-06-03 | 2022-03-15 | International Business Machines Corporation | Indoor environment personalization preferences |
-
2019
- 2019-12-25 JP JP2019234868A patent/JP7294121B2/ja active Active
-
2020
- 2020-12-22 US US17/130,438 patent/US11783586B2/en active Active
- 2020-12-25 CN CN202011560629.3A patent/CN113033942B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002297979A (ja) | 2001-03-30 | 2002-10-11 | Mitsubishi Electric Information Systems Corp | 予約業務支援サーバ及び予約業務支援処理方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム |
WO2015155916A1 (ja) | 2014-04-07 | 2015-10-15 | パナソニックIpマネジメント株式会社 | 行動予測装置、プログラム |
JP2016058029A (ja) | 2014-09-12 | 2016-04-21 | 株式会社東芝 | 行動分析装置、行動分析方法、及びプログラム |
JP2018120644A (ja) | 2018-05-10 | 2018-08-02 | シャープ株式会社 | 識別装置、識別方法およびプログラム |
JP2019207587A (ja) | 2018-05-30 | 2019-12-05 | 富士通株式会社 | 情報処理プログラム、情報処理装置及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113033942A (zh) | 2021-06-25 |
CN113033942B (zh) | 2024-04-09 |
JP2021103462A (ja) | 2021-07-15 |
US11783586B2 (en) | 2023-10-10 |
US20210199452A1 (en) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11005678B2 (en) | Machine learning for home understanding and notification | |
EP3287873A2 (en) | System and method for distant gesture-based control using a network of sensors across the building | |
US10095315B2 (en) | System and method for distant gesture-based control using a network of sensors across the building | |
US9988238B2 (en) | Elevator dispatch using facial recognition | |
US10992492B2 (en) | Machine learning for home understanding and notification | |
CN105584910A (zh) | 在群电梯***中调度电梯轿厢的方法和*** | |
JP6866275B2 (ja) | 外部システム連携配車システム及び方法 | |
US11755924B2 (en) | Machine learning for home understanding and notification | |
EP3794504A1 (en) | Machine learning for home understanding and notification | |
WO2019087241A1 (ja) | 自動呼び登録システム及び自動呼び登録方法 | |
CN116108936A (zh) | 用于管理办公资源预订的方法、装置和计算机程序 | |
JP7294121B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20210114563A1 (en) | Information processing method, information processing device, and non-transitory computer-readable recording medium | |
US11686591B2 (en) | Information processing apparatus, information processing methods and information processing system | |
JP2021026456A (ja) | 業務支援システム | |
US20220198600A1 (en) | Information processing apparatus, information processing method, and system | |
JP7230793B2 (ja) | 情報処理装置、情報処理方法、及び、システム | |
JP7465644B2 (ja) | 監視システム、及び監視方法 | |
CN111199334A (zh) | 信息处理***、记录介质以及信息处理方法 | |
JP2021141789A (ja) | 車両充電装置 | |
CA3209841A1 (en) | Using implicit event ground truth for video cameras | |
CN109146612A (zh) | 购物***和购物方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230522 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7294121 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |