JP2016225938A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2016225938A
JP2016225938A JP2015113048A JP2015113048A JP2016225938A JP 2016225938 A JP2016225938 A JP 2016225938A JP 2015113048 A JP2015113048 A JP 2015113048A JP 2015113048 A JP2015113048 A JP 2015113048A JP 2016225938 A JP2016225938 A JP 2016225938A
Authority
JP
Japan
Prior art keywords
user
information
observation
information processing
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015113048A
Other languages
English (en)
Other versions
JP6572629B2 (ja
JP2016225938A5 (ja
Inventor
政晴 永田
Masaharu Nagata
政晴 永田
松井 康浩
Yasuhiro Matsui
康浩 松井
清士 吉川
Kiyoshi Yoshikawa
清士 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015113048A priority Critical patent/JP6572629B2/ja
Priority to PCT/JP2016/001976 priority patent/WO2016194282A1/en
Priority to CN201680030482.2A priority patent/CN107683499B/zh
Priority to US15/552,389 priority patent/US10607427B2/en
Priority to EP16721514.4A priority patent/EP3304449A1/en
Publication of JP2016225938A publication Critical patent/JP2016225938A/ja
Publication of JP2016225938A5 publication Critical patent/JP2016225938A5/ja
Application granted granted Critical
Publication of JP6572629B2 publication Critical patent/JP6572629B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • G07C9/257Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザ認識を伴うサービスをより柔軟に提供することが可能な情報処理装置、情報処理方法及びプログラムを提供する。
【解決手段】ユーザに関する観測結果を示す第1の観測情報を取得する取得部と、前記取得部により取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化を認識する認識部と、前記認識部による認識結果に応じて出力を制御する出力制御部と、を備える情報処理装置。
【選択図】図1

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、顔認識技術に代表されるユーザ認識技術が広く利用されている。例えば、複数人が利用する可能性があるサービスに関して、ユーザを認識して、認識したユーザに対応するサービスを提供するための技術が開発されている。
例えば、下記特許文献1では、テレビ会議システムにおいて、遠隔地の会議参加者を認識して、会議参加者の属性情報を視覚的に表示する技術が開示されている。
特開2004−129071号公報
上記特許文献1に記載されているようなユーザ認識を伴うサービスにおいては、ユーザ認識の成功/失敗に応じて提供されるサービスが切り替えられる。しかし、例えば登録された情報と完全に一致しなければ認証が成功せず、サービスを受けることができない等の不便さがあった。
そこで、本開示では、ユーザ認識を伴うサービスをより柔軟に提供することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、ユーザに関する観測結果を示す第1の観測情報を取得する取得部と、前記取得部により取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化を認識する認識部と、前記認識部による認識結果に応じて出力を制御する出力制御部と、を備える情報処理装置が提供される。
また、本開示によれば、ユーザに関する観測結果を示す第1の観測情報を取得することと、取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化をプロセッサにより認識することと、認識結果に応じて出力を制御することと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータを、ユーザに関する観測結果を示す第1の観測情報を取得する取得部と、前記取得部により取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化を認識する認識部と、前記認識部による認識結果に応じて出力を制御する出力制御部と、として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザ認識を伴うサービスをより柔軟に提供することが可能である。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係る情報処理システムの概要を説明するための説明図である。 本実施形態に係る情報処理システムの論理的な構成の一例を示すブロック図である。 本実施形態に係る観測装置の配置の一例を説明するための説明図である。 本実施形態に係る情報処理システムにより提供されるサービスの一例を説明するための説明図である。 本実施形態に係るサーバにおいて実行されるDBの更新処理の流れの一例を示すフローチャートである。 本実施形態に係るサーバにおいて実行される認識処理の流れの一例を示すフローチャートである。 本実施形態に係るサーバにおいて実行される情報提供処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理システムに係る具体例を説明するための説明図である。 本実施形態に係る情報処理システムに係る具体例を説明するための説明図である。 本実施形態に係る情報処理システムに係る具体例を説明するための説明図である。 本実施形態に係る情報処理システムに係る具体例を説明するための説明図である。 本実施形態に係る情報処理システムに係る具体例を説明するための説明図である。 本実施形態に係る情報処理システムに係る具体例を説明するための説明図である。 本実施形態に係る情報処理システムに係る具体例を説明するための説明図である。 本実施形態に係るサーバにおいて実行される一日の処理の流れの一例を示すフローチャートである。 本実施形態に係るサーバにおいて実行される一日の処理の流れの一例を示すフローチャートである。 本実施形態に係るサーバにおいて実行される認識結果の履歴の修正処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の要素を、必要に応じて端末装置100A、100B及び100Cのように区別する。ただし、実質的に同一の機能構成を有する複数の要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、端末装置100A、100B及び100Cを特に区別する必要が無い場合には、単に端末装置100と称する。
なお、説明は以下の順序で行うものとする。
1.概要
2.第1の実施形態
2.1.構成例
2.2.技術的特徴
2.3.処理の流れ
2.4.具体例
3.ハードウェア構成例
4.まとめ
<<1.概要>>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概要を説明する。
図1は、本実施形態に係る情報処理システムの概要を説明するための説明図である。図1に示すように、端末装置100は、天井に吊るされ、テーブル10の天面に上方から情報を表示(即ち、投影)する装置である。端末装置100は、テーブル10に表示した情報に対するユーザ操作に応じたサービスをユーザに提供する。このような、テーブル10の天面に情報を出力する形態は、テーブルトップスクリーンとも称される。
端末装置100は、画像センサ、深度センサ、及びマイク等の図示しない観測部(図2に示す観測部110)を含み、ユーザに関する情報を観測する。例えば、端末装置100は、テーブル10上の一領域を観測領域20として、観測領域20内に存在する物体を対象として観測を行う。図1に示した例では、端末装置100は、観測領域20内に位置するユーザの手の位置、服、手の形状、手の動き、指先がテーブル10に接しているか否か等を観測し得る。
端末装置100は、プロジェクタ、スピーカ等の図示しない出力部(図2に示す出力部120)を含み、ユーザへ情報を出力する。例えば、端末装置100は、テーブル10上の一領域を表示領域30として、アプリケーション画面等を出力する。なお、観測領域20と表示領域30とは一致していてもよい。
ユーザ認識技術として広く用いられている顔認識技術は、図1に示したようなユーザの手しか観測されないケースにおいては利用困難である。また、顔を観測可能なケースにおいても、表情の変化、体調の変化、メガネの有無等によって、顔認識技術だけではユーザを認識することが困難な場合がある。そのため、顔以外に基づいてユーザが認識される技術が提供されることが望ましい。
また、例えばユーザの体格、髪型又は服等をユーザ認識に用いるとしても、特に服に関して日々、さらには時間帯によって変化するので、正確にユーザを認識することは困難な場合がある。
そこで、上記事情を一着眼点にして本開示の一実施形態に係る情報処理システムを創作するに至った。本実施形態に係る情報処理システムは、ユーザ認識を伴うサービスをより柔軟に提供することが可能である。以上、本実施形態に係る情報処理システムの概要を説明した。
<<2.第1の実施形態>>
続いて、図2及び図3を参照して、本実施形態に係る情報処理システムの構成例を説明する。
<2.1.構成例>
図2は、本実施形態に係る情報処理システム1の論理的な構成の一例を示すブロック図である。図2に示すように、情報処理システム1は、端末装置100、観測装置200及びサーバ300を含む。
(1)端末装置100
図2に示すように、端末装置100は、観測部110及び出力部120を含む。
観測部110は、ユーザに関する観測結果を示す情報(以下、観測情報とも称する)を取得する機能を有する。例えば、観測部110は、画像センサ、深度センサ、又はマイク等を含み、画像情報、深度情報、音声情報等に基づいて観測情報を取得する。他にも、観測情報は、生体情報、位置情報、加速度情報等の、任意のセンサ装置により取得される情報に基づいて取得され得る。
出力部120は、ユーザへ情報を出力する機能を有する。例えば、出力部120は、プロジェクタ、ディスプレイ、タッチパネル、振動装置、又はスピーカ等を含み、画像表示、音声出力、振動、光の明滅等を行う。
端末装置100は、観測部110により取得された観測情報をサーバ300へ送信し、サーバ300から受信した情報を出力部120により出力する。
(2)観測装置200
図2に示すように、観測装置200は、観測部210を含む。観測部210の機能は、観測部110と同様であるため、ここでの詳細な説明は省略する。
ここで、情報処理システム1は、複数の観測装置200を含み得る。この点について、図3を参照して説明する。
図3は、本実施形態に係る観測装置200の配置の一例を説明するための説明図である。図3に示した例では、ひとつの家の中に、複数の観測装置200(即ち、観測装置200A、200B及び200C)が配置されている。詳しくは、観測装置200Aは、洗面所の鏡の上に配置されており、起床したばかりのユーザの全身を対象に観測(例えば、撮影)可能である。観測装置200Bは、玄関の鏡の上に配置されており、出勤前のユーザの全身を撮影可能である。観測装置200Cは、スマートフォンであり、ユーザが自分で自分を撮影するために使用した場合、ユーザの顔又は全身を撮影可能である。一方で、端末装置100は、例えば居間に配置されており、例えばユーザの手を撮影可能である。このように、観測装置200は、端末装置100が観測することが困難な、例えばユーザの顔等を観測対象とすることが可能である。
ここで、観測装置200A及び200Bのように、鏡の付近に設けられる場合、観測装置は正面からユーザの顔及び全身〜上半身を撮影することが可能となる。そのため、サーバ300は、観測装置200A又は200Bにより観測されたユーザを精度よく認識可能である。また、観測装置200Cのようなユーザ固有の観測装置200は、ユーザ名と画像とを対応付けて取得することが可能であるので、サーバ300における認識負荷が軽減される。他にも、観測装置200は、監視カメラ又はインターフォンのカメラ等であってもよく、その場合は既存のインフラを有効活用することができる。
なお、図3に示した例では、観測装置200は画像を撮影可能なカメラとして実現されているが、本技術はこれに限定されない。例えば、観測装置200は、マイク、生体センサ、慣性センサ(ジャイロセンサ又は加速度センサ等)、光センサ等の多様な装置として実現され得る。
情報処理システム1は、観測装置200と同様に、複数の端末装置100を含んでいてもよく、例えばひとつの家の中に複数の端末装置100が配置されていてもよい。
(3)サーバ300
図2に示すように、サーバ300は、取得部310、認識部320、記憶制御部330及び出力制御部340を含む。なお、サーバ300は、これらの構成要素以外の他の構成要素をさらに含み得る。即ち、サーバ300は、これらの構成要素の動作以外の動作も行い得る。取得部310、認識部320、記憶制御部330及び出力制御部340の機能は、後に詳しく説明する。
(4)DB(Data Base)400
DB400は、様々なデータを一時的に又は恒久的に記憶する記憶部として機能する。例えば、DB400は、端末装置100又は観測装置200により観測された観測情報を記憶する。
以上、本実施形態に係る情報処理システムの構成例を説明した。続いて、本実施形態に係る情報処理システム1の技術的特徴を説明する。
<2.2.技術的特徴>
(1)枠組み
情報処理システム1は、ユーザを認識し、認識したユーザに対応するサービスを提供する。以下では、情報処理システム1の基本的な処理の枠組みを説明する。
(a)観測情報の蓄積
サーバ300(例えば、取得部310)は、端末装置100又は観測装置200により観測された観測情報を取得する。そして、サーバ300(例えば、記憶制御部330)は、取得された観測情報を、後述する認識処理により認識されたユーザと対応付けてDB400に記憶させる。これにより、DB400にユーザ毎の観測情報が蓄積される。また、後述する認識処理によりユーザに関する変化が認識された場合、サーバ300は、ユーザに関する変化をDB400に記憶させる。これにより、DB400に記憶された情報が、最新のユーザの状況を反映したものとなる。
(b)認識処理
サーバ300(例えば、取得部310)は、端末装置100又は観測装置200により観測された観測情報を取得する。また、サーバ300(例えば、記憶制御部330)は、DB400に記憶された観測情報を取得する。ここで、認識の対象となるリアルタイムに取得される観測情報を第1の観測情報とも称し、DB400に蓄積された過去の観測情報を第2の観測情報とも称する。また、第1の観測情報と第2の観測情報とを特に区別する必要がない場合、観測情報と総称する。
サーバ300(例えば、認識部320)は、ユーザ及びユーザに関する変化を認識する。具体的には、サーバ300は、取得された第1の観測情報を、DB400に記憶された第2の観測情報の少なくとも一部と照合することで、ユーザ及びユーザに関する変化を認識する。例えば、サーバ300は、第1の観測情報のうち第2の観測情報と一致する情報の割合が高ければ、第1の観測情報に係るユーザは第2の観測情報に対応付けられたユーザであると判定する。そして、サーバ300は、第1の観測情報のうち第2の観測情報と一致しない情報については、ユーザに関する変化であると認識する。
図3に示した配置例を想定して、認識処理について説明する。例えば、サーバ300は、端末装置100により撮影されたユーザの手の部分の撮像画像(第1の観測情報)を、観測装置200により撮影されたユーザ全身の撮像画像(第2の観測情報)のうち手の部分と照合することで、ユーザの認識を行う。また、サーバ300は、観測装置200Bにより撮影された出勤前のユーザの全身の撮像画像(第1の観測情報)を、観測装置200Aにより撮影された起床したばかりのユーザの全身の撮像画像(第2の観測情報)と照合することで、ユーザが服を着替えたことを認識する。このように、サーバ300は、第1の観測情報と第2の観測情報とが部分的に一致して部分的に一致しない場合であっても、ユーザを認識可能であるし、ユーザに関する変化を認識可能である。
一例として、服の変化についてさらに説明する。サーバ300は、服を着替える、上着を着る/脱ぐといった行動を追跡し、その都度DB400を更新してもよい。これにより、顔が認識できない小さな画像、又は顔が映っていない画像であっても、サーバ300は、服を着替えた後のユーザを認識することが可能である。
(c)サービスの提供
サーバ300(例えば、出力制御部340)は、認識結果に応じて出力を制御する。例えば、サーバ300は、ユーザの認識結果及びユーザに関する変化の認識結果に応じたコンテンツを、端末装置100により出力させる。コンテンツには、アプリケーションの画面、画像(静止画像/動画像)、BGM等の音声などが含まれ得る。以下、図4を参照して、情報処理システム1により提供されるサービスの一例を説明する。
図4は、本実施形態に係る情報処理システム1により提供されるサービスの一例を説明するための説明図である。図4では、一日のユーザの行動に沿って提供されるサービスの一例を示している。ただし、事前準備として、ユーザは、観測装置200Cにより自身の顔を撮影して、ユーザ登録を行ったものとする。例えば、サーバ300は、ユーザに新たに付与する識別情報とユーザの顔画像とを対応付けてDB400に記憶させることで、ユーザ登録を行う。その際、ユーザの名前等の属性情報等が、ユーザ入力により登録されてもよい。
例えば、サーバ300は、観測装置200Aにより観測された、起床後に洗面中のユーザの撮像画像に基づいて、ユーザを認識すると共にユーザの服の特徴を認識し、ユーザの服の特徴を示す情報をDB400に記憶させる。サーバ300は、ユーザの服から、ユーザが起床直後であることを認識することができる。そして、サーバ300は、テーブル10で朝食41を食べるユーザのために、端末装置100によりニュースアプリケーションの画面42を自動的に表示させる。
また、サーバ300は、観測装置200Bにより観測された、仕事を終えて帰宅したユーザの撮像画像に基づいて、ユーザを認識すると共にユーザの服の特徴を認識し、ユーザの服の特徴を示す情報をDB400に記憶させる。サーバ300は、ユーザの服から、ユーザが仕事後帰宅したことを認識することができる。そして、サーバ300は、テーブル10で夕食43を食べるユーザのために、端末装置100により明日のスケジュールを示すスケジュールアプリケーションの画面44を自動的に表示させる。
なお、本明細書では、情報処理システム1が情報を出力すること、及び端末装置100が情報を出力することは、サーバ300が端末装置100により情報を出力させることと同義である。
(2)観測情報
(a)内容
観測情報は、多様に考えられる。観測情報は、以下に一例を示す情報の少なくともいずれかを含み得る。
・ユーザの身体に関する特徴を示す情報
例えば、観測情報は、以下に示すユーザの身体に関する特徴を示す情報を含み得る。これらの観測情報は、例えば生体センサにより取得されてもよいし、撮像画像、収音音声等の任意の情報に基づいて認識されてもよい。
−顔の特徴
−身体的特徴
ジェスチャーする際の手の形状
体格
体重
年齢
性別
脈拍
体臭
呼吸の速さ、深さ
体温

歩幅
利き手
皮膚の色
・ユーザの行動に関する特徴
例えば、観測情報は、以下に示すユーザの行動に関する特徴を示す情報を含み得る。これらの観測情報は、例えば慣性センサにより取得されてもよいし、撮像画像、収音音声等の任意の情報に基づいて認識されてもよい。
−行動
動作
位置
−嗜好特徴
いつも見るコンテンツ
最初に押すボタン
−癖
貧乏ゆすりの周波数
鼻歌
強い光への反応(瞬き等の驚き方の特徴)
機器が振動した時の反応
モスキート音への反応
待ち時間をわざと作ってイライラさせた際の反応
動物や食べ物の写真を提供した時の反応
ドアの閉め方
立っているときの体の揺れ方
腕の組み方
腕(指)の指し方
頭の掻き方
語尾の言い回し
箸の持ち方
ペンの持ち方
筆跡
テーブルの天面等に描かれた図形(丸、四角等)の特徴(大きさ、形状等)
足音
乗車位置
・ユーザの生活に関する特徴
例えば、観測情報は、以下に示すユーザの生活に関する特徴を示す情報を含み得る。これらの観測情報は、例えば撮像画像、収音音声、Webから取得された情報等の任意の情報に基づいて認識されてもよい。
−住環境
いつも座る場所
どこから画角に入ってくるか(お母さんはキッチン側から入ることが多い等)
寝る位置
ドアの開閉履歴
食器(自分専用マグカップ、箸等)
−生活リズム
起床時間
テーブルに座る順番
食べる速さ
食べる順番
役割(ゴミ捨て、洗濯)
−人間関係
ソーシャルメディアの情報
・ユーザが装着若しくは携行する物に関する特徴
例えば、観測情報は、以下に示すユーザが装着若しくは携行する物に関する特徴を示す情報を含み得る。これらの観測情報は、例えば撮像画像、赤外線センサにより取得された情報、DB400に記憶されたユーザの所有物を示す情報等の任意の情報に基づいて認識されてもよい。
−装飾品
頭部:帽子、かつら、髪の色
顔部:メガネ、イヤリング
首部:マフラー、ネックレス
腕部:腕時計、指輪、手袋、ネイル
胴部:ネクタイピン、キーホルダー、ネクタイ、服(色、模様、ブランドロゴ等)
足部:ズボン、スカート、靴、スリッパ、靴下
−情報を格納した装飾品
赤外線反射塗料で模様を印刷した指輪又はブレスレット
(b)取得処理
上記説明したように、観測情報は、ユーザに関する特徴を示す情報である。端末装置100又は観測装置200は、各種センサ装置から得られた生データを対象とした認識処理を行うことで観測情報を取得して、サーバ300へ観測情報を送信する。なお、生データがサーバ300に送信され、サーバ300において観測情報が得られてもよい。
(3)ユーザ認識の確信度
サーバ300(例えば、認識部320)は、取得された第1の観測情報を、DB400に記憶された第2の観測情報の少なくとも一部と照合することで、ユーザ及びユーザに関する変化を認識する。
ここで、例えば服は他のユーザとの間で重複する場合がある等、観測情報の一部が一致する場合であってもユーザを一意に認識することが困難な場合が有る。そのため、サーバ300は、確からしさ(精度)に幅を持たせてユーザ認識を行う。ユーザ認識の確からしさを、以下では確信度とも称する。例えば、顔認識技術を用いた認識結果の確信度が最も高く、続いて身体的特徴、癖の順に確信度が低下していく。この順位は、誤認識率に基づいて設定され得る。また、服に関しては、例えば単色の服に基づく認識結果の確信度は低く、模様(即ち、特徴量)の多い服に基づく認識結果の確信度は高く設定されてもよい。
サーバ300は、ユーザ認識の確信度を向上させるための処理を行い得る。例えば、サーバ300は、複数の観測情報を組み合わせてユーザ認識を行ってもよい。具体的には、サーバ300は、服が一致するか否かに加えて、手の形状が一致するか否か等を組み合わせることで、ユーザ認識の確からしさを向上させる。このように、複数の観測情報を組み合わせてユーザ認識が行われることで、認識のロバスト性が向上し、例えば服を用いたなりすましが防止される。他にも、サーバ300は、例えば端末装置100に加えて、他の端末装置100又は観測装置200により得られた観測情報を組み合わせることで、ユーザ認識の確信度を向上させてもよい。
(4)確信度に応じた出力
サーバ300(例えば、出力制御部340)は、確信度に応じて出力を制御してもよい。例えば、サーバ300は、確信度が低い場合は一般的な情報を出力させ、確信度が高まるにつれてよりユーザに特化した情報を出力させる等、確信度に応じて異なる出力を行い得る。これにより、例えばユーザ認識が確実でない場合であっても、少なくとも何らかの情報をユーザに提供することができる、といった柔軟なサービスの提供が実現される。
例えば、サーバ300は、確信度を示す情報を出力させてもよい。例えば、サーバ300は、表示されるポインタ等の表示オブジェクトの色又は濃さ等を確信度に応じて変化させてもよいし、確信度を示すメーターを増減させてもよい。他にも、サーバ300は、確信度の高さを音で出力させてもよい。これにより、ユーザは、ユーザ認識の確からしさを知得することができる。本特徴については、図9を参照して後に具体的に説明する。
例えば、サーバ300は、認識されたユーザのプライバシーに関する情報の出力可否を確信度に応じて制御してもよい。例えば、サーバ300は、確信度が閾値を超えない場合は、ユーザのプライバシーに関する情報を出力せず、確信度が閾値を超えた場合に出力する。確信度の閾値は複数設定されていてもよく、確信度が向上するにつれてサーバ300が出力可能な情報の範囲が広がってもよい。このような制御により、確信度に応じた段階的な出力が可能となり、ユーザのプライバシーが適切に守られる。なお、家族間でしか端末装置100が使用されない等の状況下では、確信度の閾値は緩和されてもよい。本特徴については、図8を参照して後に具体的に説明する。
例えば、サーバ300は、情報の出力可否に係る確信度の閾値を示す情報を出力させてもよい。これにより、ユーザは、所望する情報が出力されない原因が、確信度が足りないためであることを知ることが可能となり、パスワードを用いてログインする等、確信度を向上させるための行動を行うことができる。
さらに、サーバ300は、確信度を向上させるための行動をユーザに促すための情報を出力させてもよい。換言すると、サーバ300は、第1の観測情報を増加させるための行動をユーザに促すための情報(例えば、行うべき行動を指示する情報)を出力させてもよい。この情報に従ってユーザが行動すれば、サーバ300は、ユーザ認識の確信度をより向上させることができる。また、サーバ300は、出力した情報が、確信度を向上させるための行動をユーザに促すための情報であることを示す情報を出力させてもよい。本特徴については、図13を参照して後に具体的に説明する。
例えば、サーバ300は、確信度に応じて情報の出力場所を制御してもよい。例えば、サーバ300は、確信度が高いユーザのための情報を、当該ユーザ付近、又はテーブルの中央等に出力させてもよい。一方で、サーバ300は、確信度が低いユーザのための情報は、デフォルトの表示位置、複数のユーザの中心等に出力させてもよい。
(5)時系列の学習
(a)DB400の情報の更新
サーバ300(例えば、記憶制御部330)は、認識結果に応じてDB400に記憶された第2の観測情報を更新する。これにより、DB400に記憶された情報が、最新のユーザの状況を反映したものとなるので、ユーザ認識の精度をより向上させることが可能となる。
例えば、サーバ300は、認識されたユーザに対応付けられた第2の観測情報に、ユーザの変化に係る第1の観測情報を追加する又は置き換えることで、更新を行う。以下、表1に示したDB400に記憶される第2の観測情報の一例を参照しながら、この点について説明する。
Figure 2016225938
上記表1に示すように、DB400は、「現在」の情報と「履歴」の情報とをカテゴリごとに記憶し得る。例えば、サーバ300は、観測された情報と、DB400に記憶された「現在」の情報とを照合することで認識処理を行う。ここで、観測された情報と、DB400に記憶された「現在」の情報とが一致しない場合、サーバ300は、「履歴」の情報と照合することで認識処理を行ってもよい。サーバ300は、変化が認識された場合には「現在」の情報を更新し、変化に対応する情報が「履歴」にも無い場合には「履歴」の情報を更新する。
例えば、ユーザの服が変化した場合、サーバ300は、「現在着ている服」の情報を変化後の服を示す情報に置き換える。また、ユーザが履歴には無い新しい服を着ていた場合、サーバ300は、「所有している服」に、新たな服を示す情報を追加する。このようにして、DB400に記憶された第2の観測情報は、最新のユーザの状況を反映したものに更新される。なお、服に関しては、ユーザが着替えている状況が観測された場合、サーバ300はより容易にDB400を更新することが可能である。着替える前の服に基づいてユーザを認識しておくことが可能なためである。
サーバ300は、端末装置100又は観測装置200により得られた情報以外にも、多様な情報に基づいてDB400に記憶された情報を更新してもよい。例えば、サーバ300は、第2の観測情報をユーザの購入履歴に基づいて更新してもよい。例えば、ユーザがWebで新たな服を購入した場合、サーバ300は、購入に関する情報をWebから取得して、表1に示した「所有している服」に、購入された新たな服を示す情報を追加する。これにより、サーバ300は、ユーザが新たな服を着た場合にも、履歴と照合してユーザを認識することができるので、誤認識する確率を低下させることができる。
(b)DB400の情報の修正
サーバ300は、DB400に記憶された情報を修正してもよい。例えば、サーバ300は、認識結果を示す情報をユーザに提供して、ユーザ指示に基づいて修正を行う。
詳しくは、サーバ300(出力制御部340)は、認識されたユーザについて、認識結果の履歴を示す情報を出力させる。例えば、サーバ300は、ユーザの一日の認識結果の履歴(例えば、ユーザが認識された場所、認識された行動、及び認識された服を示す情報の履歴)を示す情報を表示させる。これにより、ユーザは、自身の一日を振り返ることができる。そして、サーバ300(記憶制御部330)は、出力された認識結果の履歴を示す情報に対するユーザ操作に応じて、DB400に記憶された第2の観測情報を更新する。これにより、ユーザは、誤った認識結果を修正することが可能である。本特徴については、図14〜図17を参照して後に具体的に説明する。
以上、本実施形態に係る情報処理システム1の技術的特徴を説明した。続いて、図5〜図7を参照して、本実施形態に係る情報処理システム1において実行される処理の流れを説明する。
<2.3.処理の流れ>
(1)DB更新処理
図5は、本実施形態に係るサーバ300において実行されるDB400の更新処理の流れの一例を示すフローチャートである。
図5に示すように、まず、取得部310は、端末装置100又は観測装置200から観測情報を取得する(ステップS102)。次いで、認識部320は、ユーザ及びユーザに関する変化を認識する(ステップS104)。例えば、認識部320は、取得部310により取得されたユーザの撮像画像に基づいて、顔認識技術によりユーザを認識すると共に、服の変化を認識する。なお、ここでの処理は、図6を参照して後に詳しく説明する。
次に、記憶制御部330は、認識されたユーザがDB400に登録済みであるか否かを判定する(ステップS106)。登録済みでないと判定された場合(ステップS106/NO)、記憶制御部330は、認識されたユーザにユーザIDを付与してユーザ登録を行う(ステップS108)。
その後、記憶制御部330は、ユーザに関する変化の有無を判定する(ステップS110)。ユーザに関する変化があったと判定された場合(ステップS110/YES)、記憶制御部330は、DB400に記憶された情報を更新する(ステップS112)。未登録のユーザに関しては、記憶制御部330は、取得された観測情報を新たに付与したユーザIDに対応付けてDB400に記憶させる。
以上により、サーバ300は、DB更新処理を終了する。
(2)認識処理
図6は、本実施形態に係るサーバ300において実行される認識処理の流れの一例を示すフローチャートである。本フローに係る処理は、図5に示したステップS104に相当する。
図6に示すように、まず、認識部320は、端末装置100又は観測装置200により取得された第1の観測情報と、DB400に記憶された第2の観測情報の少なくとも一部とを照合することで、ユーザを認識する(ステップS202)。例えば、認識部320は、身体の一部のみが撮像画像(第1の観測情報)に含まれている等の場合、その身体の一部に関して、DB400に記憶された第2の観測情報と一致するか否かを照合する。なお、認識部320は、動き検出処理、及び背景差分検出処理等を用いて、ユーザの身体を背景から分離して識別してもよい。そして、認識部320は、第1の観測情報に係るユーザは、DB400に記憶された複数の人物のうち一致度合が最も高い第2の観測情報に対応付けられたユーザであると認識する。
次いで、認識部320は、ユーザ認識の確信度が閾値以上であるか否かを判定する(ステップS204)。
確信度が閾値以上であると判定された場合(ステップS204/YES)、認識部320は、認識したユーザは、登録済みのユーザであると判定する(ステップS206)。そして、認識部320は、ユーザに関する変化を抽出する(ステップS208)。例えば、認識部320は、第1の観測情報と第2の観測情報との差分を、ユーザに関する変化として抽出する。
一方で、確信度が閾値未満であると判定された場合(ステップS204/NO)、認識部320は、第1の観測情報の観測対象であるユーザは、未登録のユーザであると判定する。
以上により、サーバ300は、認識処理を終了する。
(3)情報提供処理
図7は、本実施形態に係るサーバ300において実行される情報提供処理の流れの一例を示すフローチャートである。
図7に示すように、まず、取得部310は、端末装置100又は観測装置200から観測情報を取得する(ステップS302)。次いで、認識部320は、ユーザ及びユーザに関する変化を認識する(ステップS304)。ここでの処理は、図6を参照して上記説明した通りである。そして、出力制御部340は、認識されたユーザへの情報を端末装置100により出力させる(ステップS306)。
以上により、サーバ300は、情報提供処理を終了する。
<2.4.具体例>
続いて、図8〜図17を参照して、具体例を説明する。
(1)服に基づくユーザ認識
まず、図1を参照して上記説明した、テーブルトップスクリーンにおける、服に基づくユーザ認識について説明する。
図1に示した端末装置100は、観測領域20を対象として上方から観測(例えば、画像撮影)するため、顔がカメラの画角に入らず、顔認識技術を用いたユーザ認識が困難である。
そのため、サーバ300は、観測領域20内に入った手の大きさ、形等でユーザを認識してもよい。また、サーバ300は、観測領域20内に入った服の袖部分に基づいてユーザを認識してもよい。例えば、サーバ300は、他の観測装置200により得られたユーザの全身画像に基づいて、顔認識技術により認識したユーザと対応付けて服の色及び模様といった服の特徴量を予め記憶しておく。そして、サーバ300は、観測領域20に入った服の袖部分の特徴量を、記憶した服の袖部分の特徴量と照合することで、ユーザを認識する。サーバ300は、これらの情報を組み合わせることで、ユーザ認識の確信度を向上させることが可能である。
このように、顔認識技術を用いたユーザ認識が困難な場合であっても、ユーザを認識してユーザに特化したコンテンツの提供が可能となる。例えば、情報処理システム1は、認識したユーザがよく見るコンテンツをテーブル10の中央に表示したり、ユーザの位置付近にスケジュールを表示したりしてもよい。
また、情報処理システム1は、確信度に応じて出力を制御してもよい。例えば、情報処理システム1は、手の大きさ及び服の両方によりユーザを認識した場合には、ユーザのプライバシーに関する情報を含むコンテンツを表示する。一方で、情報処理システム1は、いずれか一方によりユーザを認識した場合には、一般的なコンテンツを表示する。この点について、図8を参照して説明する。
図8は、本実施形態に係る情報処理システム1に係る具体例を説明するための説明図である。例えば、手の大きさのみに基づいてユーザ認識が行われ、確信度が低い場合には、情報処理システム1は、ユーザのプライバシーに関する情報を含まないニュースアプリケーションの画面51を表示する。その後、袖部分の服に基づくユーザ認識が行われ、確信度が高まった場合には、情報処理システム1は、ユーザのプライバシーに関する情報を含むスケジュールアプリケーションの画面52を表示する。
コンテンツの一例として、情報処理システム1は、服に基づく提案を行ってもよい。例えば、サーバ300は、認識したユーザのスケジュールを参照して、例えば長く外出する場合は午後の気温低下に合せて長袖のシャツに着替えるよう提案する情報を出力させてもよい。また、サーバ300は、例えば平日なのにスーツを着ていない場合にはユーザが会社を休んだと認識して、体温が高ければ近くの病院の情報を出力させ、平熱であればゲームコンテンツを出力させる。
また、情報処理システム1は、確信度を示す情報を表示してもよい。この点について、図9を参照して説明する。
図9は、本実施形態に係る情報処理システム1に係る具体例を説明するための説明図である。例えば、確信度が低い場合には、情報処理システム1は、符号53に示すように、ポインタの色を薄く表示する。一方で、確信度が高い場合には、情報処理システム1は、符号54に示すように、ポインタの色を濃く表示する。
(2)装飾品に基づくユーザ認識
続いて、図10を参照して、図1に示したテーブルトップスクリーンにおける、装飾品に基づくユーザ認識について説明する。
図10は、本実施形態に係る情報処理システム1に係る具体例を説明するための説明図である。図10に示した例では、ユーザは、情報コード(例えば、バーコード、二次元コード等)62が赤外線反射塗料で印刷された指輪61を装着している。情報コード62には、例えばユーザの識別情報等が格納される。端末装置100は、観測領域20内に入った情報コード62を赤外線カメラ等で観測する。これにより、サーバ300は、ユーザを容易に認識することが可能となる。
他にも、赤外線カメラを用いた観測に関しては、赤外線反射素材入りのマニキュア、又は赤外線反射パターンを印刷したシール等の利用が考えられる。
(3)生体情報に基づくユーザ認識
続いて、図11を参照して、図1に示したテーブルトップスクリーンにおける、生体情報に基づくユーザ認識について説明する。
図11は、本実施形態に係る情報処理システム1に係る具体例を説明するための説明図である。図11に示した椅子63の、座面64及び足裏65には圧力センサが設けられている。椅子63は、例えば、テーブル10の付近に配置され、ユーザが椅子63に座ると体重が観測される。サーバ300は、例えば洗面所に設けられたカメラ及び体重計から得られた観測情報に基づいてユーザと体重とを対応付けて予め記憶しておき、椅子63により観測された体重と照合することでユーザを認識する。これにより、サーバ300は、ユーザを認識することが可能となる。椅子63には、脈拍、体温、体臭、又は呼吸等の他の生体情報を検出するためのセンサが設けられていてもよく、サーバ300は、これらの情報を組み合わせることで、ユーザ認識の確信度を向上させることが可能である。
(4)音に基づくユーザ認識
続いて、図12を参照して、図1に示したテーブルトップスクリーンにおける、音に基づくユーザ認識について説明する。
図12は、本実施形態に係る情報処理システム1に係る具体例を説明するための説明図である。ドア66は、端末装置100が設けられた居間とキッチンとを繋ぐドアである。ドア67は、端末装置100が設けられた居間と玄関とを繋ぐドアである。サーバ300は、例えば父親であればドアの開閉音が大きく、母親であればドアの開閉音が小さい、といった開閉音の傾向を予め記憶しておき、ドア66又は67の開閉音と照合することでユーザを認識する。これにより、サーバ300は、ユーザを認識することが可能となる。サーバ300は、足音又は鼻歌等の他の音を組み合わせることで、ユーザ認識の確信度を向上させることが可能である。開閉音の代わりに、ドア開閉の強さが、ドアに搭載されたセンサにより観測され、ユーザ認識に用いられてもよい。他にも、サーバ300は、母親はドア66から出入りすることが多く、父親はドア67から出入りすることが多い、といった傾向を加味してユーザを認識してもよい。
(5)癖に基づくユーザ認識
続いて、図1に示したテーブルトップスクリーンにおける、癖に基づくユーザ認識について説明する。
例えば、サーバ300は、貧乏ゆすりの周波数等のユーザの癖を予め記憶しておき、観測された貧乏ゆすりの周波数に基づいてユーザを認識してもよい。これにより、サーバ300は、ユーザを認識することが可能となる。また、サーバ300は、服等の他の観測情報と組み合わせることで、ユーザ認識の確信度を向上させることが可能である。なお、パスワードを入力してログインする等のログイン操作が予めされている状態で(即ち、ユーザが確実に認識された状態で)、ユーザの癖が記憶されることが望ましい。誤認識を防ぐためである。
同様に、その他のユーザの行動に関する特徴、及びユーザの生活に関する特徴に基づく認識処理が行われてもよい。例えば、一般的に家族内におけるテーブルの着席位置は決まっているので、サーバ300は、テーブルの着席位置を予め記憶しておき、着席位置に基づいてユーザを認識してもよい。
サーバ300は、確信度を向上させるための行動をユーザに促すための情報を出力させてもよい。この点について、図13を参照して説明する。
図13は、本実施形態に係る情報処理システム1に係る具体例を説明するための説明図である。図13では、ユーザの癖として、「待ち時間をわざと作ってイライラさせた際の反応」を誘導するための情報の表示例を示している。具体的には、端末装置100は、アプリケーション画面71へのスクロール操作に対し、スクロールを遅くしている。さらに、端末装置100は、スクロール処理中であることを示すアイコン72を表示している。スクロールが遅いことにより待ち時間が発生するので、「待ち時間をわざと作ってイライラさせた際の反応」が誘導される。さらに、端末装置100は、アプリケーション画面71のスクロール処理の遅れが、確信度を向上させるための行動をユーザに促すために発生していることを示す情報73を表示している。これにより、ユーザは、単にスクロールが遅いのか、確信度を向上させるためにスクロールが遅くなっているのかを区別することが可能である。
(6)ユーザの一日の行動の認識結果の履歴の提供
続いて、図14〜図17を参照して、図1に示したテーブルトップスクリーンにおいて提供される、ユーザの一日の行動の認識結果の履歴を示す情報について説明する。
(a)ユーザの行動の一例
例えば、ユーザは、下記の表2に示す行動を行ったものとする。
Figure 2016225938
(b)UI例
図14は、本実施形態に係る情報処理システム1に係る具体例を説明するための説明図である。例えば、端末装置100は、行動確認ボタン81を表示しており、ユーザが行動確認ボタン81をタッチすると、ユーザの一日の行動に関する認識結果の履歴を示す認識履歴情報82を表示する。認識履歴情報82には、上記表2に示したユーザの一日の行動に関する認識結果が含まれている。ここで、表2と認識履歴情報82とを比較すると、10:00AMに赤色の服に着替えたことが誤認識されている。これは、例えば他のユーザの認識結果である。このような誤認識が有る場合、ユーザは、誤認識された項目をタッチすることで削除ウィンドウ83を表示させ、誤認識された項目を削除することができ、これに基づいてDB400が更新される。
(c)処理の流れ
図15及び図16は、本実施形態に係るサーバ300において実行される一日の処理の流れの一例を示すフローチャートである。
図15に示すように、まず、サーバ300は、洗面所のカメラ(観測装置200)により撮影された顔画像に基づいてユーザを認識して(ステップS402)、服についてDB400を更新する(ステップS404)。
次いで、サーバ300は、食卓のカメラ(端末装置100)により撮影された服(例えば、袖部分)の画像に基づいてユーザを認識して(ステップS406)、認識したユーザが好むニュースを表示させる(ステップS408)。
次に、サーバ300は、ユーザの自室の監視カメラ(観測装置200)により撮影された顔及び服の画像に基づいてユーザを認識して(ステップS410)、さらにユーザがスーツに着替えたことを認識して服装についてDB400を更新する(ステップS412)。
次いで、サーバ300は、玄関のカメラ(観測装置200)により撮影された顔及び服の画像に基づいてユーザを認識して(ステップS414)、さらにユーザが外出したことを認識して行動についてDB400を更新する(ステップS416)。
次に、図16に示すように、サーバ300は、GNSSによりユーザが会社に到着したことを認識して、現在地についてDBを更新する(ステップS418)。
次いで、サーバ300は、更衣室の監視カメラにより撮影された顔及び服の画像に基づいてユーザを認識して(ステップS420)、さらにユーザが赤い服に着替えたことを認識して服装についてDB400を更新する(ステップS422)。上記説明したように、ユーザは赤い服には着替えておらず、当該認識は誤認識である。
次に、サーバ300は、ユーザが昼食の写真をSNSにアップロードしたことを認識して行動についてDB400を更新する(ステップS424)。
次いで、サーバ300は、ユーザがスマートフォンでニュースを閲覧したことを認識して閲覧履歴についてDB400を更新する(ステップS426)。
次に、サーバ300は、玄関のカメラにより撮影された顔及び服の画像に基づいてユーザを認識して(ステップS428)、さらにユーザが帰宅したことを認識して行動についてDB400を更新する(ステップS430)。以上により、処理は終了する。
図17は、本実施形態に係るサーバ300において実行される認識結果の履歴の修正処理の流れの一例を示すフローチャートである。
図17に示すように、まず、サーバ300は、認識履歴情報を表示させる(ステップS502)。次いで、サーバ300は、ユーザ操作に応じて誤った情報をDB400から削除して(ステップS504)、さらにユーザ操作に応じて正しい情報でDB400を更新する(ステップS506)。例えば、図14に示した例に関しては、サーバ300は、ユーザが赤い服には着替えたことを示す情報をDB400から削除する。以上により、処理は終了する。
<<3.ハードウェア構成例>>
最後に、図18を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図18は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図18に示す情報処理装置900は、例えば、図2に示した端末装置100、観測装置200、サーバ300又はDB400を実現し得る。本実施形態に係る端末装置100、観測装置200、サーバ300又はDB400による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図18に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図2に示す取得部310、認識部320、記憶制御部330及び出力制御部340を形成し得る。また、CPU901は、例えば図2に示す観測部110及び観測部210の一部を形成していてもよく、例えば生のセンサデータを対象とした認識処理を行うことで観測情報を取得する。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
他にも、入力装置906は、ユーザに関する情報をセンシングするセンサにより形成され得る。例えば、入力装置906は、画像センサ(例えば、カメラ)、深度センサ(例えば、ステレオカメラ)、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ、力センサ等の各種のセンサを含み得る。また、入力装置906は、情報処理装置900の姿勢、移動速度等、情報処理装置900自身の状態に関する情報や、情報処理装置900の周辺の明るさや騒音等、情報処理装置900の周辺環境に関する情報を取得してもよい。また、入力装置906は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して装置の緯度、経度及び高度を測定するGNSSモジュールを含んでもよい。
入力装置906は、例えば、図2に示す観測部110及び観測部210の一部を形成していてもよく、例えば生のセンサデータの入力を受け付ける。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。上記表示装置及び上記音声出力装置は、例えば、図2に示す出力部120を形成し得る。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図2に示すDB400を形成し得る。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。本実施形態では、通信装置913は、端末装置100、観測装置200、サーバ300及びDB400の各々に含まれ、相互にデータを送受信し得る。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<<4.まとめ>>
以上、図1〜図18を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、サーバ300は、ユーザに関する観測結果を示す第1の観測情報を取得して、取得した第1の観測情報を記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化を認識し、認識結果に応じた出力を制御する。サーバ300は、ユーザを認識するだけでなく、ユーザに関する変化を認識することが可能であるので、ユーザ認識を伴うサービスをより柔軟に提供することが可能である。
例えば、サーバ300は、ユーザ認識の確信度に応じたサービスを提供する。これにより、例えばユーザ認識が確実でない場合であっても、少なくとも何らかの情報をユーザに提供することができる、といった柔軟なサービスの提供が実現される。
また、サーバ300は、認識結果に応じてDB400に記憶された第2の観測情報を更新する。これにより、DB400に記憶された情報が、最新のユーザの状況を反映したものとなるので、ユーザ及びユーザに関する変化の認識の精度をより向上させることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、端末装置100がテーブルトップスクリーン型の装置として実現される例を示したが、本技術はかかる例に限定されない。例えば、端末装置100は、スマートフォン、タブレット端末、PC、デジタルサイネージ等の環境設置型の端末、カーナビゲーションシステム等の多様な装置として実現されてもよい。
また、上記実施形態では、情報処理システム1が、端末装置100、観測装置200、サーバ300、及びDB400に分離して形成される例を示したが、本技術は係る例に限定されない。例えば、端末装置100及び観測装置200の各々に、サーバ300及びDB400が含まれていてもよい。その場合、端末装置100及び観測装置200は、単体でユーザを認識してサービスを提供することが可能である。端末装置100及び観測装置200の各々は、相互に観測情報を共有することが望ましい。
また、本明細書においてフローチャート及びシーケンス図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザに関する観測結果を示す第1の観測情報を取得する取得部と、
前記取得部により取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化を認識する認識部と、
前記認識部による認識結果に応じて出力を制御する出力制御部と、
を備える情報処理装置。
(2)
前記出力制御部は、ユーザ認識の確からしさを示す確信度に応じて出力を制御する、前記(1)に記載の情報処理装置。
(3)
前記出力制御部は、前記確信度を示す情報を出力させる、前記(2)に記載の情報処理装置。
(4)
前記出力制御部は、認識されたユーザのプライバシーに関する情報の出力可否を前記確信度に応じて制御する、前記(2)又は(3)に記載の情報処理装置。
(5)
前記出力制御部は、前記出力可否に係る前記確信度の閾値を示す情報を出力させる、前記(4)に記載の情報処理装置。
(6)
前記出力制御部は、前記確信度を向上させるための行動をユーザに促すための情報を出力させる、前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記出力制御部は、前記確信度に応じて情報の出力場所を制御する、前記(2)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記情報処理装置は、前記認識結果に応じて前記記憶部に記憶された前記第2の観測情報を更新する記憶制御部をさらに備える、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記記憶制御部は、認識されたユーザに対応付けられた前記第2の観測情報に、前記変化に係る前記第1の観測情報を追加する又は置き換える、前記(8)に記載の情報処理装置。
(10)
前記出力制御部は、認識されたユーザについて、前記認識結果の履歴を示す情報を出力させる、前記(8)又は(9)に記載の情報処理装置。
(11)
前記記憶制御部は、前記認識結果の履歴を示す情報に対するユーザ操作に応じて前記記憶部に記憶された前記第2の観測情報を更新する、前記(10)に記載の情報処理装置。
(12)
前記記憶制御部は、前記第2の観測情報をユーザの購入履歴に基づいて更新する、前記(8)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記第1の観測情報及び前記第2の観測情報は、ユーザの身体に関する特徴を示す情報、ユーザの行動に関する特徴を示す情報、ユーザの生活に関する特徴を示す情報、又はユーザが装着若しくは携行する物に関する特徴を示す情報の少なくともいずれかを含む、前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
ユーザに関する観測結果を示す第1の観測情報を取得することと、
取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化をプロセッサにより認識することと、
認識結果に応じて出力を制御することと、
を含む情報処理方法。
(15)
コンピュータを、
ユーザに関する観測結果を示す第1の観測情報を取得する取得部と、
前記取得部により取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化を認識する認識部と、
前記認識部による認識結果に応じて出力を制御する出力制御部と、
として機能させるためのプログラム。
1 情報処理システム
10 テーブル
20 観測領域
30 表示領域
100 端末装置
110 観測部
120 出力部
200 観測装置
210 観測部
300 サーバ
310 取得部
320 認識部
330 記憶制御部
340 出力制御部
400 DB

Claims (15)

  1. ユーザに関する観測結果を示す第1の観測情報を取得する取得部と、
    前記取得部により取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化を認識する認識部と、
    前記認識部による認識結果に応じて出力を制御する出力制御部と、
    を備える情報処理装置。
  2. 前記出力制御部は、ユーザ認識の確からしさを示す確信度に応じて出力を制御する、請求項1に記載の情報処理装置。
  3. 前記出力制御部は、前記確信度を示す情報を出力させる、請求項2に記載の情報処理装置。
  4. 前記出力制御部は、認識されたユーザのプライバシーに関する情報の出力可否を前記確信度に応じて制御する、請求項2に記載の情報処理装置。
  5. 前記出力制御部は、前記出力可否に係る前記確信度の閾値を示す情報を出力させる、請求項4に記載の情報処理装置。
  6. 前記出力制御部は、前記確信度を向上させるための行動をユーザに促すための情報を出力させる、請求項2に記載の情報処理装置。
  7. 前記出力制御部は、前記確信度に応じて情報の出力場所を制御する、請求項2に記載の情報処理装置。
  8. 前記情報処理装置は、前記認識結果に応じて前記記憶部に記憶された前記第2の観測情報を更新する記憶制御部をさらに備える、請求項1に記載の情報処理装置。
  9. 前記記憶制御部は、認識されたユーザに対応付けられた前記第2の観測情報に、前記変化に係る前記第1の観測情報を追加する又は置き換える、請求項8に記載の情報処理装置。
  10. 前記出力制御部は、認識されたユーザについて、前記認識結果の履歴を示す情報を出力させる、請求項8に記載の情報処理装置。
  11. 前記記憶制御部は、前記認識結果の履歴を示す情報に対するユーザ操作に応じて前記記憶部に記憶された前記第2の観測情報を更新する、請求項10に記載の情報処理装置。
  12. 前記記憶制御部は、前記第2の観測情報をユーザの購入履歴に基づいて更新する、請求項8に記載の情報処理装置。
  13. 前記第1の観測情報及び前記第2の観測情報は、ユーザの身体に関する特徴を示す情報、ユーザの行動に関する特徴を示す情報、ユーザの生活に関する特徴を示す情報、又はユーザが装着若しくは携行する物に関する特徴を示す情報の少なくともいずれかを含む、請求項1に記載の情報処理装置。
  14. ユーザに関する観測結果を示す第1の観測情報を取得することと、
    取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化をプロセッサにより認識することと、
    認識結果に応じて出力を制御することと、
    を含む情報処理方法。
  15. コンピュータを、
    ユーザに関する観測結果を示す第1の観測情報を取得する取得部と、
    前記取得部により取得された前記第1の観測情報を、記憶部に記憶された第2の観測情報の少なくとも一部と照合することでユーザ及びユーザに関する変化を認識する認識部と、
    前記認識部による認識結果に応じて出力を制御する出力制御部と、
    として機能させるためのプログラム。
JP2015113048A 2015-06-03 2015-06-03 情報処理装置、情報処理方法及びプログラム Active JP6572629B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015113048A JP6572629B2 (ja) 2015-06-03 2015-06-03 情報処理装置、情報処理方法及びプログラム
PCT/JP2016/001976 WO2016194282A1 (en) 2015-06-03 2016-04-11 Data processing device, method and program for recognising a user based on observations and executing a function dependent thereon
CN201680030482.2A CN107683499B (zh) 2015-06-03 2016-04-11 信息处理装置、信息处理方法和非暂态计算机可读介质
US15/552,389 US10607427B2 (en) 2015-06-03 2016-04-11 Information processing device, information processing method, and program for recognizing a user
EP16721514.4A EP3304449A1 (en) 2015-06-03 2016-04-11 Data processing device, method and program for recognising a user based on observations and executing a function dependent thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015113048A JP6572629B2 (ja) 2015-06-03 2015-06-03 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2016225938A true JP2016225938A (ja) 2016-12-28
JP2016225938A5 JP2016225938A5 (ja) 2018-06-14
JP6572629B2 JP6572629B2 (ja) 2019-09-11

Family

ID=55953343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015113048A Active JP6572629B2 (ja) 2015-06-03 2015-06-03 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10607427B2 (ja)
EP (1) EP3304449A1 (ja)
JP (1) JP6572629B2 (ja)
CN (1) CN107683499B (ja)
WO (1) WO2016194282A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021036466A (ja) * 2020-11-18 2021-03-04 綜合警備保障株式会社 警備システム、管理装置及び警備方法
JP7056194B2 (ja) 2018-02-06 2022-04-19 日本電気株式会社 情報処理装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111106865B (zh) 2018-10-25 2021-12-14 华为技术有限公司 基于卫星网络的通信方法、装置及***
CN112634505A (zh) * 2020-12-30 2021-04-09 重庆赤木科技有限公司 一种特殊人群安全监控***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107960A (ja) * 2003-09-30 2005-04-21 Ricoh Co Ltd ワードローブ提供方法及びワードローブ提供プログラム
JP2010015418A (ja) * 2008-07-04 2010-01-21 Panasonic Corp サービス制御システム、サービス制御方法、およびそのプログラム
JP2011517791A (ja) * 2007-10-05 2011-06-16 イーストマン コダック カンパニー イベントマーカーとしての装飾
JP2013074461A (ja) * 2011-09-28 2013-04-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013097760A (ja) * 2011-11-07 2013-05-20 Toshiba Corp 認証システム、端末装置、認証プログラム、認証方法
JP2013186546A (ja) * 2012-03-06 2013-09-19 Tokyo Denki Univ 人物検索システム
JP2013205969A (ja) * 2012-03-27 2013-10-07 Nikon Corp 電子機器

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2276017A1 (en) 1998-06-25 1999-12-25 Mr. Payroll Corporation Pinless cash advances
JP4055539B2 (ja) 2002-10-04 2008-03-05 ソニー株式会社 双方向コミュニケーションシステム
EP1521161A3 (en) * 2003-09-25 2006-03-15 Matsushita Electric Industrial Co., Ltd. An apparatus and a method for preventing unauthorized use and a device with a function of preventing unauthorized use
US7856558B2 (en) * 2004-10-21 2010-12-21 Honeywell International Inc. Biometric verification and duress detection system and method
EP2507759A2 (en) 2009-12-01 2012-10-10 France Telecom Behavior and attention targeted notification system and method of operation thereof
US8475367B1 (en) * 2011-01-09 2013-07-02 Fitbit, Inc. Biometric monitoring device having a body weight sensor, and methods of operating same
JP5691745B2 (ja) * 2011-03-31 2015-04-01 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP2012256214A (ja) * 2011-06-09 2012-12-27 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US9083687B2 (en) * 2011-09-24 2015-07-14 Elwha Llc Multi-device behavioral fingerprinting
US8966613B2 (en) * 2011-09-30 2015-02-24 Microsoft Technology Licensing, Llc Multi-frame depth image information identification
US20130152002A1 (en) * 2011-12-11 2013-06-13 Memphis Technologies Inc. Data collection and analysis for adaptive user interfaces
US8806610B2 (en) * 2012-01-31 2014-08-12 Dell Products L.P. Multilevel passcode authentication
EP2836410B1 (en) * 2012-03-05 2019-04-24 Intel Corporation User identification and personalized vehicle settings management system
JP2013200793A (ja) * 2012-03-26 2013-10-03 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9721086B2 (en) * 2013-03-15 2017-08-01 Advanced Elemental Technologies, Inc. Methods and systems for secure and reliable identity-based computing
SG11201509208RA (en) * 2013-05-08 2015-12-30 Jpmorgan Chase Bank Na Systems and methods for high fidelity multi-modal out-of-band biometric authentication
US9391986B2 (en) * 2013-05-31 2016-07-12 Verizon Patent And Licensing Inc. Method and apparatus for providing multi-sensor multi-factor identity verification
US9286482B1 (en) * 2013-06-10 2016-03-15 Amazon Technologies, Inc. Privacy control based on user recognition
CN104077563B (zh) * 2014-05-30 2018-02-02 小米科技有限责任公司 人脸识别方法和装置
US9674184B2 (en) * 2014-08-13 2017-06-06 Qualcomm Incorporated Systems and methods to generate authorization data based on biometric data and non-biometric data
US20160089033A1 (en) * 2014-09-29 2016-03-31 Microsoft Corporation Determining timing and context for cardiovascular measurements
CN104408404B (zh) * 2014-10-31 2018-04-27 小米科技有限责任公司 人脸识别方法及装置
US20170050201A1 (en) * 2015-08-17 2017-02-23 Sridhar Deivasigamani Smart shower head

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107960A (ja) * 2003-09-30 2005-04-21 Ricoh Co Ltd ワードローブ提供方法及びワードローブ提供プログラム
JP2011517791A (ja) * 2007-10-05 2011-06-16 イーストマン コダック カンパニー イベントマーカーとしての装飾
JP2010015418A (ja) * 2008-07-04 2010-01-21 Panasonic Corp サービス制御システム、サービス制御方法、およびそのプログラム
JP2013074461A (ja) * 2011-09-28 2013-04-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013097760A (ja) * 2011-11-07 2013-05-20 Toshiba Corp 認証システム、端末装置、認証プログラム、認証方法
JP2013186546A (ja) * 2012-03-06 2013-09-19 Tokyo Denki Univ 人物検索システム
JP2013205969A (ja) * 2012-03-27 2013-10-07 Nikon Corp 電子機器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7056194B2 (ja) 2018-02-06 2022-04-19 日本電気株式会社 情報処理装置
JP2021036466A (ja) * 2020-11-18 2021-03-04 綜合警備保障株式会社 警備システム、管理装置及び警備方法

Also Published As

Publication number Publication date
EP3304449A1 (en) 2018-04-11
WO2016194282A1 (en) 2016-12-08
CN107683499A (zh) 2018-02-09
JP6572629B2 (ja) 2019-09-11
US10607427B2 (en) 2020-03-31
CN107683499B (zh) 2021-07-20
US20180040178A1 (en) 2018-02-08

Similar Documents

Publication Publication Date Title
US11763580B2 (en) Information processing apparatus, information processing method, and program
KR102558437B1 (ko) 질의 응답 처리 방법 및 이를 지원하는 전자 장치
CA2903795C (en) Contextual device locking/unlocking
US20190138147A1 (en) Systems and methods for identifying users of devices and customizing devices to users
JP5862143B2 (ja) ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
JP6572629B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102409903B1 (ko) 사용자 정보를 제공하는 전자 장치 및 방법
KR20170029398A (ko) 어플리케이션 제공 방법 및 이를 위한 전자 기기
CN106164808A (zh) 用于戒指计算设备的设备和方法
WO2015094222A1 (en) User interface based on wearable device interaction
CN111797249A (zh) 一种内容推送方法、装置与设备
CN106462832A (zh) 响应于共同存在确定的调用动作
CN109522706B (zh) 一种信息提示方法及终端设备
CN108763475A (zh) 一种录制方法、录制装置及终端设备
CN109327606A (zh) 一种消息提醒方法和终端
JP2018186326A (ja) ロボット装置及びプログラム
CN110113486A (zh) 一种应用图标的移动方法及终端
CN114898395A (zh) 交互方法、装置、设备、存储介质及程序产品
CN108650398A (zh) 一种任务执行方法及移动终端
KR20160015704A (ko) 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템 및 인식방법
CN110427155B (zh) 一种看护方法及装置
KR102034839B1 (ko) 영상 통화 서비스를 제공하는 단말 및 서버
Montanini Smartphone Applications for AAL and Well-being in the Home Environment
KR20210116838A (ko) 제스처에 기초하여, 음성 입력을 처리하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190218

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190729

R151 Written notification of patent or utility model registration

Ref document number: 6572629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151