JP6095283B2 - 情報処理装置、およびその制御方法 - Google Patents

情報処理装置、およびその制御方法 Download PDF

Info

Publication number
JP6095283B2
JP6095283B2 JP2012129888A JP2012129888A JP6095283B2 JP 6095283 B2 JP6095283 B2 JP 6095283B2 JP 2012129888 A JP2012129888 A JP 2012129888A JP 2012129888 A JP2012129888 A JP 2012129888A JP 6095283 B2 JP6095283 B2 JP 6095283B2
Authority
JP
Japan
Prior art keywords
background
area
image
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012129888A
Other languages
English (en)
Other versions
JP2013254377A5 (ja
JP2013254377A (ja
Inventor
久保山 英生
英生 久保山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012129888A priority Critical patent/JP6095283B2/ja
Priority to US13/899,322 priority patent/US9129182B2/en
Priority to EP13170858.8A priority patent/EP2672427B1/en
Priority to CN201310225068.5A priority patent/CN103488283B/zh
Publication of JP2013254377A publication Critical patent/JP2013254377A/ja
Publication of JP2013254377A5 publication Critical patent/JP2013254377A5/ja
Priority to US14/822,655 priority patent/US9330304B2/en
Application granted granted Critical
Publication of JP6095283B2 publication Critical patent/JP6095283B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、ユーザの動作を認識する情報処理装置に関する。
可視光カメラや赤外線カメラによって撮像された画像からユーザの手が写っている領域(手領域)を検出し、その動きや位置に応じて、ジェスチャによる操作や、表示されたユーザインタフェースに対する操作を認識する機器が広まりつつある。
ジェスチャ操作を行う手を検出する技術として、例えば特許文献1の方法が知られている。特許文献1では、背景上に存在するユーザの手を撮像して得られた画像と、上記背景だけを撮像して得られた背景画像との差分を抽出する背景差分法が開示されている。この方法によって、手領域を検出し、検出した手領域の形状もしくは動きから操作を判定している。
また、物体に隠れた背景画像を管理する技術として、例えば特許文献2が知られている。特許文献2では、撮像範囲を部分領域に分割し、部分領域毎に動体(人物)を含む動体領域と、動体を含まない背景領域を区別し、背景領域を合成することで撮像範囲全体の背景画像を最新の背景画像に更新している。
特開2009−104297 特開2010−92224
ユーザの手などの操作部を精度よく検知しようとした場合、背景画像に含まれる物体は静止していることが重要である。しかしながら、例えば、操作部が操作部以外の物体と一緒に背景上を移動した場合、操作部を精度よく検知することができない。
本発明は上記の問題点に鑑みてなされたものであり、ユーザの手などの操作部を精度よく認識することを主な目的とする。
以上の目的を達するために、本発明の情報処理装置は、 操作体による操作を認識する情報処理装置であって、所定の空間を撮像範囲とする画像を取得する取得手段と、前記空間の背景を表す背景画像と、前記取得手段によって取得される画像との比較に基づいて、前記背景上に存在する移動体を検出する検出手段と、前記検出手段によって検出された移動体に前記操作体以外の物体が含まれる場合、前記空間の背景を分割して得られる複数の部分領域のうち、前記移動体が存在する部分領域であって、かつ、前記背景上に前記操作体が存在しないとみなされた部分領域を背景確定領域として設定し、前記空間の背景を分割して得られる複数の部分領域のうち、前記移動体が存在する部分領域を背景未確定領域として設定する設定手段と、前記取得手段によって取得される画像のうち、前記設定された背景確定領域を撮像した部分によって、前記背景画像を部分的に更新する更新手段と、前記設定された背景確定領域に前記操作体による操作が有効な第1のオブジェクトを表示させ、前記設定された背景未確定領域に前記操作体による操作が無効な第2のオブジェクトを、前記第1のオブジェクトの表示状態と異ならせて表示させる表示制御手段と、前記検出手段が、前記更新手段によって更新された前記背景画像と、前記取得手段によって新たに取得される画像との比較に基づいて検出した前記移動体の少なくとも一部から前記操作体を特定し、前記背景確定領域に表示される第1のオブジェクトに対する操作体による操作を認識する認識手段と、を備えることを特徴とする。
本発明によれば、操作体による操作を認識するために所定の空間に存在する移動体を背景差分法を利用して検出する場合、所定の空間内に静止物体が追加される度に移動体を空間から排除して背景画像を取得するという手間を低減することができる
情報処理装置の外観とハードウェア構成の一例を示す図 第情報処理装置の機能構成の一例を示す図 ユーザの動作による操作を認識する処理の流れの一例を示すフローチャート 情報処理装置の操作例を示す図 情報処理装置が実行する処理の流れの一例を示すフローチャート 情報処理装置の操作例を示す図 情報処理装置が実行する処理の流れの一例を示すフローチャート 情報処理装置が実行する分割処理の一例を示す図 背景差分法の概要を示す図
以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。ただし、この実施の形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。
<第1の実施形態>
本実施形態では、背景差分法によってユーザの手領域を検出するのに用いる背景画像を更新する際に、画像を複数の領域に分割した部分領域ごとに背景を更新し、背景画像が更新された領域においてのみユーザの手の動作を認識する情報処理装置の例を説明する。
図1(a)は、本実施形態に係る情報処理装置の外観の一例を示す図である。本実施形態における情報処理装置の外観の一例を示す図である。本実施形態では、ボタンやアイコンなどユーザがタッチすることで操作を入力するユーザインタフェース用の表示オブジェクト(以下、オブジェクトと記載する。)などを含む投影画像を、操作面に対し上部に設置されたプロジェクタから投影することによって表示するものとする。また、カメラ105も同様に上部に設置され、俯瞰撮影された映像に基づき、ユーザの動作を認識することや、背景の操作面上に置かれた物体を撮像して画像データを得ることができるとする。また、タッチセンサ107によって、ユーザの手などの操作部と操作面との間の距離を検知し、操作面がタッチされたか否かを判定可能とする。
ここで、図9は、背景差分法の概要を示す図である。従来、背景上で移動するユーザの手を検出する方法には、図9(a)のような操作台を撮像した背景画像と、図9(b)のように操作台の上に移動体(ユーザの手)がある入力画像の差分を抽出することで、図9(c)のように移動体を検出する背景差分法がある。ここで、ユーザが情報処理装置のカメラを用いて紙に印刷された文書を読み取る操作を行うため、背景の操作面上に物体(紙文書)を載置したとする。これに伴い、入力画像は図9(d)に示されるように変化する。背景画像を図9(a)のまま更新せずに背景差分法を用い、背景画像と入力画像の差分を検出すると、図9(e)のように、背景上で移動するユーザの手と物体を含む移動体が検出される。従って、背景差分法により、移動体を追跡することができても、ユーザの手の動きによる操作を認識することは困難となる。ここで移動体とは、検出時に移動中であるか否かに関わらず、背景画像と入力画像の差分として抽出された領域、及びその抽出された領域に変化を与えている物体あるいは物体群であるものとする。移動体として、操作部であるユーザの手のみを検出するためには、図9(f)に示すように、ユーザの手が写っておらず、操作台にドキュメントが載置された状態の画像を取得し、背景画像として用いる必要がある。更新された背景画像図9(f)と、入力画像である図9(d)の差分を抽出すると、図9(g)のように、移動体であるユーザの手のみを検出することが可能になる。ただし、図9(f)の背景画像を撮像するためには、ユーザがカメラの撮像範囲から一旦手を取り除かなければならない。次に、図9(h)は、入力画像および背景画像を16分割し、分割された部分領域毎に背景差分法を行う様子を示す。ここでは、部分領域毎に移動体を検出し、移動体が含まれない領域のみ、背景画像を更新するものとする。従って、図9(h)では、ユーザの手が存在する2つの領域(点線に囲まれた領域)のみ、背景画像の更新ができない。従って、点線に囲まれた領域においては、ユーザの手を検出することができない。背景画像として図9(a)が採用されるため、入力画像である入力画像である図9(d)との差分を抽出すると、図9(i)のように、物体の一部を含む等の問題が生じ、ユーザの手が正確に検出されない可能性が高い。ユーザの手を正確に検出さきない場合、動作を誤認識する原因となりうる。これに対し、本実施形態では、画像を複数の領域に分割し、その分割領域ごとに背景を更新し、背景画像が更新された領域においてのみ背景差分法によって検出されたユーザの動作による操作を認識する。
図1(b)は、本実施形態における情報処理装置のハードウェア構成図である。同図において、CPU(中央処理装置)101は、情報処理装置の制御プログラムを実行して各種処理のための演算や論理判断などを行い、システムバス108に接続された各構成要素を制御する。ROM102は、プログラムメモリであって、後述する各種処理手順を含むCPUによる制御のためのプログラムを格納する。RAM103は、CPU101のワークエリア、エラー処理時のデータの退避領域、上記制御プログラムのロード領域などを提供するために用いられる。記憶装置104は本実施形態に係るデータやプログラムを記憶しておくためのハードディスクや接続された外部記憶装置などである。カメラ105は、本実施形態では操作エリアを上から撮像するように設置され、入力画像を撮像する撮像部である。表示装置106は、オブジェクトや画像などの電子データを表示するためのディスプレイ、プロジェクタ等である。本実施形態では、プロジェクタが操作台の上面に投影画像を投影することによって表示させるものとする。タッチセンサ107は、例えば赤外線センサで、ユーザが操作のために用いる操作部(例えば、ユーザの手)と、操作面との距離に基づき、ユーザが操作面をタッチしたことを検知する。なお、本実施形態の情報処理装置は、カメラ105及び表示装置106が内蔵されたものとするが、外部に接続されたカメラ105及ぶ表示装置106を制御する形態の情報処理装置であっても構わない。
図2(a)は、本実施形態における情報処理装置の機能構成を表す図である。同図において、取得部201は、CPU、ROM、RAM(以下、CPU等と記載する。)によって構成され、カメラ105によって撮像された入力画像を取得する。分割部202は、CPU等によって構成され、カメラ105の撮像範囲を複数の部分領域に分割する。カメラ105によって撮像された入力画像及び背景画像も、同じように分割され、部分領域毎に処理を行うことができる。検出部203は、CPU等によって構成され、背景差分法を用いて、入力画像から背景上で移動する移動体が写る領域を検出する。さらに、検出された移動体が操作部であるか、操作部以外の物体を含むかを判定する。更新部204は、CPU等によって構成され、検出部203が移動体を検出するために使用する背景画像を制御し、必要に応じて、背景画像を入力画像によって更新する処理を実行する。設定部205は、CPU等によって構成され、部分領域毎に、その領域が背景確定領域であるか、背景未確定領域であるかを設定する。その際、部分領域毎に、表示装置106によって表示するユーザインタフェース用のオブジェクトの有効化、無効化を制御して表示部206に通知する。本実施形態では、設定部205は、背景上に検出部203が検出した移動体が存在する部分領域を背景未確定領域であると設定する。そして、背景未確定領域のうち、移動体が静止した領域、及び、移動体が無くなった領域を、前記背景上に操作部が存在しないとみなして、背景確定領域であると設定する。表示部206は、CPU等によって構成され、表示装置106が背景に含まれる操作面上に表示する内容を制御する。認識部207は、タッチセンサ107及びCPU等によって構成され、設定部205によって設定された背景確定領域において、検出部203が検出する移動体の動きや形状などに基づき、ユーザの操作を認識する。本実施形態において認識部207が認識する操作は、操作面上に表示されたオブジェクトに対するタッチ操作や、ユーザの手などの操作部を予め設定されたパターンに一致するように動かすジェスチャ操作である。検知部208は、CPU等によって構成され、入力画像を解析し、検出部203が検出した移動体が、撮像範囲に進入している位置を検知する。ただし、検知部208は、主に後述する変形例において機能するため、省略することもできる。
図3は、本実施形態における情報処理装置が、ユーザの動作による操作を認識する処理の流れを表すフローチャートである。同図を用いてそれぞれの処理を説明する。本実施形態では、情報処理装置が起動されたことに応じて、処理が開始されるものとする。
なお、本実施形態では、ユーザは操作部としてユーザの手を用いるものとする。また、本実施形態では、ユーザによって操作面上に物体が載置されることにより、背景画像に変化が生じる場合を例として説明し、表示画像106によってオブジェクトなどを表示することによる操作面上の変化は考慮しない。本実施形態では、操作部及び物体が存在しない状態で、表示装置106が操作面上に表示するオブジェクトを表示させたときにカメラ105が撮像した画像を、オブジェクトが表示されている状態での背景画像として用いるものとする。また、更新部204が、表示部206から表示装置106による表示内容を取得し、操作台の画像に表示内容を合成した背景画像を生成するなどの別な処理によって、表示装置106によって画像が表示されることによって操作面上に変化を考慮してもよい。ただし、表示装置106によって画像が表示されることによって操作面上に変化が生じる場合にも、本実施形態の処理を適応して、背景画像を更新することができる。この場合、更新部204の処理負荷を軽減するとともに、プロジェクタと操作面の物理的なずれなどによって、表示装置106による表示内容が移動体として検出されてしまうノイズが発生しないため、精度良く操作部を検出することができる。
まずステップS301で、取得部201が、カメラ105が撮像した入力画像を取得する。本実施形態では、入力画像は可視光カメラ撮像された自然画像であるものするが、例えば赤外光の反射を撮影する赤外カメラによって撮像された画像であっても構わない。なお、ステップS301で取得部201が取得する画像は、カメラ105が連続して撮像している映像のうちの1フレームに相当するものであり、以降の処理を実行する間にも周期的に更新されるものとする。取得部201が入力画像を更新する周期は、カメラ105が撮像する映像の予め定められたフレーム数毎でもよいし、一定時間毎であっても構わない。
ステップS302では、検出部203が、予め取得されている背景画像と、取得部201が取得した入力画像を用いた背景差分法により、入力画像において移動体が写っている領域を検出する(以下、「移動体を検出する」と記載する)。情報処理装置の起動直後の初期状態においては、予め取得されている背景画像は、操作部や物体が存在しない状態でカメラ105によって撮像された画像であるとものとし、2回目以降の処理では後述する処理によって更新された背景画像を用いるものとする。なお、ここでの「移動体」とは、背景画像と入力画像との差分として抽出される領域に相当し、入力画像取得時に移動中であるか否かに関わらず、背景上に生じた変化を言う。従って、例えば操作部に載置されていた物体が取り除かれたことにより、背景が変化した場合には、取り除かれた物体が写っていた領域が、背景画像と入力画像との差分、すなわち移動体として検出される。検出部203は、移動体の検出に用いる背景画像をRAM103に保持するものとする。
ステップS303では、検出部203が、検出された移動体に、操作部であるユーザの手以外の物体が含まれているか否かを判定する。本実施形態では、検出部203が、予め学習された人の手の形状データとのパターンマッチングを行い、その尤度に基づいて、移動体が人の手であるか否かを判定するものとする。人の手であると判定されなかった場合、ユーザの手が物体を保持している、あるいは操作面上に物体が載置された、あるいは載置されていた物体が取り除かれたなどの可能性がある。よって、操作部以外の物体が含まれると判定される。操作部以外の物体が含まれると判定された場合(ステップS303でYes)には、背景画像の更新が必要となるため、ステップS304に進む。一方、検出された移動体は操作部であると判定された場合(ステップS303でNo)には、背景画像の更新は必要でないため、ステップS313に進む。
ステップS304では、設定部205が、入力画像全体を、背景未確定領域であると設定する。背景未確定領域とは、背景差分法によって操作部を検出するための背景画像が確定されていない領域であり、本実施形態では、誤認識を避けるため、背景未確定領域ではユーザの操作を認識しない。なお、初期状態においては入力画像の全体が、ユーザの操作を認識する背景確定領域であると設定されているものとする。このとき、設定部205は、操作面上に表示されている全てのオブジェクトを無効化したことを表示部206に通知する。表示部206は、無効化されたオブジェクトを表示内容から削除したり、色を変えたりする制御を行いユーザに操作不可であることを提示する。
ステップS305では、分割部202が、カメラ105の撮像範囲を複数の部分領域に分割する。本実施形態では、分割部202は、撮像範囲全体を一定の大きさの矩形の部分領域に分割するものとする。そして、入力画像を分割した部分領域と背景画像を分割した部分領域を対応付けて保持する。
ステップS306では、更新部204が、分割された部分領域のうちの1つを選択する。
そして、ステップS207において、更新部204は、選択した部分領域において入力画像と背景画像が一致するか否かを判定する。入力画像と背景画像が一致する場合、当該領域の背景上には、移動体は存在しないため、背景画像を更新する必要がないことがわかる。選択した部分領域において、入力画像と背景画像が一致しないと判定された場合(ステップS307)には、背景を更新する必要がある可能性があるため、ステップS308に進む。選択した部分領域において、入力画像と背景画像が一致すると判定された場合(ステップS307でYes)には、背景を更新せずにステップS310に進む。
ステップS308では、更新部204が、選択した部分領域において、検出された移動体は静止したか否かを判定する。更新部204は、選択した部分領域における入力画像を取得部201から連続する所定の時間に対応する複数フレーム分取得して比較し、比較の結果変化がなければ、当該部分領域では移動体が静止したと判定する。本実施形態では、2秒間の間に画像内の変化がなければ、部分領域内が静止していると判定する。部分領域内が静止したと判定された場合(ステップS308でYes)は、処理はステップS309に進む。部分領域内が静止していないと判定された場合(ステップS308でNo)は、当該領域に操作部が存在する可能性が高いため、背景画像の更新を行わずステップS310に進む。
ステップS309では、更新部204が、選択した部分領域の背景画像を更新する。本実施形態では、選択した部分領域の背景画像として、この時点で最後に取得された入力画像の対応する部分領域の画像を設定し、検出部203が保持している背景画像の該当部分を更新する。
次に、ステップS310では、更新部204が、まだ選択していない部分領域が残っているか否かを判定する。本実施形態では、判定方法の一例として、更新部204ステップ306で選択した部分領域に対して選択フラグを立て、選択フラグを確認することによって選択していない部分領域の有無を判定するものとする。選択してない部分領域が残っている場合(ステップS310でYes)には、ステップS306に戻り、全ての部分領域を選択するまでステップS306からステップS310の処理を繰り返す。全ての部分領域を選択済みの場合(ステップS310でNo)には、ステップS311に進む。
ステップS311では、設定部205が、複数の部分領域のうち、背景に変化がなかった部分領域、及び背景画像を更新した部分領域の入力画像を、ユーザの操作を認識する背景確定領域であると設定する。本実施形態では、領域を区別する方法の一例として、更新部204がステップS308でNoの判定がなされた部分領域に対して移動体フラグを立て、設定部205は、移動体フラグが立ってない部分領域を背景確定領域であると設定するものとする。このとき、設定部205は、背景確定領域に含まれるオブジェクトを有効化したことを表示部206に通知する。オブジェクトが有効であるとは、ユーザがそのUIを操作すると操作が認識される状態にあることをいう。表示部206は、有効化されたオブジェクトを表示させたり、色を変えたりする制御を行いユーザに操作可能であることを提示する。
ステップS312では、検出部203が、背景確定領域において操作部を検出する。検出部203は、RAM103に保持していた背景画像と、取得部201が新たに取得した入力画像を用いた背景差分法により移動体を検出する。背景画像が更新されているため、ここで検出された移動体は、操作部であるユーザの手である可能性が高いため、本実施形態では、検出された移動体を操作部であるとして認識部207に通知する。なお、検出された移動体と人の手の形状データとのパターンマッチングを行うことによりユーザの手であることを改めて判定しても良い。
ステップS313では認識部207が、操作部による操作を認識する。本実施形態では、ユーザの手の動きや形状、操作面との距離を検知し、予め定められた条件に一致する場合に当該条件に対応する操作が入力されたと認識する。例えば、ユーザの手と特定のオブジェクトが表示された位置との距離が所定の距離よりも小さくなった場合には、そのオブジェクトがタッチされたとして、当該オブジェクトに対応する操作が入力されたと認識する。また、ユーザの手が予め定められたジェスチャパターンに一致する動きをした場合にはそのジェスチャパターンに対応する操作が入力されたと認識することができる。
ステップS314では、ステップS313において認識した操作によって、情報処理装置が終了されたか否かを判定する。2回目以降の処理では、1回目の処理において背景未確定領域であると設定された領域に含まれる部分領域において、移動体が無くなったとみなされた場合、当該領域は背景確定領域に設定される。例えば、検出部202が保持している更新されていない背景画像と入力画像とが一致すると判定された場合(ステップS307でYes)には、選択されている領域から移動体が無くなったことを示す。また、移動体が静止したと判定された場合(ステップS308でYes)にも、操作部が無くなった可能性が高い。従って、選択されている領域は背景確定領域に設定される。情報処理装置が終了されたら、ユーザの動作による操作を認識する処理を終了する。
本実施形態では、情報処理装置が終了されるまで、以上の処理を繰り返す。
ここで、図4を参照し、第1の実施形態に係る情報処理装置をユーザが操作する操作例を説明する。
図4(a)は、ユーザが操作面の上に、物体(紙文書)405を挿入した状態を示す。このとき、紙文書405の周辺には表示部206によって複数のオブジェクト404が表示されているものとする。なお、ここで説明する操作例では、操作が有効化されているオブジェクトを黒い四角、操作が無効化されているオブジェクトを白い四角で表現するものとする。 まず、取得部201はカメラ105が撮像範囲401を撮像した入力画像402を取得する(ステップS301)。そして、検出部203は、背景差分法により操作部(ユーザの手)406を移動体として検出する。移動体に、操作部以外が含まれている(ステップS303でYes)ため、背景画像の更新が必要となり、入力画像402の全体が背景未確定領域であると設定される(ステップS304)。従って、全てのオブジェクト404が無効化され、表示部206により白い四角で表示される。そして、分割部202は、撮像範囲401を、16分割して部分領域403を得る(ステップS305)。
次に図4(b)は、部分領域毎に、背景画像を制御する処理を実行した様子を示す。16分割された部分領域403のうち、領域406(点線で囲まれた領域)は、最初の背景画像からの変化がないため(ステップS307でYes)、背景画像を更新する処理が行われない。領域407は、背景上の移動体が静止しているため(ステップS308でYes)、背景画像が更新される(ステップS309)。そして、領域408(太線で囲まれた領域)の背景上では、ユーザの手が移動しており、静止していないため、背景画像が更新されない。従って、設定部205は、領域408が背景未確定領域、領域406及び領域407が背景確定領域であると設定する(ステップS311)。従って、領域408のオブジェクト404は引き続き無効のため、表示部206により白い四角で表示される。一方、それ以外のオブジェクトは有効化されるため、表示部206により黒い四角で表示される。
次に図4(c)は、ユーザが有効なオブジェクト409をタッチするために腕を動かした様子を示す。ユーザの動作による操作を認識する処理が繰り返されることによって、検出部203は、背景確定領域において操作部(ユーザの手)を検出することができるので、認識部207はオブジェクト409に対するタッチ操作を認識することができる。また、領域408のうち、ユーザの手が無くなった部分領域では、部分領域内が静止したと判定されるため(ステップS308でYes)、背景画像が更新される(ステップS309)。従って、認識不可両機410は縮小する。
以上説明したように、本実施形態に係る情報処理装置は画像を複数の領域に分割し、その分割領域ごとに背景を更新し、背景画像が更新された領域においてのみ背景差分法によって検出されたユーザの動作による操作を認識する。そのため、ユーザが操作に必要な物体を操作面上に載置したことにより、背景が変化したとしても、ユーザはカメラ105の撮像範囲から操作部を取り除くが必要ない。また、最新の背景画像が取得出来た領域でのみ、ユーザの動作を検出するので、誤認識を低減することができる。
なお、上述した本実施形態の説明では、ステップS304においていったん全体が背景未確定領域であると設定した後、分割された全ての部分領域について背景画像を制御する処理を行い、その結果に基づいて、背景確定領域である領域を設定した。ただし、初期状態を継続して全体を背景確定領域であると設定し、ステップS308において更新部204が部分領域の画像が静止していないと判定した時点で、その部分領域は背景未確定領域であると設定しても構わない。
また、本実施形態では、ステップS306において選択した部分領域が背景画像と一致した場合、すなわち画像に変化がない場合、背景画像の更新を行わない。これにより、背景画像を更新する処理の負荷を低減することができる。ただし、これに限らず、部分領域内が静止している全ての部分領域について、背景画像を更新しても構わない。
また、本実施形態では、まずステップS302において初期状態の背景画像を用いて移動体を検知し、検出した移動体に操作部以外の物体が含まれている場合に、背景画像を制御する処理を行うものとした。ただし、背景画像を制御する処理を行うか否かの判定は、他の方法によってもよい。例えば、取得される入力画像において、操作面上の所定位置の色の変化があるか否かを検出し、変化した場合には操作面上に物体が載置された可能性が高いと考え、背景画像を制御する処理を実行するようにすることもできる。物体を操作面上に載置して操作する機能のモードが選択されている場合には、背景に変化が生じたか否かに関わらず、常に撮像範囲を分割して背景画像を制御する処理を実行するようにしても良い。
(第1の実施形態の変形例)
第1の実施形態では、撮像範囲を分割した部分領域のうち、移動する物体が含まれる領域のみは、操作部が存在する可能性が高いために、背景画像を更新せず、背景未確定領域であると設定した。しかし、この場合、検出部203が行う背景差分法では、操作部の一部が検出され、一部が検出されないために、操作を誤認識してしまう場合があった。
図9を参照して詳細に説明する。上述したように、図9(h)では、撮像範囲を16分割した部分領域のうち、点線に囲まれた領域にはユーザの手が含まれているため、背景画像の更新が行われない。従って、第1の実施形態では、点線に囲まれた領域を背景未確定領域、それ以外の領域を背景確定領域として、背景確定領域においてのみ背景差分法によってユーザの手を検出する。ここでユーザが手を移動させ、入力画像が図9(j)のように変化したとする。背景画像との差分を抽出すると、図9(k)のように、ユーザの手の一部が検出されない。このように、ユーザの手を正確に検出できない場合、動作の認識が困難になるという問題が生じる。例えば、予め学習された人の手の形状データと検出されたユーザの手のパターンマッチングにより、移動体がユーザの手であることを検知したい場合、ユーザの手の一部が検出されないことにより、パターンマッチングができない可能性がある。それに対し、本実施形態では、操作部が含まれる可能性が高いために背景未確定領域であると設定された領域と、その領域に隣接する部分領域とを、背景未確定領域とする。
特に上述した問題は、操作部がユーザの手である場合には、図9(k)のように、ユーザが腕を伸ばした状態において、腕の途中が検出認識されず、手の先だけが検出されることによって生じる場合が多い。しかしながら、オブジェクトが表示されている場合、ユーザがそのオブジェクトをタッチするために腕を伸ばす可能性は当然高くなる。従って、第1の実施形態の変形例では、ユーザの腕が撮像範囲に進入している位置を特定し、ユーザが腕を伸ばしてタッチユーザの手が含まれる可能性が高い背景未確定領域に対して、腕が伸びる方向に隣接する部分領域を特定し、背景未確定領域であると設定する。それにより、当該領域に存在するオブジェクトは無効化される。
第1の実施形態に係る情報処理装置の外観、ハードウェア構成及び機能構成は第1の実施形態と同様である。ただし、第1の実施形態の変形例において、検知部208は、設定部205に背景未確定領域であると設定された領域の位置と、撮像範囲の周囲の接点を検出することによって、操作部(ユーザの手)の撮像範囲内への進入位置を特定する。第1の実施形態の変形例における設定部205は、既に設定された背景未確定領域に加えて、前記特定されたユーザの手の進入位置から背景未確定領域への方向(ユーザの手の進入方向)に隣接する部分領域は、背景未確定領域であると設定する。
次に、図5(a)は、第1の実施形態の変形例において、情報処理装置が実行する背景画像制御処理の流れを示すフローチャートである。本変形例においても、ユーザの動作による操作を認識する処理は図3のフローチャートに沿って実行される。ただし、ステップS311とステップS312の間に、図5(a)の背景画像制御処理が実行されるものとする。
従って、本変形例では、第1の実施形態と同様に図3のフローチャートに沿った処理が実行され、ステップS311において背景確定領域を設定する処理が完了した場合、図5(a)のステップS601に進む。
ステップS601では、検知部208が、入力画像において、撮像範囲に対するユーザの手の侵入位置を検知する。本実施形態では、部分領域は矩形に分割されているため、撮像範囲の周囲の辺と、ステップS311で設定部205によって背景未確定領域であると設定された部分領域との接点を検知することによって、ユーザの手の進入位置とする。ユーザが腕を曲げるなとして、撮像範囲の周囲の辺と接触する背景未確定領域が複数存在する場合には、背景未確定領域と接触する辺全体をユーザの手の進入位置とする。
次に、ステップS602では、設定部205が、特定した進入位置から、背景未確定領域に向かう方向(ユーザの手の進入方向)を特定する。本実施形態では、部分領域は矩形に分割されているため、ステップS601で検知した位置から、撮像範囲を囲む辺に直交して内側に向かう方向が特定される。ここで特定される方向は、ユーザが当該方向に沿って手を伸ばしたときに、ユーザの手の一部が背景未確定領域に含まれるため、操作を正確に認識できない可能性が高い方向となる。
ステップS603では、設定部205が、既に設定した背景未確定領域に対し、ステップS602で特定した方向に隣接する部分領域を特定する。 ここで特定される部分領域は、ユーザが当該部分領域内で操作を行おうとして手を伸ばした場合に、手の一部が検出されないことにより、誤認識が生じやすいと考えられる領域に相当する。
そして、ステップS604において、設定部205が、ステップS603で特定した領域は背景未確定領域であると設定し、設定が完了したら図3のフローチャートにおけるステップS312以降の処理にリターンする。
ここで、図4(d)を参照し、第1の実施形態の変形例に係る情報処理装置をユーザが操作する操作例を説明する。
図4(d)では、図4(c)のように一連の処理によって背景未確定領域410が設定されている。ここで、検知部208が,撮像範囲401の周囲の辺と、背景未確定領域410の接点を検知することによって,撮像範囲401内へのユーザの手の進入位置411を検知する(ステップS601)。そして、設定部205が、検知された手の進入位置411から、背景未確定領域410に向かう方向として、撮像範囲401の周囲の辺に直交して内側に向かう方向412が特定される(ステップS602)。設定部205は、既に設定された背景未確定領域410の、方向412側に隣接している領域413を、新たに背景未確定領域413であると設定する。従って、領域413内に表示されたオブジェクト404が無効化され、表示部206により白い四角で表示される。
以上のように、第1の実施形態の変形例では、背景未確定領域との位置関係に基づき、誤認識が発生する可能性が高い部分領域を特定し、背景未確定領域であると設定する。部分領域のUIの有効化、無効化を制御する事で、より精度よくUIを操作可能となる。
なお、ここで説明した変形例では、ステップS311において既に設定された背景未確定領域に対し、特定の方向において隣接した部分領域のみを、背景未確定領域であると設定したが、これに限らない。例えば、隣接した部分領域に限らず、ステップS602で特定した方向の延長線上の部分領域を全て背景未確定領域としてもよい。また、方向を特定せず、ステップS311において既に設定された背景未確定領域に隣接した部分領域を全て背景未確定領域であると設定することもできる。ただし、本実施形態のように、背景未確定領域であると設定される部分領域を限定することで、操作が認識されない領域が増えることでユーザに与えるストレスを低減できる。
<第2の実施形態>
第1の実施形態では、背景未確定領域であると設定された部分領域にユーザの手が留まっている間は、その領域では背景画像を更新することができない。従って、操作部であるユーザの手が存在するにも関わらず、その操作を認識することができない状態が発生する。それに対し、本実施形態では、操作面上の表示内容を制御することによって、操作部が背景未確定領域から出るように誘導する例を説明する。
第2の実施形態に係る情報処理装置の外観、ハードウェア構成、及び機能構成は第1の実施形態と同様である。ただし、第2の実施形態において、検知部208は、設定部205に背景未確定領域であると設定された領域の位置と、撮像範囲の周囲の接点を検出することによって、操作部(ユーザの手)の撮像範囲内への進入位置を特定する。また、第1の実施形態の変形例における表示部206は、表示装置106に、設定部205に設定された背景未確定領域の外にユーザの手を誘導するためのオブジェクトを表示させる。
次に、図5(b)は、第2の実施形態において、情報処理装置が実行する背景画像制御処理の流れを示すフローチャートである。本実施形態においても、ユーザの動作による操作を認識する処理は図3のフローチャートに沿って実行される。ただし、ステップS311とステップS312の間に、図5(b)の背景画像制御処理が実行されるものとする。
本実施形態では、第1の実施形態と同様に図3のフローチャートに沿った処理が実行され、ステップS311において背景確定領域を設定する処理が完了した場合、図5(b)のステップS701に進む。
ステップS701では、検知部208が、撮像範囲に対するユーザの手の侵入位置を検知する。本実施形態では、部分領域は矩形に分割されているため、撮像範囲の周囲の辺と、ステップS311で設定部205によって背景未確定領域に設定された部分領域との接点を検知することによって、ユーザの手の進入位置とする。
次にステップS702では、表示部206が、検知部208に検知されたユーザの手の侵入位置、及び予め学習されている画像中における人の手の長さの情報に基づいて、手の可動範囲を推定し、位置情報を保持する。
そしてステップS703で、表示部206は、背景未確定領域からユーザの手が離れ、かつ推定された可動範囲に含まれる位置を推定し、位置情報を取得する。本実施形態では、表示部206は、ステップS701で検知されたユーザの手の進入位置を、撮像範囲の辺に沿った横方向に移動させることができる位置を推定する。例えば、ステップS311で設定された背景未確定領域と、撮像範囲の周囲の辺との両方に隣接する部分領域内であって、かつステップS702で推定されたユーザの手の可動範囲に含まれる範囲を求め、位置情報を保持する。
ステップS704では、表示部206が、ステップS703で保持された位置情報が示す範囲内に、必要なオブジェクトを配置するために表示位置を決定し、表示させる。ここで表示させるオブジェクトは、ユーザの操作状況によって決定され、ユーザが次に操作すべき機能を起動するためのオブジェクトであるものとする。
ここで図6(a)を参照し、第2の実施形態に係る情報処理装置をユーザが操作する操作例を説明する。
図6(a)では、 図4(c)のように、一連の処理によって2つの部分領域が背景未確定領域410であると設定されている。ここで、検知部208が、撮像範囲802の周囲の辺と、背景未確定領域801の接点を検知することによって、撮像範囲802内へのユーザの手の進入位置803を検知する(ステップS701)。そして、表示部206が、予め学習されている画像中における人の手の長さの情報に基づいて、手の可動範囲804を推定する(ステップS702)。さらに表示部206は、背景未確定領域801と、撮像範囲802を囲む辺との両方に隣接する部分領域内であって、ユーザの手の可動範囲804に含まれる範囲を推定し、その範囲内にオブジェクトの表示位置805を決定し、表示させる(ステップS704)。
以上の通り、本実施形態では、ユーザの手を背景未確定領域の外に誘導するため、オブジェクトを表示させる位置を制御する。その結果、ユーザの手が背景未確定領域の外に誘導された場合には、その時取得された入力画像に基づいて、全ての部分領域について、背景画像を制御する処理を行い、背景差分法によって操作部を検出するための適正な背景画像を得ることができる。また、第2の実施形態に係る情報処理装置によれば、ユーザは情報処理装置が表示したオブジェクトをタッチするだけで、背景画像の制御処理を行うことを意識する必要がない。
なお、上述した本実施形態では、図6(a)のように、推定された表示位置に、タッチするだけで操作が可能なオブジェクトを表示したが、ステップS704でオブジェクトを表示させる形態は、これに限らない。例えば、図6(b)のように、オブジェクトをスライダーやスクロールバーのように、操作部を動かすことで操作を行う必要がある表示形式に変更し、背景未確定領域と背景確定領域とにまたがる位置に、あるいは背景未確定領域の近辺に表示させる。これにより、操作部は背景未確定領域から、必然的に背景確定領域内へ誘導される。ユーザにとっては、自然に手を動かすことができるので、より自然に操作を継続することができる。
なお、本実施形態に係る情報処理装置は、同じ機能を操作するためのオブジェクトを表示する形式を、背景未確定領域が残っているか否かに従って変更して表示させる機能を搭載することもできる。例えば、所定の機能をON/OFF切り替えするためのスイッチとしての機能を持つオブジェクトを、設定部205によって背景未確定領域であると設定されている間は、スライダー型のスイッチとして表示する。その際、背景未確定領域から外にユーザの手を誘導するようにオブジェクトを配置する。一方で、撮像範囲全域が背景確定領域であると設定されている場合には、ボタン型のスイッチとして表示するなどの切り替え処理を行うことが可能である。ユーザにとっては、手を動かす必要がない場合には、より操作が容易な形式のUIが優先して選択されるので、自然に操作を継続することができる。
<第3の実施形態>
上述した実施形態では、入力画像において操作部以外の物体が検出された場合、分割された部分領域毎に、画像内が静止しているか否かを判定し、静止していない部分領域に操作部が存在する可能性が高いとして、背景未確定領域であると設定する処理を繰り返す。それに対し、本実施形態では、操作面上に表示されているユーザが操作したオブジェクトの位置に基づいて、2回目以降の処理では、操作部が存在する可能性が高い部分領域を推定し、推定された部分領域は背景未確定領域であると設定する例を説明する。
第3の実施形態に係る情報処理装置の外観、ハードウェア構成は第1の実施形態と同様である。本実施形態における機能構成図を図2(b)に示す。図2(a)と異なる点は、CPU等によって構成され、操作されたオブジェクトの位置に基づいて、操作部が存在する可能性が高い部分領域を推定する推定部901があることである。
次に、図7(a)は、第2の実施形態において、情報処理装置が実行する背景画像制御処理の流れを示すフローチャートである。本実施形態においても、ユーザの動作による操作を認識する処理は図3のフローチャートに沿って実行される。ただし、ステップS313とステップS314の間に、図7(a)の背景画像制御処理が実行されるものとする。
従って、本実施形態では、第1の実施形態と同様に図3のフローチャートに沿った処理が実行され、ステップS313において、認識部207が操作部による操作を認識する処理が完了した場合、図7(a)のステップS1001に進む。
ステップS1001では、推定部901が、ステップS313において認識部207が認識した操作は、オブジェクトをタッチする操作であったか否かを判定する。認識した操作はタッチ操作であると判定された場合(ステップS1001でYes)には、ステップs1002に進む。一方、認識された操作はタッチ操作ではないと判定された場合(ステップS1001でNo)には、背景画像制御処理を終了し、図3のユーザの動作による操作を認識する処理にリターンする。
ステップS1002では、推定部901が、ユーザによって操作されたオブジェクトの位置を特定する。本実施形態では、操作されたオブジェクトの表示位置を含む部分領域を特定する。
そして、ステップS1003では、推定部901が、ユーザの手が存在する可能性が高い領域を特定する。本実施形態では、ステップS1002において特定した部分領域に隣接する領域を、ユーザの手が存在する可能性が高い領域として推定する。ただし、ステップS1002でオブジェクトが表示されていた位置を座標で特定し、特定した座標と予め学習された人の手の長さ情報とに基づいて、より限定された領域をユーザの手が存在する可能性が高いとして推定してもよい。
ステップS1004では、更新部204が、ステップS1003で推定された領域以外の全ての部分領域の背景画像を更新する。本実施形態では、ステップS313においてオブジェクトが操作された時点での入力画像の該当部分を、背景画像として上書きして更新とする。ステップS1005では、設定部205が、ステップS1004で背景を更新した部分領域を全て、背景確定領域であると設定する。従って、本実施形態では、ステップS311で背景確定領域であると設定された領域と、ステップS1005で背景確定領域とであると設定された領域の全体において、操作部を検出することが可能となる。背景確定領域を設定する処理が完了したら、背景確定領域であると設定処理を終了し、図3のユーザの動作による操作を認識する処理にリターンする。
ここで図6(c)を参照し、第3の実施形態に係る情報処理装置をユーザが操作する操作例を説明する。
図6(c)では、 図4(b)のように、一連の処理によって2つの部分領域が背景未確定領域1101であると設定されている。ここで、ユーザがオブジェクト1102をタッチする操作が認識されたとする(ステップS1001でYes)。推定部901によって、操作されたオブジェクトを含む部分領域と、隣接する部分領域とを、ユーザの手が存在する可能性が高い領域1103とされる(ステップS1003)。そして、推定された領域1103以外の領域1104の背景画像を更新する(ステップS1004)。そして、領域1104を背景確定領域に加える(ステップS1005)。その結果、背景未確定領域は、図4(c)と同様に縮小する。
以上のように、本実施形態では、ユーザによってオブジェクトがタッチされた場合に、タッチされた位置に基づいてユーザの手が存在する可能性が高い領域を推定する。従って、部分領域ごとに、領域内が静止しているか否かを判定する必要がなく、また一度に複数の部分領域の背景を更新することができる。領域内が静止しているか否かを判定するためには、カメラ105が撮像している映像の複数のフレームに相当する入力画像を取得して比較する必要があるため、本実施形態を用いることで、処理に必要な時間を短縮できるという効果を奏する。
<第4の実施形態>
上述した実施形態では、分割部202は、カメラ105の撮像範囲を一定のサイズで領域分割するように説明したが、本実施形態では、オブジェクトの表示される位置や操作部が検出された位置に併せて、分割する粒度を変更する例を説明する。
第4の実施形態に係る情報処理装置の外観、ハードウェア構成、機能構成は第1の実施形態と同様である。ただし、本実施形態における分割部202は、表示部206が表示するオブジェクトの位置情報、あるいは検出部203が検出する操作部の位置情報に基づいて、撮像範囲を分割する粒度を変更する。
図8を参照して本実施形態を説明する。
まず、図8(a)は、操作面上に表示されているオブジェクトの周辺を、より細かく分割した様子を示している。図8(c)は、図8(a)の場合の領域分割処理の流れを示すフローチャートである。本実施形態においても、本実施形態においても、ユーザの動作による操作を認識する処理は図3のフローチャートに沿って実行される。ただし、ステップS305において、図8(c)の領域分割処理が実行されるものとする。
従って、本実施形態では、第1の実施形態と同様に図3のフローチャートに沿った処理が実行され、ステップS304において、撮像範囲全体が背景未確定領域であると設定されたら、図8(a)のステップS1201に進む。
ステップS1201では、分割部202が、表示部206から、操作面上に表示させているオブジェクトの位置情報を取得する。なお、取得部201が取得した入力画像を解析することによって、実際にオブジェクトが表示されている位置情報を特定しても構わない。
ステップS1202では、分割部202が、取得したオブジェクトの位置情報に応じて部分領域の大きさを決定する。本実施形態では、取得したオブジェクトの位置を中心にした所定の範囲を、それ以外の範囲よりも4分の1の大きさの部分領域に分割するものとする。
ステップS1203では、分割部202が、ステップS1202で決定した大きさの部分領域に、撮像範囲を分割して、図3のユーザの動作による操作を認識する処理にリターンする。
また、図8(b)は検出部203に検出されている移動領域(移動体が写っている領域)の周辺を、より細かく分割した様子を示している。図8(b)の例では、図3のユーザの動作による操作を認識する処理におけるステップS305では、図8(d)の領域分割処理が実行されるものとする。
まずステップS1204において、分割部202が、検出部203が検出している移動領域の位置を取得する。
ステップS1205では、分割部202が、取得した移動領域の位置情報に応じて部分領域の大きさを決定する。本実施形態では、取得した移動領域を中心にした所定の範囲を、それ以外の範囲よりも4分の1の大きさの部分領域に分割するものとする。
ステップS1206では、分割部202が、ステップS1205で決定した大きさの部分領域に、撮像範囲を分割して、図3のユーザの動作による操作を認識する処理にリターンする。
以上のように、本実施形態では、オブジェクトの表示される位置や操作部が検出された位置の周辺を、その他の範囲よりも細かく分割する。表示されているオブジェクト周辺には、操作部が移動されてくる可能性が高く、操作部を精度よく検出する必要がある。検出部203が検出している移動領域には、操作部が含まれている可能性が高く、精度よく検出する必要がある。本実施形態のように、細かく分割された部分領域では、操作部が少しでも移動すれば、部分領域が操作部(移動体)を含まなくなる。すなわち、操作部が少しでも移動すれば、領域内が静止し、背景画像を更新することができる領域が多くなる。従って、よりきめ細かく背景画像更新し、ユーザの操作を認識できる背景確定領域を拡大することができる。
<第5の実施形態>
上述した第1の実施形態の変形例では、操作部の一部が背景未確定領域に含まれるために、操作部の一部が検出され一部が検出されない状態では誤認識が発生する場合があるため、背景未確定領域を拡大する処理を行った。それに対し、本実施形態では、操作部の一部のみが検出されている場合には、検出されている一部の画像情報に基づいて、背景差分法以外の方法で操作部の全体の検出を支援し、操作を認識可能とする例を説明する。
第5の実施形態に係る情報処理装置の外観、ハードウェア構成、機能構成は第1の実施形態と同様である。ただし、本実施形態における検出部203は、背景差分法によって検出された移動領域(移動体が写っている領域)の画像情報を解析して、入力画像から移動体の形状抽出することで、移動体を検出することができる。
次に、図7(b)は、第5の実施形態において、情報処理装置が実行する検出支援処理の流れを示すフローチャートである。本実施形態においても、ユーザの動作による操作を認識する処理は図3のフローチャートに沿って実行される。ただし、本実施形態では、ステップS312において図7(b)の検出支援処理が実行されるものとする。
従って、本実施形態ではでは、第1の実施形態と同様に図3のフローチャートに沿った処理が実行され、ステップS311において背景確定領域を設定する処理が完了した場合、図7(b)のステップS1301に進む。
ステップS1301では、検出部203が、背景確定領域において背景差分法により操作部を検出する。検出部203は、RAM103に保持していた更新された背景画像と、取得部201が新たに取得した入力画像を用いた背景差分法により移動体を検出する。背景画像が更新されているため、ここで検出された移動体は、操作部であるユーザの手である可能性が高い。
ステップS1302では、検出部203が、検出部203が検出した操作部と、ステップS311において設定された背景未確定領域が接しているか否かを判定する。検出された操作部と背景未確定領域が接している場合、操作部の一部が背景未確定領域に含まれるため、操作部の全体が検出されていない可能性が高い。そこで、検出された操作部と背景未確定領域が接している場合(ステップS1302でYes)には、操作部の全体を検出するため、ステップS1303に進む。一方、検出された操作部と背景未確定領域が接していない場合(ステップ1302でNo)には、図3のフローチャートにおけるステップS313以降の処理にリターンする。
ステップS1303では、検出部203が、入力画像を解析して操作部の形状を抽出する。本実施形態では、検出部203が、入力画像中で、ステップS1301で検出した操作部が写っている領域および背景未確定領域に対して画像処理を行う。例えば、画像からエッジを検出する処理を行う。検出されたエッジを、操作部が写っている領域から、背景未確定領域内に追跡することによって、操作部全体の形状を抽出する。ただし、操作部の形状を抽出する方法はこれに限らない。例えば、輝度の連続性を検証したり、楕円モデルや人の手や腕の形状データ等のパターンマッチングを利用したりすることができる。
ステップS1304では、検出部203が、抽出された形状を基に、操作部を検出する。本実施形態では、検出部203は、ステップS1303でエッジ検出により抽出した形状と、予め学習された人の手の形状データとのパターンマッチングによって操作部が写っている領域を確定する。操作部が写っている領域が確定し、操作部が検出されたとして、処理は図3のフローチャートにおけるステップS313以降の処理にリターンする。ただし、ステップS1303において、エッジや輝度の連続性が不十分であったり、モデルとのマッチング度が低かったりする場合には操作部1404は検出されない。その場合には、ステップS1301における背景差分法による検出結果が維持される。
図6(d)に、本実施形態の具体例を示す。図6(d)のように背景確定領域1401と背景未確定領域1402が設定されている場合、検出部203が背景差分法によって操作部を検出すると、検出される操作部1403(黒い部分)は背景未確定領域1402に接している(ステップSS1302でYes)。従って、本実施形態では、操作部1403が写っている入力画像に対して画像処理を行い、エッジを検出することによって、操作部全体1404の形状を抽出することによって、操作部を検出する。
以上のように、本実施形態では、背景差分法によって操作部の一部のみが検出されている場合には、検出されている一部の画像情報に基づいて、背景差分法以外の方法で操作部の全体の検出を支援し、操作を認識可能とする。これにより、撮像範囲全体の背景画像が更新できなかった場合においても、操作部を検出し、操作を認識することができるので、情報処理装置の操作性が向上する。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (14)

  1. 操作体による操作を認識する情報処理装置であって、
    所定の空間を撮像範囲とする画像を取得する取得手段と、
    前記空間の背景を表す背景画像と、前記取得手段によって取得される画像との比較に基づいて、前記背景上に存在する移動体を検出する検出手段と、
    前記検出手段によって検出された移動体に前記操作体以外の物体が含まれる場合、前記空間の背景を分割して得られる複数の部分領域のうち、前記移動体が存在する部分領域であって、かつ、前記背景上に前記操作体が存在しないとみなされた部分領域を背景確定領域として設定し、前記空間の背景を分割して得られる複数の部分領域のうち、前記移動体が存在する部分領域を背景未確定領域として設定する設定手段と、
    前記取得手段によって取得される画像のうち、前記設定された背景確定領域を撮像した部分によって、前記背景画像を部分的に更新する更新手段と、
    前記設定された背景確定領域に前記操作体による操作が有効な第1のオブジェクトを表示させ、前記設定された背景未確定領域に前記操作体による操作が無効な第2のオブジェクトを、前記第1のオブジェクトの表示状態と異ならせて表示させる表示制御手段と、
    前記検出手段が、前記更新手段によって更新された前記背景画像と、前記取得手段によって新たに取得される画像との比較に基づいて検出した前記移動体の少なくとも一部から前記操作体を特定し、前記背景確定領域に表示される第1のオブジェクトに対する操作体による操作を認識する認識手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記設定手段は、前記背景未確定領域のうち、前記移動体が所定の時間静止した領域、及び、前記移動体が検出されなくなった領域を、前記背景上に操作体が存在しないとみなすことを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御手段が表示させる第2のオブジェクトは、
    前記操作体によってタッチされた後、前記背景未確定領域から前記背景確定領域内に移動されることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記表示制御手段は、前記操作体の可動範囲を推定し、前記可動範囲内に、前記表示制御手段によって表示されるオブジェクトを表示させることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記表示制御手段によって表示されるオブジェクトのうち、前記操作体にタッチされたオブジェクトの位置情報に基づいて、前記操作体が存在する可能性が高い領域を推定する推定手段を更に備え、
    前記設定手段は、前記複数の部分領域のうち、前記推定された領域を、前記背景未確定領域と設定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記背景を前記部分領域に分割する分割手段を更に備え、
    前記分割手段は、前記表示制御手段によって表示されるオブジェクトの周辺の領域では、前記背景を細かく分割することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記背景を前記部分領域に分割する分割手段を更に備え、
    前記分割手段は、前記移動体の周辺の領域では、前記背景を細かく分割することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  8. 前記設定手段が、前記背景未確定領域とした領域内では、
    前記検出手段は、前記更新手段によって更新された背景画像と、前記取得手段によって新たに取得される画像との比較に基づき既に検出されている移動体の情報に基づいて、前記移動体を検出することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記設定手段は、前記複数の部分領域のうち、前記背景未確定領域とした領域に対して、特定の方向に隣接している部分領域を、前記背景未確定領域と設定することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 前記特定の方向とは、前記操作体の前記空間に対する進入方向であることを特徴とする請求項9に記載の情報処理装置。
  11. 前記第1のオブジェクトと前記第2のオブジェクトとは表示色が異なることを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 操作体による操作を認識する情報処理装置であって、
    所定の空間を撮像範囲とする画像を取得する取得手段と、
    前記空間の背景を表す背景画像と、前記取得手段によって取得される画像との比較に基づいて、前記背景上に存在する移動体を検出する検出手段と、
    前記検出手段によって検出された移動体に前記操作体以外の物体が含まれる場合、前記空間の背景を分割して得られる複数の部分領域のうち、前記移動体が存在する部分領域であって、かつ、前記背景上に前記操作体が存在しないとみなされた部分領域を特定し、前記取得手段によって取得される画像のうち、前記特定された部分領域を撮像した部分によって、前記背景画像を部分的に更新する更新手段と、
    前記検出手段が、前記更新手段によって更新された前記背景画像と、前記取得手段によって新たに取得される画像との比較に基づいて検出した前記移動体の少なくとも一部から前記操作体を特定し、前記操作体による操作を認識する認識手段と、
    前記空間の背景を分割して得られる複数の部分領域のうち、前記移動体が存在する部分領域を背景未確定領域として設定し、さらに、該背景未確定領域として設定された部分領域のそれぞれについて、前記背景上に前記操作体が存在しないとみなされた部分領域を背景確定領域として再び設定する設定手段を備え、
    前記設定手段は、前記背景未確定領域のうち、前記移動体が所定の時間静止した領域、及び、前記移動体が検出されなくなった領域を、前記背景上に操作体が存在しないとみなし、
    示制御手段が表示させるオブジェクトは、前記操作体によってタッチされた後、前記背景未確定領域から前記背景確定領域内に移動されることで、前記オブジェクトに対応する操作が認識されることを特徴とする情報処理装置。
  13. コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1乃至12に記載された情報処理装置として動作させるためのプログラム。
  14. 操作体による操作を認識する情報処理装置の制御方法であって、
    取得手段により、所定の空間を撮像範囲とする画像を取得する取得工程と、
    検出手段により、前記空間の背景を表す背景画像と、前記取得手段によって取得される画像との比較に基づいて、前記背景上に存在する移動体を検出する検出工程と、
    設定手段により、前記検出手段によって検出された移動体に前記操作体以外の物体が含まれる場合、前記空間の背景を分割して得られる複数の部分領域のうち、前記移動体が存在する部分領域であって、かつ、前記背景上に前記操作体が存在しないとみなされた部分領域を背景確定領域として設定し、前記空間の背景を分割して得られる複数の部分領域のうち、前記移動体が存在する部分領域を背景未確定領域として設定する設定工程と、
    更新手段により、前記取得手段によって取得される画像のうち、前記設定された背景確定領域を撮像した部分によって、前記背景画像を部分的に更新する更新工程と、
    表示制御手段により、前記設定された背景確定領域に前記操作体による操作が有効な第1のオブジェクトを表示させ、前記設定された背景未確定領域に前記操作体による操作が無効な第2のオブジェクトを、前記第1のオブジェクトの表示状態と異ならせて表示させる表示制御工程と、
    認識手段により、前記更新手段によって更新された前記背景画像と、前記取得手段によって新たに取得される画像との比較に基づいて検出された前記移動体の少なくとも一部から前記操作体を特定し、前記背景未確定領域に表示されるオブジェクトに対する前記操作体による操作を認識せず、前記背景確定領域に表示されるオブジェクトに対する前記操作体による操作を認識する認識工程と、
    を備えることを特徴とする情報処理装置の制御方法。
JP2012129888A 2012-06-07 2012-06-07 情報処理装置、およびその制御方法 Expired - Fee Related JP6095283B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012129888A JP6095283B2 (ja) 2012-06-07 2012-06-07 情報処理装置、およびその制御方法
US13/899,322 US9129182B2 (en) 2012-06-07 2013-05-21 Information processing apparatus and method for controlling the same
EP13170858.8A EP2672427B1 (en) 2012-06-07 2013-06-06 Information processing apparatus and method for controlling the same, and background determination method
CN201310225068.5A CN103488283B (zh) 2012-06-07 2013-06-07 信息处理设备及其控制方法和背景确定方法
US14/822,655 US9330304B2 (en) 2012-06-07 2015-08-10 Information processing apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012129888A JP6095283B2 (ja) 2012-06-07 2012-06-07 情報処理装置、およびその制御方法

Publications (3)

Publication Number Publication Date
JP2013254377A JP2013254377A (ja) 2013-12-19
JP2013254377A5 JP2013254377A5 (ja) 2015-07-23
JP6095283B2 true JP6095283B2 (ja) 2017-03-15

Family

ID=48576832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012129888A Expired - Fee Related JP6095283B2 (ja) 2012-06-07 2012-06-07 情報処理装置、およびその制御方法

Country Status (4)

Country Link
US (2) US9129182B2 (ja)
EP (1) EP2672427B1 (ja)
JP (1) JP6095283B2 (ja)
CN (1) CN103488283B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6095283B2 (ja) * 2012-06-07 2017-03-15 キヤノン株式会社 情報処理装置、およびその制御方法
TWI505135B (zh) * 2013-08-20 2015-10-21 Utechzone Co Ltd 顯示畫面的控制系統、輸入裝置及控制方法
JP6289254B2 (ja) 2014-05-02 2018-03-07 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
JP6197952B2 (ja) * 2014-05-12 2017-09-20 富士通株式会社 商品情報出力方法、商品情報出力プログラムおよび制御装置
US9934453B2 (en) * 2014-06-19 2018-04-03 Bae Systems Information And Electronic Systems Integration Inc. Multi-source multi-modal activity recognition in aerial video surveillance
JP2016009266A (ja) * 2014-06-23 2016-01-18 コニカミノルタ株式会社 撮影システム、撮影の方法、およびコンピュータープログラム
JP6482196B2 (ja) * 2014-07-09 2019-03-13 キヤノン株式会社 画像処理装置、その制御方法、プログラム、及び記憶媒体
US20160371847A1 (en) * 2014-07-24 2016-12-22 Bonanza.com, LLC Background profiles
JP6602009B2 (ja) * 2014-12-16 2019-11-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
JP6390657B2 (ja) * 2016-04-07 2018-09-19 トヨタ自動車株式会社 車両用表示装置
CN106249895B (zh) * 2016-08-09 2019-03-05 清华大学 一种机器人识别环境变化时的人机交互方法以及***
KR101881469B1 (ko) * 2016-08-11 2018-07-25 주식회사 매크론 스티커 영상을 위한 오브젝트 추출 방법 및 그 장치
CN106502420A (zh) * 2016-11-14 2017-03-15 北京视据科技有限公司 基于图像色差识别的虚拟按键触发方法
EP4160377A4 (en) * 2020-07-31 2023-11-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. GESTURE CONTROL METHOD AND ASSOCIATED DEVICE
CN112183560A (zh) * 2020-10-27 2021-01-05 维沃移动通信有限公司 图像识别方法及装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6184858B1 (en) * 1998-02-06 2001-02-06 Compaq Computer Corporation Technique for updating a background image
JP2000090277A (ja) * 1998-09-10 2000-03-31 Hitachi Denshi Ltd 基準背景画像更新方法及び侵入物体検出方法並びに侵入物体検出装置
JP2003162723A (ja) * 2001-11-26 2003-06-06 Fujitsu Ltd 画像処理プログラム
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
JP2004265291A (ja) * 2003-03-04 2004-09-24 Yamatake Corp 背景差分処理法および装置
JP3970877B2 (ja) * 2004-12-02 2007-09-05 独立行政法人産業技術総合研究所 追跡装置および追跡方法
US9621749B2 (en) * 2005-06-02 2017-04-11 Invention Science Fund I, Llc Capturing selected image objects
JP4711885B2 (ja) * 2006-05-25 2011-06-29 三菱電機株式会社 遠隔操作装置及び方法
JP2008059081A (ja) * 2006-08-29 2008-03-13 Sony Corp 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP4720700B2 (ja) * 2006-09-21 2011-07-13 セイコーエプソン株式会社 画像検出装置、画像検出方法及び画像検出プログラム
CN101231755B (zh) * 2007-01-25 2013-03-06 上海遥薇(集团)有限公司 运动目标跟踪及数量统计方法
CA2591808A1 (en) * 2007-07-11 2009-01-11 Hsien-Hsiang Chiu Intelligent object tracking and gestures sensing input device
KR101375665B1 (ko) * 2007-08-08 2014-03-18 삼성전자주식회사 배경 변화 추정 방법 및 장치, 및 이를 이용한 움직임 검출 방법 및 장치
JP5228439B2 (ja) 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
JP4894741B2 (ja) * 2007-12-03 2012-03-14 ソニー株式会社 情報処理装置および情報処理方法、プログラム、並びに記録媒体
JP2010072841A (ja) * 2008-09-17 2010-04-02 Fuji Xerox Co Ltd 表示制御プログラム、表示制御装置及び表示装置
JP5213627B2 (ja) 2008-10-07 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
CN101907923B (zh) * 2010-06-29 2012-02-22 汉王科技股份有限公司 信息提取方法、装置及***
WO2012016374A1 (en) * 2010-08-03 2012-02-09 Empire Technology Development Llc Method for identifying objects in video
JP5701005B2 (ja) * 2010-10-15 2015-04-15 キヤノン株式会社 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
CN102324019B (zh) * 2011-08-12 2014-03-05 浙江大学 一种视频序列中自动提取手势候选区域的方法及***
US20130250379A1 (en) * 2012-03-20 2013-09-26 Panasonic Corporation System and method for scanning printed material
JP2013205983A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP6095283B2 (ja) * 2012-06-07 2017-03-15 キヤノン株式会社 情報処理装置、およびその制御方法
US10839227B2 (en) * 2012-08-29 2020-11-17 Conduent Business Services, Llc Queue group leader identification
JP6261266B2 (ja) * 2013-10-02 2018-01-17 東芝アルパイン・オートモティブテクノロジー株式会社 移動体検知装置

Also Published As

Publication number Publication date
US9330304B2 (en) 2016-05-03
EP2672427B1 (en) 2017-12-06
EP2672427A2 (en) 2013-12-11
EP2672427A3 (en) 2016-02-10
JP2013254377A (ja) 2013-12-19
CN103488283A (zh) 2014-01-01
US20150347828A1 (en) 2015-12-03
US20130330006A1 (en) 2013-12-12
CN103488283B (zh) 2016-12-07
US9129182B2 (en) 2015-09-08

Similar Documents

Publication Publication Date Title
JP6095283B2 (ja) 情報処理装置、およびその制御方法
JP5709227B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6039248B2 (ja) 情報処理装置およびその制御方法
JP5532300B2 (ja) タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
US9756265B2 (en) Information processing apparatus recognizing certain object in captured image, and method for controlling the same
JP5347673B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN105814522B (zh) 基于运动识别来显示虚拟输入设备的用户界面的设备和方法
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
JP6711817B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2011232894A (ja) インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP5769277B2 (ja) 入力装置、入力方法及びプログラム
JP2015022624A (ja) 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体
JP6452369B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
JP6000553B2 (ja) 情報処理装置及びその制御方法
JP5360631B1 (ja) 指先検出方法及び指先検出ユーザーインターフェースモジュール
CN110291495B (zh) 信息处理***、信息处理方法及程序
US20220129109A1 (en) Information processing apparatus, information processing method, and recording medium
KR20150043149A (ko) 손 모양 인식을 이용한 디지털 장치의 제어 방법 및 촬영 방법과, 그 장치
JP6079418B2 (ja) 入力装置および入力プログラム
JP5248715B1 (ja) 表示装置および表示方法
JP2009237630A (ja) 表示制御方法、表示制御装置、表示制御プログラム、及び印刷装置
JP5979976B2 (ja) 情報処理装置及びその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170214

R151 Written notification of patent or utility model registration

Ref document number: 6095283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees