JP2015170206A - 検出装置および検出方法 - Google Patents

検出装置および検出方法 Download PDF

Info

Publication number
JP2015170206A
JP2015170206A JP2014045462A JP2014045462A JP2015170206A JP 2015170206 A JP2015170206 A JP 2015170206A JP 2014045462 A JP2014045462 A JP 2014045462A JP 2014045462 A JP2014045462 A JP 2014045462A JP 2015170206 A JP2015170206 A JP 2015170206A
Authority
JP
Japan
Prior art keywords
region
hand
unit
image
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014045462A
Other languages
English (en)
Other versions
JP6229554B2 (ja
Inventor
村瀬 太一
Taichi Murase
太一 村瀬
松田 高弘
Takahiro Matsuda
高弘 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014045462A priority Critical patent/JP6229554B2/ja
Priority to EP14196936.0A priority patent/EP2916261A3/en
Priority to US14/569,913 priority patent/US9727145B2/en
Publication of JP2015170206A publication Critical patent/JP2015170206A/ja
Application granted granted Critical
Publication of JP6229554B2 publication Critical patent/JP6229554B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)

Abstract

【課題】手の領域に含まれる認識対象部位の検出精度の低下を抑制できる検出装置および検出方法を提供する。【解決手段】特定部40は、撮影される画像から手の領域を特定する。決定部41は、特定された領域の移動量に基づいて、移動量が小さい第1の領域と当該第1の領域よりも移動量が大きい第2の領域とを決定する。導出部43は、決定された第1の領域と第2の領域が結合して撮影された場合、撮影画像から第1の領域を除いた領域を導出する。検出部44は、導出された領域の画像に対して検出処理を行う。【選択図】図1

Description

本発明は、検出装置および検出方法に関する。
従来から、カメラにより撮影された画像からユーザの指し示した位置を検出して情報の入力を行う技術がある。例えば、ユーザの指し示した位置として、ユーザの手の指などの認識対象部位を検出する。このような場合、例えば、カメラにより撮影された画像から肌色領域を特定し、肌色領域に対してテンプレートマッチングを行って手の領域を認識して、手の領域に含まれる認識対象部位を検出する。
特開2004−348303号公報 国際公開第2011/142313号
しかしながら、上記の技術では、手の領域に含まれる認識対象部位の検出精度が低下する場合がある。例えば、カメラにより撮影された画像に左右の手など2つの手が写っており、手の領域に重なりがある場合、手の領域の形状の変化によりテンプレートマッチングを行っても認識対象部位を検出できない場合がある。
一側面では、検出精度の低下を抑制できる検出装置および検出方法を提供することを目的とする。
本発明の一側面によれば、検出装置は、特定部と、決定部と、導出部と、検出部とを有する。特定部は、撮影される画像から手の領域を特定する。決定部は、前記特定部により特定された領域の移動量に基づいて、移動量が小さい第1の領域と当該第1の領域よりも移動量が大きい第2の領域とを決定する。導出部は、前記決定部により決定された第1の領域と第2の領域が結合して撮影された場合、撮影画像から第1の領域を除いた領域を導出する。検出部は、前記導出部により導出された領域の画像に対して検出処理を行う。
本発明の一側面によれば、検出精度の低下を抑制できる。
図1は、検出装置の機能的な構成の一例を示す図である。 図2は、検出装置の利用形態の一例を示す図である。 図3は、検出装置の利用形態の他の例を示す図である。 図4は、操作を検出する際の動作の流れの一例を模式的に示した図である。 図5は、2つの手領域に重なりがある場合の領域の形状の変化の一例を示す図である。 図6は、検出処理の手順の一例を示すフローチャートである。 図7は、対象部位検出処理の手順の一例を示すフローチャートである。 図8は、抽出された輪郭の一例を示す図である。 図9は、検出プログラムを実行するコンピュータを示す図である。
以下に、本発明に係る検出装置および検出方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[検出装置の構成]
実施例1に係る検出装置10について説明する。図1は、検出装置の機能的な構成の一例を示す図である。検出装置10は、ユーザの指し示した位置を検出して操作入力が可能な装置である。検出装置10は、例えば、デスクトップ型PC(Personal Computer)、ノート型PCなどの情報処理装置であってもよい。また、検出装置10は、例えば、タブレット端末、スマートフォン、PDA(Personal Digital Assistant)などの携帯端末装置であってもよい。図1に示すように、検出装置10は、カメラ20と、表示部21と、記憶部22と、制御部23とを有する。
カメラ20は、カラー画像を撮影する撮影デバイスである。カメラ20は、所定のフレームレートで周期的に画像を撮影し、撮影した画像の画像情報を生成する。このフレームレートは、ユーザが操作指示のために複数の地点に手を移動させた場合に、複数の地点で手が写る程度であればよく、例えば、24fps(frame per second)、30fps、60fpsなどが挙げられる。なお、カメラ20は、複数設けられてもよい。
表示部21は、各種情報の表示を行うデバイスである。表示部21としては、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)などの表示デバイスが挙げられる。なお、表示部21は、投影により画像の表示を行うプロジェクタなどの投影デバイスであってもよい。表示部21は、各種情報を表示する。例えば、表示部21は、ジェスチャーによる操作を受け付ける操作画面を表示する。
なお、検出装置10は、上記の機器以外の他の機器を有してもよい。例えば、検出装置10は、マウスやキーボードなどのユーザからの操作入力を受付ける入力部を有してもよい。
ここで、検出装置10の利用形態の一例を説明する。図2は、検出装置の利用形態の一例を示す図である。図2の例は、検出装置10をタブレット端末とした場合の利用形態の一例が示されている。図2に示すように、検出装置10は、平板状に形成され、一方の面に表示部21が設けられている。また、検出装置10は、表示部21の周囲の一辺にカメラ20が設けられている。図2の例では、検出装置10は、表示部21が設けられた表示面が見えるようにスタンドなどにより保持されている。ユーザは、検出装置10の表示部21に対向する位置から表示部21を参照し、ジェスチャーなどにより各種の操作指示を行う。検出装置10では、カメラ20により所定のフレームレートでユーザを撮影しており、周期的に撮影される画像からユーザの手を検出して操作を検出する。
図3は、検出装置の利用形態の他の例を示す図である。図3の例は、画像を投影し、投影された画像に対する指示を検出するものとした場合の利用形態の一例が示されている。
図3の例では、スタンド25にカメラ20および表示部21が設けられている。表示部21は、画像を投影する。図3の例は、スタンド25に設けられた表示部21がテーブル上に画像を投影する場合を示しており、テーブル上の画像が表示される表示領域26が示されている。ユーザは、ジェスチャーなどにより表示領域26に対して各種の操作指示を行う。スタンド25に設けられたカメラ20は、表示領域26を所定のフレームレートで撮影する。検出装置10は、周期的に撮影される画像からユーザの手を検出して操作を検出する。
図1に戻り、記憶部22は、フラッシュメモリなどの半導体メモリ素子、ハードディスク、光ディスクなどの記憶装置である。なお、記憶部22は、RAM(Random Access Memory)、フラッシュメモリなどのデータを書き換え可能な半導体メモリであってもよい。
記憶部22は、制御部23で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部22は、制御部23で実行されるプログラムで用いられる各種データを記憶する。例えば、記憶部22は、手領域情報30を記憶する。
手領域情報30は、撮影された画像に含まれる手領域に関する情報を記憶したデータである。手領域情報30は、例えば、後述の格納部42により格納される。
制御部23は、検出装置10を制御するデバイスである。制御部23としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部23は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部23は、各種のプログラムが動作しており、各種の処理部として機能する。例えば、制御部23は、特定部40と、決定部41と、格納部42と、導出部43と、検出部44と、操作認識部45とを有する。
特定部40は、各種の特定を行う処理部である。例えば、特定部40は、カメラ20により周期的に撮影される画像から色情報に基づいて、手と推定される手領域を決定する。例えば、特定部40は、撮影される画像の肌色に相当する領域を手領域を特定する。一例として、特定部40は、撮影される画像の色空間をHSV表色系の色空間に変換する。そして、特定部40は、色空間を変換した画像の画素ごとにH、S、Vの階調値が以下の式(1)、(2)に示す条件を満たすか否かを判定する。この(1)、(2)に示す条件は、色が肌色であるか否を判定する条件である。
0.11 < H < 0.22 (1)
0.2 < S < 0.5 (2)
特定部40は、(1)、(2)に示す条件を満たす画素の領域を手領域と特定する。なお、特定部40は、(1)、(2)に示す条件を満たす画素の領域の大きさをさらに判定して、手領域を特定してもよい。例えば、画像は、手が写っている場合、一定のサイズ以上の肌色の領域が存在する。そこで、特定部40は、(1)、(2)に示す条件を満たし、手に相当する所定サイズ以上の領域を手領域と特定してもよい。これにより、画像にユーザの右手、または、左手など1つの手が含まれる場合、1つの手領域が特定される。一方、画像にユーザの右手と左手など2つの手が含まれる場合、2つの手領域が特定される。
特定部40は、撮影される画像を、特定した手領域と手領域以外の領域とで二値化する。例えば、特定部40は、手領域の画素を「1(黒)」とし、手領域以外の領域の画素を「0(白)」として画像を二値化する。なお、特定部40は、画像の二値化を行わずに階調画像のまま以降の処理を行ってもよい。
決定部41は、各種の決定を行う処理部である。例えば、決定部41は、特定部40により手領域が2つ特定された場合、2つの手領域がそれぞれ操作側の手に対応する手領域と、非操作側の手に対応する手領域の何れかであるかを決定する。例えば、決定部41は、周期的に撮影される画像内での2つの手領域のそれぞれの移動量に基づいて、移動量が大きい操作側の手に対応する手領域と移動量が小さい非操作側の手に対応する手領域とを決定する。
一例として、決定部41は、周期的に撮影される画像において手領域が2つ特定された場合、画像内の所定の一辺からの距離により手領域に識別番号を付与する。例えば、図2に示すような状態で利用される場合、決定部41は、画像毎に、画像内において、操作するユーザの左右方向に対応する左側の端または右側の端からの距離が近い順に手領域に所定の初期値から順に識別番号を付与する。これにより、例えば、画像に右手および左手に対応する手領域が含まれる場合、各画像の右手に対応する手領域と、左手に対応する手領域にそれぞれ同じ識別番号が付与される。なお、決定部41は、各画像間でそれぞれの手領域の形状を比較して形状が類似する手領域にそれぞれ同じ識別番号が付与してもよい。
また、決定部41は、画像毎に、画像内での各手領域の位置を示す特徴点を求める。例えば、決定部41は、特徴点として手領域の重心位置を求める。そして、決定部41は、各画像で同じ識別番号が付与された手領域の特徴点の変化から移動量を求める。
ここで、移動量の一例を示す。例えば、画像内の位置をX、Y軸の2次元座標で示すものとした場合、移動量は、以下の式(3)から算出する。
Figure 2015170206
ここで、handは、手に対応して手領域に付与される識別番号を示す。nは、撮影される画像のフレーム番号を示す。撮影される画像には、撮影された順にフレーム番号が付与される。g(hand,n)は、nフレーム目の画像の識別番号handの手領域の重心位置を示す。g(hand,n).xは、重心位置のX座標を示す。g(hand,n).yは,重心位置のY座標を示す。式(3)では、1つ前のフレームの画像と重心位置の距離を求めている。
決定部41は、2つの手領域のうち、移動量の多い方を操作側の手に対応する手領域と決定し、移動量の少ない方を非操作側の手に対応する手領域と決定する。なお、本実施例では、1つ前のフレームの画像との比較により移動量を求めるものとしたが、例えば、10フレーム前など所定フレーム前の画像との比較により移動量を求めてもよい。また、決定部41は、操作側の手に対応する手領域と、非操作側の手に対応する手領域を一旦決定した後、所定の条件の間、2つの手領域を前のフレームと同じ手領域と決定してもよい。例えば、決定部41は、5秒間など所定期間の間、2つの手領域を識別番号に基づいて前のフレームと同じ手領域と決定してもよい。また、例えば、決定部41は、操作側の手に対応する手領域および非操作側の手に対応する手領域の移動量が静止していると見なせる所定値以下の間、2つの手領域を識別番号に基づいて前のフレームと同じ手領域と決定してもよい。
ここで、ユーザが指示操作を行う場合、指示操作を行う操作側の手は、非操作側の手よりも大きく移動する。例えば、ユーザが対象物を抑えながら対象物の位置を指定して指示操作を行う場合、対象物を抑えている側の手は、移動量が小さい。一方、指示操作を行う側の手は、移動量が大きい。この場合、対象物を抑えている側の手が非操作側の手と識別され、指示操作を行う側の手が操作側の手と識別される。
格納部42は、各種の情報の格納を行う処理部である。例えば、格納部42は、操作側の手領域と非操作側の手領域に関する情報を手領域情報30に格納する。例えば、格納部42は、手領域とそれ以外の領域とで二値化した二値化画像と、画像内の手領域が操作側と非操作側の何れかであるかを示すフラグを手領域情報30として格納する。この操作側の手領域と非操作側の手領域の情報は、次に撮影された画像の操作側の手領域と非操作側の手領域の移動量を求める際に利用される。また、非操作側の手領域の情報は、後述する非操作側の手領域を除外する際に利用される。なお、格納部42は、手領域の輪郭の情報を手領域情報30に格納してもよい。本実施例では、格納部42は、手領域に関する情報を手領域情報30に上書きで格納する。このため、本実施例では、手領域情報30に、最新のフレームの手領域に関する情報のみが記憶される。なお、格納部42は、手領域に関する情報を順に追加で格納して各フレームの手領域に関する情報を手領域情報30に記憶させてもよい。
導出部43は、各種の導出を行う処理部である。例えば、導出部43は、カメラ20により撮影された各画像から特定部40により特定された2つの手領域が結合したかを判定する。例えば、導出部43は、特定部40により特定された手領域の数が2つから1つに変化した場合、2つの手領域が結合したと判定する。導出部43は、2つの手領域が結合した場合、手領域の数が1以外となるまで、結合した手領域のうち記憶部22の手領域情報30に記憶された範囲を除いた領域を導出する。例えば、導出部43は、結合した手領域から手領域情報30に記憶された範囲をマスクして除いた領域を導出する。
検出部44は、各種の検出処理を行う処理部である。例えば、検出部44は、画像の手領域から手に含まれる所定の認識対象部位の検出を行う。例えば、検出部44は、手領域に対してパターンマッチングや輪郭検出などの所定の検出処理を行って、認識対象部位として手の指先を検出する。検出部44は、特定部40により特定された手領域の数が2つである場合、決定部41により操作側と決定された手領域から指先を検出する。また、検出部44は、特定部40により特定された手領域の数が2つから1つに変化した場合、手領域の数が1以外となるまで、導出部43により導出された領域から指先を検出する。また、検出部44は、撮影された画像で最初から特定された手領域の数が1つの場合、当該手領域から、指先を検出する。
操作認識部45は、各種の操作の認識を行う処理部である。例えば、操作認識部45は、検出部44により検出された指先の位置から操作内容を認識する。例えば、操作認識部45は、指先の位置が画像内の選択領域に位置している場合、選択領域を選択する操作と認識する。例えば、画面内での指先の位置や、指先の位置の軌跡と操作内容と対応付けた情報を記憶部22に記憶させ、操作認識部45は、指先の位置や、指先の位置の軌跡が何れに該当するかによって操作内容を認識する。
また、操作認識部45は、指先の3次元位置を算出して各種の操作の認識を行ってもよい。例えば、検出装置10に2台のカメラ20が所定の間隔で撮影領域を重複させて設けた場合、操作認識部45は、2台のカメラ20により撮影される画像内での対象物の視差から3次元位置を算出し、3次元位置の変化から操作を検出してもよい。例えば、操作認識部45は、指先を認識して指先の3次元位置を算出し、3次元位置から、例えば、表示領域26に対するタッチ操作を検出してもよい。例えば、2台のカメラ20を平行に設置すると視差は、2台のカメラ20で撮影された画像内での横座標のずれのみで求まる。
[装置の動作]
次に、本実施例に係る検出装置10が操作を検出する際の動作について説明する。図4は、操作を検出する際の動作の流れの一例を模式的に示した図である。
図4(A)の例は、ユーザが紙面を抑えながら、紙面上の位置を指定する操作を行っている状態を示す。図4(A)に示す状態の画像が撮影された場合、検出装置10では、特定部40が、2つの手領域50A、50Bを特定する。ユーザが紙面を抑えながら、紙面上の位置を指定する場合、紙面を抑えている手は、ほとんど移動せず、移動量が少ない。一方、位置を指定する操作を行っている手は、移動量が多い。このため、決定部41は、手領域50Aを操作側と決定し、手領域50Bを非操作側と決定する。格納部42は、操作側の手領域50Aと非操作側の手領域50Bの範囲を示す情報を手領域情報30に格納する。図4(A)の例では、非操作側の手領域50Bの範囲を示す情報が手領域情報30に格納されている。
図4(B)の例は、ユーザの紙面を抑える手と、紙面上の位置を指定する操作を行う手とが重なった状態を示す。図4(B)に示す状態の画像が撮影された場合、検出装置10では、特定部40が、1つの手領域50Cを特定する。導出部43は、手領域の数が2つから1つに変化した場合、手領域情報30に記憶された手領域50Bの範囲を手領域50Cからマスクして除いた領域50Dを導出する。検出部44は、領域50Dから指先を検出する。
ここで、画像に左右の手など2つの手が写っており、手の領域に重なりがある場合、手の領域の形状の変化により指先を検出することは、困難である。図5は、2つの手領域に重なりがある場合の領域の形状の変化の一例を示す図である。図5に示すように、手領域50A、50Bが重なった手領域50Cは、形状が変化するため、指先などの部位を検出することが困難となる。そこで、手領域50Cから、紙面を抑えている手の手領域50Bを除くことにより、手領域50Bを除かなかった場合と比較して、指先などの部位を精度よく検出可能となる。すなわち、検出精度の低下を抑制できる。
また、ユーザが両手を用いて位置を指定する場合、位置を指定する一方の手が他方の手と一部重なる場合があっても、位置を指定する部分が重複することはない。例えば、図4に示すように、ユーザが紙面を抑えながら位置を指定する場合、位置を指定する一方の手が、他の手と完全に重なると、操作中の指先が紙面から離れてしまうため、位置を指定する部分が重複することはない。よって、手領域が重なった場合、紙面を抑えている手の手領域を除くことにより、紙面を抑えている手の手領域全体を正確に分離できなくても、紙面を抑えている手の手領域を除かなかった場合と比較して、指先などの部位を精度よく検出できる。
[処理の流れ]
最初に、本実施例に係る検出装置10が、画像から手の領域に含まれる認識対象部位を検出する検出処理の流れについて説明する。図6は、検出処理の手順の一例を示すフローチャートである。この検出処理は、所定のタイミング、例えば、画像が撮影される毎に実行される。
図6に示すように、特定部40は、撮影される画像の色空間をHSV表色系の色空間に変換する(S10)。そして、特定部40は、色空間を変換した画像の画素が上述の(1)、(2)に示す条件を満たす肌色領域を特定する(S11)。特定部40は、撮影された画像を肌色領域の画素を「1(黒)」とし、肌色領域以外の領域の画素を「0(白)」として二値化する(S12)。特定部40は、画素が「1(黒)」であり、手に相当する所定サイズ以上の領域を手領域と決定する(S13)。これにより、画像に手が2つ写っている場合、手領域が2つ特定される。
導出部43は、手領域が重複したか否か判定する(S14)。例えば、導出部43は、2つの手領域が結合して手領域の数が1つとなった場合、手領域が重複したと判定する。手領域が重複していない場合(S14否定)、決定部41は、画像内の所定の一辺からの距離により手領域に識別番号を付与し、1つ前に撮影された画像との間で同じ識別番号が付与された手領域の移動量を算出する(S15)。決定部41は、移動量の多い方を操作側の手領域と決定し、移動量の少ない方を非操作側の手領域と決定する(S16)。格納部42は、手領域とそれ以外の領域とで二値化した二値化画像と、画像内の手領域が操作側と非操作側の何れかであるかを示すフラグを手領域情報30として格納する(S17)。
一方、手領域が重複した場合(S14肯定)、導出部43は、結合した手領域から手領域情報30に記憶された非操作側の手領域の範囲をマスクする(S18)。そして、導出部43は、結合した手領域からマスクされた範囲を除いた領域を導出する(S19)。
検出部44は、上述のS16で決定された操作側の手領域、または、上述のS19で導出された領域を、操作を検出する対象の領域として所定の認識対象部位を検出する対象部位検出処理を行い(S20)、処理を終了する。
次に、本実施例に係る対象部位検出処理の流れについて説明する。図7は、対象部位検出処理の手順の一例を示すフローチャートである。この対象部位検出処理は、所定のタイミング、例えば、検出処理のS20から実行される。なお、本実施例では、輪郭を検出して認識対象部位として指先を検出する場合を例に説明する。
検出部44は、操作を検出する対象の領域から輪郭を抽出する(S30)。図8は、抽出された輪郭の一例を示す図である。図8には、画像内の位置を示すためX軸、Y軸が示されている。X軸は、左から右に値が増加するものとする。Y軸は、上から下に値が増加するものとする。また、図8には、複数の輪郭点Pが示されている。輪郭点Pには、輪郭に沿って0から順に番号nが定められている。以下では、n番目の輪郭点Pを輪郭点Pnと表記する。また、輪郭点Pnの座標をPn(x,y)と表記する。
検出部44は、長さを記憶する変数Ctをゼロに初期化する(S31)。検出部44は、輪郭に沿って輪郭点Pを選択する(S32)。本実施例では、最初の輪郭点P0から輪郭に沿って輪郭点Pを順に選択する。検出部44は、輪郭に沿って1つ先の輪郭点との傾きを求める(S33)。本実施例では、傾きとして、1つ先の輪郭点とのXの増加量ax、yの増加量ayを求める。そして、検出部44は、増加量ax>0かつ増加量ay<0であるか判定する(S34)。このS34の処理では、例えば、図8の例において、選択された輪郭点Pが操作を検出する対象の領域60の左側の輪郭点Pであるか否か判定している。
増加量ax>0かつ増加量ay<0である場合(S34肯定)、検出部44は、変数Ctの値に1を加算し(S35)、後述のS36へ移行する。一方、増加量ax>0かつ増加量ay<0ではない場合(S34否定)、後述のS36へ移行する。
検出部44は、変数Ctの値が、指の長さと見なすことができる所定のしきい値thより大きいか否かを判定する(S36)。変数Ctの値がしきい値th以下である場合(S36否定)、検出部44は、増加量ax>0かつ増加量ay<0であるか判定する(S37)。増加量ax>0かつ増加量ay<0である場合(S37肯定)、後述のS39へ移行する。一方、増加量ax>0かつ増加量ay<0ではない場合(S37否定)、変数Ctをゼロに初期化し(S38)、後述のS39へ移行する。このS37およびS38の処理では、選択された輪郭点Pが、図8の例において、領域60の左側の輪郭点Pである場合、そのまま処理を継続し、領域60の右側の輪郭点Pである場合、変数Ctをゼロに初期化している。
検出部44は、輪郭に沿って順に全ての輪郭点Pの選択が完了したか否か判定する(S39)。全ての輪郭点Pの選択が完了していない場合(S39否定)、上述のS32へ移行する。一方、全ての輪郭点Pの選択が完了した場合(S39肯定)、処理を終了する。
一方、変数Ctの値がしきい値thよりも大きい場合(S36肯定)、検出部44は、増加量ax>0かつ増加量ay>0であるか判定する(S40)。このS40の処理では、選択された輪郭点Pが、図8の例において、増加量ax>0かつ増加量ay>0に最初になる領域60の頂点の輪郭点Pnであるか否か判定している。増加量ax>0かつ増加量ay>0ではない場合(S40否定)、検出部44は、増加量ax>0かつ増加量ay<0であるか判定する(S41)。増加量ax>0かつ増加量ay<0である場合(S41肯定)、上述のS38へ移行する。一方、増加量ax>0かつ増加量ay<0ではない場合(S41否定)、上述のS39へ移行する。
一方、増加量ax>0かつ増加量ay>0である場合(S40肯定)、検出部44は、選択された輪郭点Pが領域60の頂点であるため、選択された輪郭点Pを指先の位置として(S42)、処理を終了する。この対象部位検出処理により、指先の位置が検出される。
[効果]
上述してきたように、本実施例に係る検出装置10は、撮影される画像から手領域を特定する。検出装置10は、特定された領域の移動量に基づいて、移動量が小さい非操作側の手領域と当該非操作側の手領域よりも移動量が大きい操作側の手領域とを決定する。検出装置10は、決定された非操作側の手領域と操作側の手領域が結合して撮影された場合、撮影画像から非操作側の手領域を除いた領域を導出する。検出装置10は、導出された領域の画像に対して検出処理を行う。これにより、検出装置10は、検出精度の低下を抑制できる。
また、本実施例に係る検出装置10は、非操作側の手領域と決定された範囲を記憶する。検出装置10は、記憶された非操作側の手領域をマスクして、撮影画像から非操作側の手領域を除いた領域を導出する。これにより、検出装置10は、非操作側の手領域と操作側の手領域が結合した場合でも、非操作側の手領域を除くことができる。
また、本実施例に係る検出装置10は、周期的に撮影される画像毎に画像内の所定の一辺から近い順に、特定された手領域に対して識別番号を順に付与し、各画像間で同じ識別番号が付与された手領域の移動量を求める。これにより、検出装置10は、周期的に撮影される画像から、それぞれの手領域の移動量を求めることができる。
さて、これまで開示の装置に関する実施例について説明したが、開示の技術は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
例えば、上記の実施例では、撮影された画像をHSV表色系の色空間に変換して肌色の領域を特定する場合について説明したが、開示の装置はこれに限定されない。手領域の特定に用いる色空間は、画像の肌色に相当する領域を特定できれば何れの色空間を用いてもよい。例えば、特定部40は、撮影される画像の色空間をYCbCrの色空間に変換して画像の肌色に相当する領域を判定してもよい。
また、上記の実施例では、操作を検出する対象の領域から輪郭を抽出して、認識対象部位として指先を検出する場合について説明したが、開示の装置はこれに限定されない。例えば、操作を検出する対象の領域に対して指の形状を示すテンプレートのテンプレートマッチングを行って指先を検出してもよい。
また、上記の実施例では、手領域の位置を示す特徴点として重心位置を求め、手領域の移動量として重心位置の移動量を求める場合について説明したが、開示の装置はこれに限定されない。例えば、手領域の位置を示す特徴点として、手領域を内接する矩形や円形の領域の中心位置を求め、手領域の移動量として中心位置の移動量を求めてもよい。また、例えば、手領域の位置を示す特徴点として、手領域の所定方向の最も端となる端部の位置を求め、手領域の移動量として端部の位置の移動量を求めてもよい。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、検出装置10の特定部40、決定部41、格納部42、導出部43、検出部44および操作認識部45の各処理部が適宜統合されてもよい。また、各処理部の処理が適宜複数の処理部の処理に分離されてもよい。また、各装置は各処理部の一部または全部を適宜統合してもよい。さらに、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[検出プログラム]
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。図9は、検出プログラムを実行するコンピュータを示す図である。
図9に示すように、コンピュータ300は、CPU(Central Processing Unit)310、HDD(Hard Disk Drive)320、RAM(Random Access Memory)340を有する。これら300〜340の各部は、バス400を介して接続される。
HDD320には上記の検出装置10の各処理部と同様の機能を発揮する検出プログラム320aが予め記憶される。なお、検出プログラム320aについては、適宜分離しても良い。
また、HDD320は、各種情報を記憶する。例えば、HDD320は、OSや処理に用いる各種データを記憶する。
そして、CPU310が、検出プログラム320aをHDD320から読み出して実行することで、実施例の各処理部と同様の動作を実行する。すなわち、検出プログラム320aは、検出装置10の各処理部と同様の動作を実行する。
なお、上記した検出プログラム320aについては、必ずしも最初からHDD320に記憶させることを要しない。
例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
10 検出装置
20 カメラ
21 表示部
22 記憶部
23 制御部
30 手領域情報
40 特定部
41 決定部
42 格納部
43 導出部
44 検出部
45 操作認識部

Claims (4)

  1. 撮影される画像から手の領域を特定する特定部と、
    前記特定部により特定された領域の移動量に基づいて、移動量が小さい第1の領域と当該第1の領域よりも移動量が大きい第2の領域とを決定する決定部と、
    前記決定部により決定された第1の領域と第2の領域が結合して撮影された場合、撮影画像から第1の領域を除いた領域を導出する導出部と、
    前記導出部により導出された領域の画像に対して検出処理を行う検出部と、
    を有することを特徴とする検出装置。
  2. 前記決定部により第1の領域と決定された範囲を記憶する記憶部をさらに有し、
    前記導出部は、前記記憶部に記憶された第1の領域の範囲をマスクして、撮影画像から第1の領域を除いた領域を導出する
    ことを特徴とする請求項1に記載の検出装置。
  3. 前記決定部は、周期的に撮影される画像毎に画像内の所定の一辺から近い順に、特定された手の領域に対して識別番号を順に付与し、各画像間で同じ識別番号が付与された手の領域の移動量を求める
    ことを特徴とする請求項1または2に記載の検出装置。
  4. コンピュータが、
    撮影される画像から手の領域を特定し、
    特定された領域の移動量に基づいて、移動量が小さい第1の領域と当該第1の領域よりも移動量が大きい第2の領域とを決定し、
    決定された第1の領域と第2の領域が結合して撮影された場合、撮影画像から第1の領域を除いた領域を導出し、
    導出された領域の画像に対して検出を行う
    処理を実行することを特徴とする検出方法。
JP2014045462A 2014-03-07 2014-03-07 検出装置および検出方法 Expired - Fee Related JP6229554B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014045462A JP6229554B2 (ja) 2014-03-07 2014-03-07 検出装置および検出方法
EP14196936.0A EP2916261A3 (en) 2014-03-07 2014-12-09 Detecting device and detecting method
US14/569,913 US9727145B2 (en) 2014-03-07 2014-12-15 Detecting device and detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014045462A JP6229554B2 (ja) 2014-03-07 2014-03-07 検出装置および検出方法

Publications (2)

Publication Number Publication Date
JP2015170206A true JP2015170206A (ja) 2015-09-28
JP6229554B2 JP6229554B2 (ja) 2017-11-15

Family

ID=52023269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014045462A Expired - Fee Related JP6229554B2 (ja) 2014-03-07 2014-03-07 検出装置および検出方法

Country Status (3)

Country Link
US (1) US9727145B2 (ja)
EP (1) EP2916261A3 (ja)
JP (1) JP6229554B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043730A (ja) * 2019-09-11 2021-03-18 株式会社ミクシィ 静止判定システム及びコンピュータプログラム
JP2022548730A (ja) * 2019-09-27 2022-11-21 アマゾン テクノロジーズ インコーポレイテッド 自動ユーザー識別用電子デバイス

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2014113049A (ru) * 2014-04-03 2015-10-10 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов со слежением за объектом на основании вычислительных признаков контуров для двух или более объектов
CN109872277A (zh) * 2017-12-04 2019-06-11 北京京东尚科信息技术有限公司 信息处理方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056861A (ja) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP2007533043A (ja) * 2004-04-15 2007-11-15 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
JP2010271944A (ja) * 2009-05-21 2010-12-02 Chuo Univ 周期ジェスチャ識別装置、周期ジェスチャ識別方法、周期ジェスチャ識別プログラム、及び記録媒体
JP2011501316A (ja) * 2007-10-26 2011-01-06 本田技研工業株式会社 ラベル割当を用いた手サイン認識
US20120163661A1 (en) * 2010-12-23 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for recognizing multi-user interactions

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4444583B2 (ja) 2003-05-21 2010-03-31 富士通株式会社 物体検出装置及びプログラム
JP4682820B2 (ja) * 2005-11-25 2011-05-11 ソニー株式会社 オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US8593402B2 (en) * 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
JP5887264B2 (ja) 2010-05-11 2016-03-16 日本システムウエア株式会社 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
JP5742583B2 (ja) * 2011-08-19 2015-07-01 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US9275277B2 (en) * 2013-02-22 2016-03-01 Kaiser Foundation Hospitals Using a combination of 2D and 3D image data to determine hand features information
KR20130088104A (ko) * 2013-04-09 2013-08-07 삼성전자주식회사 비접촉 방식의 인터페이스를 제공하기 위한 휴대 장치 및 방법
EP2797030B1 (en) * 2013-04-24 2021-06-16 Accenture Global Services Limited Biometric recognition
KR101472455B1 (ko) * 2013-07-18 2014-12-16 전자부품연구원 손동작 기반 사용자 인터페이스장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056861A (ja) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP2007533043A (ja) * 2004-04-15 2007-11-15 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
JP2011501316A (ja) * 2007-10-26 2011-01-06 本田技研工業株式会社 ラベル割当を用いた手サイン認識
JP2010271944A (ja) * 2009-05-21 2010-12-02 Chuo Univ 周期ジェスチャ識別装置、周期ジェスチャ識別方法、周期ジェスチャ識別プログラム、及び記録媒体
US20120163661A1 (en) * 2010-12-23 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for recognizing multi-user interactions

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
金山和功, 外2名: ""HMMを用いた手話単語の認識"", 電子情報通信学会技術研究報告, vol. 第104巻, 第91号, JPN6017035705, 21 May 2004 (2004-05-21), JP, pages 21 - 28, ISSN: 0003644452 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043730A (ja) * 2019-09-11 2021-03-18 株式会社ミクシィ 静止判定システム及びコンピュータプログラム
JP7397282B2 (ja) 2019-09-11 2023-12-13 株式会社Mixi 静止判定システム及びコンピュータプログラム
JP2022548730A (ja) * 2019-09-27 2022-11-21 アマゾン テクノロジーズ インコーポレイテッド 自動ユーザー識別用電子デバイス
JP7379677B2 (ja) 2019-09-27 2023-11-14 アマゾン テクノロジーズ インコーポレイテッド 自動ユーザー識別用電子デバイス

Also Published As

Publication number Publication date
US9727145B2 (en) 2017-08-08
US20150253861A1 (en) 2015-09-10
EP2916261A2 (en) 2015-09-09
EP2916261A3 (en) 2015-12-02
JP6229554B2 (ja) 2017-11-15

Similar Documents

Publication Publication Date Title
JP6201379B2 (ja) 位置算出システム、位置算出プログラム、および、位置算出方法
US20160063731A1 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
MY195861A (en) Information Processing Method, Electronic Device, and Computer Storage Medium
US20130293467A1 (en) User input processing with eye tracking
JP2011022945A (ja) 指先操作型情報提供システム、プログラム、記録媒体
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
JP7378354B2 (ja) ライブ動画ストリームからの指の押下の検出
JP2017199289A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
KR20120044484A (ko) 이미지 처리 시스템에서 물체 추적 장치 및 방법
JP6229554B2 (ja) 検出装置および検出方法
JP2013215549A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
US10042426B2 (en) Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium
US10095940B2 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
JP2016143077A (ja) 指先位置推定装置、指先位置推定方法、及び、プログラム
JP6530432B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20190266392A1 (en) Image processing apparatus, image processing method, and storage medium
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2015184906A (ja) 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP4972013B2 (ja) 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体
US9483125B2 (en) Position information obtaining device and method, and image display system
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム
JP2016018428A (ja) 電子機器、方法及びプログラム
WO2018161421A1 (zh) 终端设备的触摸显示屏幕的性能测试方法和性能测试装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171002

R150 Certificate of patent or registration of utility model

Ref document number: 6229554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees