JP6728865B2 - 手上げ検出装置及び手上げ検出プログラム - Google Patents

手上げ検出装置及び手上げ検出プログラム Download PDF

Info

Publication number
JP6728865B2
JP6728865B2 JP2016062499A JP2016062499A JP6728865B2 JP 6728865 B2 JP6728865 B2 JP 6728865B2 JP 2016062499 A JP2016062499 A JP 2016062499A JP 2016062499 A JP2016062499 A JP 2016062499A JP 6728865 B2 JP6728865 B2 JP 6728865B2
Authority
JP
Japan
Prior art keywords
hand
raising
image
unit
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016062499A
Other languages
English (en)
Other versions
JP2017174344A (ja
Inventor
新宮 淳
淳 新宮
昌嗣 外池
昌嗣 外池
大輔 池田
大輔 池田
祐介 宇野
祐介 宇野
佑介 山浦
佑介 山浦
亮子 薄葉
亮子 薄葉
大西 健司
健司 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016062499A priority Critical patent/JP6728865B2/ja
Priority to US15/223,807 priority patent/US10503969B2/en
Publication of JP2017174344A publication Critical patent/JP2017174344A/ja
Application granted granted Critical
Publication of JP6728865B2 publication Critical patent/JP6728865B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、手上げ検出装置及び手上げ検出プログラムに関する。
特許文献1には、撮像部が室内の人間を撮像し、高速・低解像度処理部が、撮像部が撮像した人間の映像に基づいて、その人間の室内における2次元、3次元の位置や方向を特定し、低速・高解像度処理部が、撮像部が撮像した人間の映像に基づいて、知識蓄積部に蓄積されたデータを用いて、人間のジェスチャーを特定し、行動・意図推定部が、高速・低解像度処理部による処理結果と、低速・高解像度処理部による処理結果とに基づいて、ベイズ分類を用いて、撮像対象となった人間の行動・意図を推定することが提案されている。
特許文献2には、カメラの撮影画像フレームに含まれる人物画像に基づいて、フレーム対応姿勢判定パラメータを取得し、記憶部に格納された複数の登録姿勢に対応する登録パラメータとの比較を実行して、フレーム対応姿勢判定パラメータに類似する登録パラメータを持つ登録姿勢を、撮影画像フレームに含まれる人物の姿勢として分類し、分類された登録姿勢に基づいて解析情報を生成することが提案されている。具体的には、カラーフィルタリング等によりスキン領域を検出することで頭部、胴体等を検出し、頭部、胴体の各々に楕円を対応付けて傾き等を求めることにより、姿勢を推定している。
特開2005−242759号公報 特開2007−48232号公報
本発明は、人物の3次元座標をそのまま用いて手上げ動作を検出する場合に比べて、手を上げていることを検出する処理負荷を軽減することを目的とする。
請求項1に記載の手上げ検出装置は、人物を含む予め定めた空間を3次元測定した結果を用いて、前記空間を上から見た画像に変換する変換部と、前記変換部によって変換された前記画像における前記人物のシルエット画像を用いて、手上げ動作を検出する検出部と、を備え、前記検出部は、前記シルエット画像の面積と前記シルエット画像を楕円近似した楕円の面積との面積比を用いて手上げ動作を検出する
請求項に記載の発明は、請求項1に記載の発明において、前記検出部によって手上げ動作が検出された場合に、手先の位置を検出する手先検出部を更に備える。
請求項に記載の発明は、請求項に記載の発明において、前記手先検出部は、手上げ動作をしていない場合の前記シルエット画像の最も高い位置を頭位置として、前記シルエット画像を楕円近似した楕円上の当該頭位置から最も遠い位置を手先位置として検出する。
請求項に記載の発明は、請求項又は請求項に記載の発明において、前記手先検出部は、顔の向きを更に検出して、検出した手先の位置の適否を判断する。
請求項に記載の発明は、請求項1〜の何れか1項に記載の発明において、前記検出部による検出結果を画像として表示する表示部を更に備える。
請求項に記載の発明は、請求項1〜の何れか1項に記載の発明において、前記検出部は、頭の高さから予め定めた距離以内の前記シルエット画像を用いて手上げ動作を検出する。
請求項に記載の手上げ検出プログラムは、コンピュータを、請求項1〜の何れか1項に記載の手上げ検出装置の各部として機能させる。
請求項1に記載の発明によれば、人物の3次元座標をそのまま用いて手上げ動作を検出する場合に比べて、手を上げていることを検出する処理負荷を軽減可能な手上げ検出装置を提供できる。
請求項に記載の発明によれば、店舗の棚を触った位置、または会議室で何をポインティングしているかを検出することができる。
請求項に記載の発明によれば、人物の3次元座標をそのまま用いて手先位置を検出する場合に比べて、手先位置を検出する処理負荷を軽減することができる。
請求項に記載の発明によれば、検出した手先の位置が正しいか否かを確認できる。
請求項に記載の発明によれば、手上げの検出結果に対するユーザの反応を見て、手上げ検出結果を修正することができる。
請求項に記載の発明によれば、高さを制限しないシルエット画像を用いて手上げ動作を検出する場合に比べて手上げ検出精度を向上することができる。
請求項に記載の発明によれば、物の3次元座標をそのまま用いて手上げ動作を検出する場合に比べて、手を上げていることを検出する処理負荷を軽減可能な手上げ検出プログラムを提供できる。
本実施形態に係る手上げ検出装置の概略構成を示す図である。 本実施形態に係る手上げ検出装置において手上げ検出プログラムによって実行される機能を示す機能ブロック図である。 3Dセンサによる人物の検出の様子を表す図である。 (A)は手を上げていない人を示す図であり、(B)は(A)の上から見た画像を示す図であり、(C)は手を上げている人を示す図であり、(D)は(C)の上から見た画像を示す図である。 (A)は手を上げていない人を示す図であり、(B)は(A)をシルエット化した白黒の画像及び近似された楕円を示す図であり、(C)は手を上げて人を示す図であり、(D)は(C)をシルエット化した白黒の画像及び近似された楕円を示す図である。 (A)は手を上げていない状態で最も高い場所である頭位置を示す図であり、(B)は頭位置から最も離れた楕円上の位置である手先を示す図であり、(C)は頭から顔向き方向へのベクトルと、頭から手先方向へのベクトルが近い場合を示す図であり、(D)は頭から顔向き方向へのベクトルと、頭から手先方向へのベクトルが遠い場合を示す図である。 本実施形態に係る手上げ検出装置で行われる処理の流れの一例を示すフローチャートである。 (A)は距離画像を用いた頭の位置の検出例を示し、(B)は頭の高さから一定距離以内の高さを示す図である。
以下、図面を参照して本実施形態の一例を詳細に説明する。図1は、本実施形態に係わる手上げ検出装置の概略構成を示す図である。
本実施形態に係る手上げ検出装置10は、店舗や、デジタルサイネージ、会議室などにおいて、人が手を上げる動作を検出するものである。例えば、店舗において手を上げて商品にアクセスしたかを検出したり、大画面へのポインティングなどのジェスチャー操作を検出するためのものである。
図1に示すように、本実施形態に係る手上げ検出装置10は、CPU12、ROM14、RAM16、及びI/O18がバス21に接続されたコンピュータを含んで構成されている。
さらに、バス21には、モニタ22が接続されると共に、ハードディスク(HDD)20等の記憶装置が接続されている。モニタ22には各種情報や画像が表示され、HDD20には各種データベース等の各種データが記憶される。
ROM14には、人の手上げ動作を検出するための手上げ検出プログラム(詳細は後述)等が記憶されており、CPU12がこれらのプログラムを動作させることによって各種処理が行われる。
また、I/O18には、3Dセンサ24が接続されており、3Dセンサ24が設けられた予め定めた空間を3次元スキャンすることにより3次元測定する。例えば、3Dセンサ24はレーザ光線等をスキャン照射して反射光を受光することにより、反射対象物までの距離を検出することで3次元ポイントを測定する。3Dセンサ24の3次元スキャン結果は3DポイントクラウドとしてHDD20に記憶されるようになっている。3Dセンサ24は、空間の中での位置及び傾きなどが既知とされ、スキャンした3次元ポイントの3次元座標を部屋座標に変換可能とされているものとする。
なお、手上げ検出装置10に含まれるコンピュータには、この他にキーボード等の入力装置やその他の周辺装置も備える。また、I/Oには、上記以外にネットワーク等が接続され、ネットワークに接続された他の装置と通信可能としてもよい。
図2は、本実施形態に係る手上げ検出装置10において手上げ検出プログラムによって実行される機能を示す機能ブロック図である。
手上げ検出プログラムは、3Dポイントクラウド30、画像変換部32、シルエット抽出部34、楕円近似部36、手上げ検出部38、及び手先検出部40の機能を備えている。
3Dポイントクラウド30は、3Dセンサ24が設けられた予め定めた空間を3Dセンサ24によって3次元スキャンして、スキャン結果として検出した3次元ポイントデータの集合が3DポイントクラウドとしてHDD20に記憶される。3Dセンサ24の検出結果を随時記憶することで、例えば、図3に示すように、手を下ろした状態から手を上げた状態が3Dセンサ24によって検出されて、検出結果が3Dポイントクラウドとして記憶される。
画像変換部32は、3Dポイントクラウド30の3Dポイントデータを変換して、部屋の上から見た距離画像に変換する。例えば、図4(A)の手を上げていない人の場合には図4(B)のように上から見た画像に変換し、図4(C)の手を上げている人の場合には図4(D)のように上から見た画像に変換する。すなわち、俯瞰画像に変換して、ピクセルの値は高さにする。
シルエット抽出部34は、画像変換部32によって変換された画像をシルエット化して人物の領域をシルエット画像として抽出する。ここで本願におけるシルエット化とは、画像の輪郭の内側部分を同一の色にした画像にする処理を指している。例えば、本実施形態では、画像変換部によって上からの距離画像に変換された画像データに基づいて、閾値より低い部分を床の高さの画像データとして黒画素にし、床より上の高さの画像データは白画素にするようにして2値化することで、上からの距離画像の内部を同一の色に変換したシルエット化を施し、人物の領域(床上部分)をシルエット画像として抽出する。具体的には、図5(A)のように手を下ろした人の場合は図5(B)のように白黒の画像としてシルエット化してシルエット画像を抽出し、図5(C)のように手を上げて人の場合は図5(D)のように白黒の画像としてシルエット化してシルエット画像を抽出する。
楕円近似部36は、シルエット抽出部34で抽出された人物の領域を、当該人物の領域に外接する楕円に近似する。例えば、手を下ろした人の場合は図5(B)のような楕円に近似し、手を上げた人の場合には図5(D)のような楕円に近似する。
手上げ検出部38は、シルエット抽出部34によって抽出されたシルエット画像と、楕円近似部36によって近似された楕円とを用いて、手上げ動作を検出する。例えば、シルエット画像の面積と近似された楕円の面積との面積比を用いて手上げ動作を検出する。具体的には、図5(B)に示すように、手を下げている場合には、楕円の面積は、シルエット画像の面積と同等の面積となる。一方、図5(D)に示すように、手を上げている場合には、楕円の面積はシルエット画像の面積より大きくなる。そこで、手上げ検出部38は、シルエット画像の面積を近似された楕円の面積で除算したシルエット面積比が予め定めた閾値より小さい場合に手を上げていると判断する。なお、手上げ検出部38は、楕円の面積をシルエット画像の面積除算した面積比が予め定めた閾値より大きい場合に手を上げていると判断してもよい。
手先検出部40は、画像変換部32によって変換された上から見た距離画像から、図6(A)に示すように、手を上げていない状態で最も高い場所を頭位置として検出する。そして、図6(B)に示すように、頭位置から最も離れた楕円近似部36によって近似された楕円上の位置を手先位置として人物の手先を検出する。
なお、手先検出部40で手先位置を検出する際に、手を頭よりも高い位置に伸ばした場合には、頭の位置と混乱する可能性があるため、頭の位置はトラッキングしておき、突然の位置変化は手先位置として判断してもよい。或いは、頭の位置は、手先に比べて楕円の端にならないことを利用して手先と頭の位置を区別してもよい。
また、手先検出部40で手先を検出する際に、顔の向きを検出して手先の検出結果の信頼性を高めてもよい。例えば、図6(C)のように顔の向きと手先の位置で、頭から顔向き方向へのベクトルと、頭から手先方向へのベクトルが近い場合(例えば、各々のベクトルのなす角度が予め定めた閾値未満の場合)には、手先の検出結果の信頼性が高いと判断する。一方、図6(D)のように、頭から顔向き方向へのベクトルと、頭から手先方向へのベクトルが遠い場合(例えば、各々のベクトルのなす角度が予め定めた閾値以上の場合)には、手先の検出結果の信頼性が低いと判断する。なお、顔向きは、頭の3次元位置を元に、おおよその頭のサイズの範囲から、通常のカメラの撮影画像や距離画像を用いて周知技術により顔向きを検出する。
続いて、上述のように構成された本実施形態に係る手上げ検出装置10で行われる具体的な処理について説明する。図7は、本実施形態に係る手上げ検出装置10で行われる処理の流れの一例を示すフローチャートである。なお、図7の処理は、ROM14に記憶された手上げ検出プログラムをCPU12がRAM16に展開して実行することにより行われる。
ステップ100では、画像変換部32が、3Dポイントクラウド30の3Dポイントデータを、部屋の上から見た距離画像に変換してステップ102へ移行する。
ステップ102では、手上げ検出部38が手上げ動作を検出したか否かを判定する。該判定は、シルエット抽出部34によってシルエット画像の抽出を行って、楕円近似部36によって人物の領域を楕円近似する。そして、シルエット画像の面積を近似された楕円の面積で除算したシルエット面積比を求めて、求めたシルエット面積比が予め定めた閾値より小さいか否かを判定する。該判定が否定された場合にはステップ100に戻って上述の処理を繰り返し、判定が肯定された場合にはステップ104へ移行する。
ステップ104では、手先検出部40が手先の位置を検出してステップ106へ移行する。すなわち、手先検出部40が、画像変換部32によって変換された上から見た距離画像から、手を上げていない状態で最も高い場所を頭位置として検出し、頭位置から最も離れた楕円近似部36によって近似された楕円上の位置を手先として検出する。
ステップ106では、手先検出部40が、モニタ22に操作者の映像や、手先のポインタ等を表示してステップ108へ移行する。
ステップ108では、手上げ検出部38が一定時間以内に手上げ動作を停止したか否かを判定する。該判定は、手上げ動作を間違って検出したか否かを判定するために、予め定めた一定時間以内に手上げ動作が終了したか否かを判定する。該判定が肯定された場合にはステップ110へ移行し、否定された場合にはステップ112へ移行する。
ステップ110では、手上げ検出部38が、手上げ動作の誤検出と判断してフィードバックや操作停止を行ってステップ100に戻って上述の処理を繰り返す。すなわち、一定時間以内に手上げ動作が停止された場合には、手上げ動作の判定が間違っていると判断する。そして、手上げ動作の検出が敏感過ぎるため、手上げ動作を判定するためのシルエット面積比の閾値等の調整などのフィードバックを行ったり、表示コンテンツのクリックなどの操作を停止する。
一方、ステップ112では、手先検出部40が、手先によるインタラクションを継続してステップ100に戻って上述の処理を繰り返す。すなわち、手先検出部40が、画像変換部32によって変換された上から見た距離画像から、手を上げていない状態で最も高い場所を頭位置として検出して、頭位置から最も離れた楕円近似部36によって近似された楕円上の位置を手先として検出する。手先検出部40によって検出された手先の位置が、ポインティングや操作として利用される。手先の位置が分かることで、人物が店舗の棚のどのあたりを触ったか、或いは会議室で何をポインティングしているかが分かる。なお、上述したように、手先検出部40で手先を検出する際に、顔の向きを更に検出して、手先の位置が正しいかどうかを確認してもよい。
また、上記の実施形態では、手上げ検出部38で手上げ動作を検出する際に、検出対象とする高さに制限を設けて手上げ検出を行ってもよい。例えば、図8(A)に示すように、画像変換部32によって変換された距離画像を用いて頭の位置を検出し、図8(B)に示すように、頭の高さから予め定めた一定距離以内の距離画像、または床からの高さが予め定めた高さ以上の高さの距離画像のみを用いて手上げ検出を行う。具体的には、シルエット抽出部34が2値化してシルエット画像を抽出する際に、頭の高さから一定距離以内か否か、または床から予め定めた高さ以上か否かにより2値化してシルエット画像を抽出する。これにより、座っているときの足などの腕以外のものが除外されて、手上げ検出の精度が上がる。
また、上記の実施形態に係る手上げ検出装置10で行われる処理は、プログラムとして記憶媒体に記憶して流通させるようにしてもよい。
また、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 手上げ検出装置
24 3Dセンサ
30 3Dポイントクラウド
32 画像変換部
34 シルエット抽出部
36 楕円近似部
38 手上げ検出部
40 手先検出部

Claims (7)

  1. 人物を含む予め定めた空間を3次元測定した結果を用いて、前記空間を上から見た画像に変換する変換部と、
    前記変換部によって変換された前記画像における前記人物のシルエット画像を用いて、手上げ動作を検出する検出部と、
    を備え
    前記検出部は、前記シルエット画像の面積と前記シルエット画像を楕円近似した楕円の面積との面積比を用いて手上げ動作を検出する手上げ検出装置。
  2. 前記検出部によって手上げ動作が検出された場合に、手先の位置を検出する手先検出部を更に備えた請求項1に記載の手上げ検出装置。
  3. 前記手先検出部は、手上げ動作をしていない場合の前記シルエット画像の最も高い位置を頭位置として、前記シルエット画像を楕円近似した楕円上の当該頭位置から最も遠い位置を手先位置として検出する請求項に記載の手上げ検出装置。
  4. 前記手先検出部は、顔の向きを更に検出して、検出した手先の位置の適否を判断する請求項2又は請求項3に記載の手上げ検出装置。
  5. 前記検出部による検出結果を画像として表示する表示部を更に備えた請求項1〜4の何れか1項に記載の手上げ検出装置。
  6. 前記検出部は、頭の高さから予め定めた距離以内の前記シルエット画像を用いて手上げ動作を検出する請求項1〜5の何れか1項に記載の手上げ検出装置。
  7. コンピュータを、請求項1〜6の何れか1項に記載の手上げ検出装置の各部として機能させるための手上げ検出プログラム
JP2016062499A 2016-03-25 2016-03-25 手上げ検出装置及び手上げ検出プログラム Active JP6728865B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016062499A JP6728865B2 (ja) 2016-03-25 2016-03-25 手上げ検出装置及び手上げ検出プログラム
US15/223,807 US10503969B2 (en) 2016-03-25 2016-07-29 Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016062499A JP6728865B2 (ja) 2016-03-25 2016-03-25 手上げ検出装置及び手上げ検出プログラム

Publications (2)

Publication Number Publication Date
JP2017174344A JP2017174344A (ja) 2017-09-28
JP6728865B2 true JP6728865B2 (ja) 2020-07-22

Family

ID=59898058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016062499A Active JP6728865B2 (ja) 2016-03-25 2016-03-25 手上げ検出装置及び手上げ検出プログラム

Country Status (2)

Country Link
US (1) US10503969B2 (ja)
JP (1) JP6728865B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6197952B2 (ja) * 2014-05-12 2017-09-20 富士通株式会社 商品情報出力方法、商品情報出力プログラムおよび制御装置
JP2019015553A (ja) * 2017-07-05 2019-01-31 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法および個体撮像装置
CN109241901B (zh) * 2018-08-30 2019-08-06 天津理工大学 一种对具有孔洞的三维点云的检测与识别方法
CN109255815B (zh) * 2018-08-30 2019-11-12 天津理工大学 一种基于零阶球谐函数的物体检测与识别方法
US11157728B1 (en) * 2020-04-02 2021-10-26 Ricoh Co., Ltd. Person detection and identification using overhead depth images
CN112299172A (zh) * 2020-10-31 2021-02-02 成都新潮传媒集团有限公司 手势求救的识别方法、装置及存储介质

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242759A (ja) 2004-02-27 2005-09-08 National Institute Of Information & Communication Technology 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US7324080B1 (en) * 2004-12-03 2008-01-29 Sysview Technology, Inc. Backlighting in liquid crystal flat panel display
US7990352B2 (en) * 2005-02-23 2011-08-02 Money Park Investments Ltd. Monochromatic liquid crystal display for colors
JP2007048232A (ja) 2005-08-12 2007-02-22 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
TWI287664B (en) * 2006-03-23 2007-10-01 Chunghwa Picture Tubes Ltd Backlight module
US7427140B1 (en) * 2007-04-19 2008-09-23 Yao-Dong Ma Sunlight readable direct-view and projection-view computing device
US7853288B2 (en) * 2007-08-30 2010-12-14 MacroDisplay, Inc. Sunlight illuminated and sunlight readable mobile phone
US8125163B2 (en) * 2008-05-21 2012-02-28 Manufacturing Resources International, Inc. Backlight adjustment system
CN102334086A (zh) * 2009-01-26 2012-01-25 泽罗技术(2009)有限公司 用于监测物体行为的装置和方法
CA2752734A1 (en) * 2009-02-16 2010-08-19 Manufacturing Resources International, Inc. Display characteristic feedback loop
US9812047B2 (en) * 2010-02-25 2017-11-07 Manufacturing Resources International, Inc. System and method for remotely monitoring the operating life of electronic displays
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
JP5416828B2 (ja) * 2010-02-24 2014-02-12 シャープ株式会社 画像表示用発光装置および画像表示装置
US8508155B2 (en) * 2010-04-14 2013-08-13 Manufacturing Resources International, Inc. System and method for calibrating backlight devices
US8582834B2 (en) * 2010-08-30 2013-11-12 Apple Inc. Multi-image face-based image processing
CN102402680B (zh) * 2010-09-13 2014-07-30 株式会社理光 人机交互***中手部、指示点定位方法和手势确定方法
CN103988150B (zh) * 2011-03-25 2018-02-13 奥布隆工业有限公司 用于初始化基于视觉的手***的快速指尖检测
JP5898014B2 (ja) * 2012-07-26 2016-04-06 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
WO2014106219A1 (en) * 2012-12-31 2014-07-03 Burachas Giedrius Tomas User centric interface for interaction with visual display that recognizes user intentions
KR101992310B1 (ko) * 2013-03-25 2019-09-30 엘지디스플레이 주식회사 표시 장치의 영상 처리 방법 및 장치
US20150297986A1 (en) * 2014-04-18 2015-10-22 Aquifi, Inc. Systems and methods for interactive video games with motion dependent gesture inputs
JP2015212892A (ja) * 2014-05-02 2015-11-26 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
US10133454B2 (en) * 2014-07-18 2018-11-20 Apple Inc. Stackable pagination indicators
TWI521387B (zh) * 2014-12-25 2016-02-11 國立臺灣大學 三維空間中之可重置式虛擬觸控板
US10593255B2 (en) * 2015-05-14 2020-03-17 Manufacturing Resources International, Inc. Electronic display with environmental adaptation of display characteristics based on location
US9924583B2 (en) * 2015-05-14 2018-03-20 Mnaufacturing Resources International, Inc. Display brightness control based on location data
US10922736B2 (en) * 2015-05-15 2021-02-16 Manufacturing Resources International, Inc. Smart electronic display for restaurants
US20160334666A1 (en) * 2015-05-15 2016-11-17 Litemax Electronics Inc. Lcd heating control system and method thereof
KR102231046B1 (ko) * 2015-05-28 2021-03-23 엘지디스플레이 주식회사 화질 향상을 위한 표시 장치 및 그 구동 방법
CN107103893B (zh) * 2017-06-30 2019-09-27 上海天马有机发光显示技术有限公司 一种改善圆形显示屏边缘显示效果的方法

Also Published As

Publication number Publication date
US10503969B2 (en) 2019-12-10
JP2017174344A (ja) 2017-09-28
US20170277943A1 (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6728865B2 (ja) 手上げ検出装置及び手上げ検出プログラム
JP6125188B2 (ja) 映像処理方法及び装置
JP4929109B2 (ja) ジェスチャ認識装置及びその方法
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
EP3107070B1 (en) Information processing device and information processing method
US9542755B2 (en) Image processor and image processing method
JP6455234B2 (ja) 行動検出方法及び行動検出装置
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
CN107038402B (zh) 用于患者移动检测的检测方法及检测设备
JP4153819B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
KR102041191B1 (ko) 손 동작 인식 방법 및 장치
JP2009288917A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004301607A (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
JP4710426B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2011198270A (ja) 対象認識装置及びそれを用いた制御装置、並びに対象認識方法
JP6661082B2 (ja) 画像認識装置、及び画像認識プログラム
KR100983051B1 (ko) 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린장치
JP2018063675A (ja) 画像処理装置および制御方法
JP5935118B2 (ja) 物体検出装置および物体検出方法
JP6769859B2 (ja) 画像処理装置及び画像処理方法
JP6737262B2 (ja) 異常状態検知装置、異常状態検知方法、及び、異常状態検知プログラム
JP2013190873A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R150 Certificate of patent or registration of utility model

Ref document number: 6728865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350