JP4650381B2 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP4650381B2
JP4650381B2 JP2006243788A JP2006243788A JP4650381B2 JP 4650381 B2 JP4650381 B2 JP 4650381B2 JP 2006243788 A JP2006243788 A JP 2006243788A JP 2006243788 A JP2006243788 A JP 2006243788A JP 4650381 B2 JP4650381 B2 JP 4650381B2
Authority
JP
Japan
Prior art keywords
signal
flag
image
detection
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006243788A
Other languages
English (en)
Other versions
JP2008065663A (ja
Inventor
正博 北浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2006243788A priority Critical patent/JP4650381B2/ja
Priority to CNB2007101381886A priority patent/CN100512397C/zh
Priority to US11/896,839 priority patent/US8179367B2/en
Publication of JP2008065663A publication Critical patent/JP2008065663A/ja
Application granted granted Critical
Publication of JP4650381B2 publication Critical patent/JP4650381B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Image Processing (AREA)

Description

本発明は電子機器に係り、特にテレビジョン受像機やパーソナルコンピュータのように表示装置を有する電子機器における遠隔操作の仕方を改良した電子機器に関する。
1980年代に赤外線リモートコントローラ(通称リモコン)がテレビジョン受像機をはじめとする家電機器に付属するようになり、手元で制御できるユーザインターフェースが広く普及し、家電製品の利用形態を大きく変貌させた。現在においてもこの操作形態が主流であるが、リモコンは1つの機能を1つのキー(ボタン)を押すことにより実行させる仕組みが基本となっており、例えばテレビジョン受像機では、「電源」「チャンネル」「音量」「入力切替」などのキーがそれに該当し、これまでのテレビジョン受像機にとって大変便利な遠隔の操作方法であった。
しかしながら、最近始まったデータ放送は、所望のメニュー画面を選択するために、リモコンの「上」「下」「左」「右」や「決定」キーを何度も押下することになり、煩雑で使いづらくなっている。また、EPG(電子プログラムガイド)は、マトリクスに配列された案内画面から所望の位置を選択してキーを押下するため、同様の課題を有していた。
本出願人による先願である特開2006−091948号公報(特許文献1)には、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させると共に、リモコンのような遠隔操作用機器を手元で利用することを不要とした電子機器が提案されている。特許文献1に記載の電子機器はユーザの手の動作をビデオカメラで撮影して、その動作から表示装置に表示されている操作ボタンに対する操作内容を識別するものである。
特開2006−091948号公報
特許文献1に記載の電子機器においては、ユーザが表示装置に表示されている操作ボタンに手をかざして操作したことをかなり精度よく検出することが可能である。しかしながら、例えばビデオカメラで撮影しているユーザの背景の色と手の色とが近似している場合など、誤検出しやすい状況でも更に精度よく操作ボタンの操作を検出することが望まれる。
本発明はこの点に着目してなされたものであり、表示装置に表示された操作ボタンに手などをかざして操作ボタンを操作する際に、操作ボタンの操作を更に確実に検出できる電子機器を提供することを目的とする。
上記した課題を解決するために本発明は、次の(a)〜(f)を提供するものである。
(a)電子機器において、表示装置21と、前記表示装置の前に位置する操作者3を撮影するビデオカメラ2と、前記ビデオカメラで撮影された画像の鏡像変換を行う鏡像変換器13と、少なくとも1つの操作ボタン(1−1)〜(1−8)を含む操作用画像41を生成する操作用画像生成器15と、前記鏡像変換器より出力された鏡像変換画像信号と前記操作用画像生成器より出力された操作用画像信号とを混合する混合器16と、前記混合器により混合された画像を前記表示装置の画面上に表示させた状態で、前記画面に表示された操作者が前記操作ボタンを対象物により操作する所定の動作に対応した検出信号を発生する検出器17と、前記検出器により出力される検出信号に基づいて、操作された前記操作ボタンに対応する制御動作を行う制御器18とを備え、前記検出器は、前記鏡像変換画像信号における前記操作ボタンに対応して設けられた検出領域45の画像信号を記憶する第1のメモリ80と、前記鏡像変換画像信号における前記検出領域の周辺に位置する周辺検出領域46,461の画像信号を記憶する第2のメモリ84と、前記鏡像変換画像信号の現在の画面の画像信号と前記第1のメモリから読み出された過去の画面の画像信号との差分を求めることにより前記検出領域内にかざされている前記対象物の領域を示す画像信号を出力する第1の減算器81と、前記鏡像変換画像信号の現在の画面の画像信号と前記第2のメモリから読み出された過去の画面の画像信号との差分を求めることにより前記周辺検出領域内にかざされている前記対象物の領域を示す画像信号を出力する第2の減算器85と、前記第1の減算器からの出力信号を用いて得られた前記対象物の領域を示す画像信号に基づいて前記検出信号を発生する発生器32と、前記第2の減算器より出力された前記画像信号に基づいて、前記周辺検出領域内における前記対象物がかざされている領域の大きさに応じて発生する発生量を示す第1のデータを算出する算出器89とを備え、更に前記電子機器は、前記第1のデータの大きさに応じて前記第1のメモリの書き込みを停止するよう制御する書き込み制御部18とを備えることを特徴とする電子機器。
(b)前記書き込み制御部は、前記第1のデータにおける予め定めた第1の閾値を超えた期間に対応して第1のフラグを生成する第1のフラグ生成器180と、前記検出領域内にかざされている前記対象物の領域の大きさに応じて発生する発生量を示す第2のデータを算出し、前記第2のデータにおける予め定めた第2の閾値を超えた期間に対応して第2のフラグを生成する第2のフラグ生成器181と、前記第1のフラグと前記第2のフラグとに基づいて、前記第1のメモリの書き込みを停止するための書き込み停止フラグを生成するための第3のフラグ生成器187とを備えることを特徴とする(a)記載の電子機器。
(c)前記第1のフラグ生成器は、前記第1のデータが前記第1の閾値を超えた時点から所定の時間を経過した時点で発生する前記第1のフラグを生成することを特徴とする(b)記載の電子機器。
(d)前記第1のフラグ生成器は、前記第1のデータが前記第1の閾値を超えた時点で発生する第4のフラグを生成し、前記第3のフラグ生成器は、前記第1のフラグと前記第2のフラグと前記第4のフラグとに基づいて前記書き込み停止フラグを生成することを特徴とする(c)記載の電子機器。
(e)前記第1のフラグ生成器は、前記第1のデータにおける予め定めた第3の閾値を超えた期間に対応して第5のフラグを生成し、前記制御器は、前記第5のフラグに基づいて前記制御動作を停止させることを特徴とする(b)ないし(d)のいずれか一項に記載の電子機器。
(f)前記鏡像変換画像信号の輝度信号と色信号とを加算して加算信号を出力する加算器92を備え、前記第1及び第2のメモリに入力される前記画像信号は、前記加算器より出力された前記加算信号であることを特徴とする(a)ないし(e)のいずれか一項に記載の電子機器。
本発明によれば、表示装置に表示された操作ボタンに手などをかざして操作ボタンを操作する際に、操作ボタンの操作を更に確実に検出できる。
図1は、電子機器(テレビジョン受像機1)を操作する方法において、リモコン装置による従来の操作方法と、本発明の一実施形態である操作方法との違いを説明するための図である。
操作者(ユーザ)3がテレビジョン受像機1を従来の操作方法で操作する場合、ユーザ3はリモコン装置4を手に持ち、所望の機能を働かせるキーをテレビジョン受像機1に向けて押下する。従って、リモコン装置4が無ければテレビジョン受像機1を操作できず、不便を強いられる場合を時々経験する。
これに対し、本実施形態の操作方法では、テレビジョン受像機1に、ビデオカメラ2が設けられており、ビデオカメラ2によりユーザ3が撮影され、ビデオカメラ2の画像からユーザ3の動作を得て、テレビジョン受像機1及びそれに関連する機器の操作が行われる。
ユーザ3の動作とは、具体的にはテレビジョン受像機1の表示装置21に表示されるメニュー画面から所望のボタンを選択する身体(手、足、顔など)の動きのことである。本実施形態では後述するように最も実用的である手の動きで操作する方法が採用されている。またテレビジョン受像機1の周囲が暗いときは、自発光機能を具備した遠隔操作用機器(手元制御機器)を用いることにより、手の動作と同様の効果を得るようにしている。遠隔操作用機器については後述する。
図2は、テレビジョン受像機1の構成を示すブロック図であり、テレビジョン受像機1は、ビデオカメラ2、基準同期発生器11、タイミングパルス発生器12、鏡像変換器13、スケーラ14、グラフィックス生成器15、第1の混合器16、検出部17、制御情報判断器(CPU)18、画素数変換器19、第2の混合器20、及び表示装置21を備えている。
基準同期発生器11は、入力される同期信号に基づいて、テレビジョン受像機1の基準となる水平周期パルスと垂直周期パルスを発生する。ここで、同期信号は画素数変換器19に入力される映像信号の水平及び垂直同期信号である。テレビジョン放送受信時や外部の機器から映像信号が入力されている場合は、基準同期発生器11はその入力信号の同期信号に同期するパルスを生成する。タイミングパルス発生器12は、図2に示す各ブロックで必要とする水平方向と垂直方向の任意の位相と幅を有するパルスを生成する。
ビデオカメラ2は、図1に示すようにテレビジョン受像機1の前面に位置してユーザ3、またはテレビジョン受像機1の前の映像を撮影する。ビデオカメラ2の出力信号は、輝度(Y)信号、及び色差(R−Y、B−Y)信号であり、基準同期発生器11から出力される水平周期パルス及び垂直周期パルスに同期している。
鏡像変換器13は、ビデオカメラ2で撮影した被写体像を表示装置21上に鏡と同じように左右を反転して表示するためのものである。従って、文字を表示する場合は鏡と同じように左右が反転することになる。本実施形態では、メモリを活用して水平方向の画像を反転させる方法により鏡像変換が行われる。表示装置21として陰極線管(CRT(Cathode Ray Tube))を用いる場合には、水平偏向を逆に操作することで同様の効果が得られる。その場合には、グラフィックスやその他混合する側の画像をあらかじめ水平方向に左右逆転させておく必要がある。
スケーラ14は、ビデオカメラ2により撮影した被写体像の大きさを調整するもので、制御情報判断器18の制御で拡大率と縮小率を2次元で調整する。また、拡大縮小を行わずに、水平と垂直の位相調整を行うこともできる。
グラフィックス生成器15は、制御情報判断器18から供給されるメニュー画面(操作用画像)を生成するための制御信号に基づいてメニュー画面を展開するもので、メモリ上の信号がR(赤)信号、G(緑)信号、B(青)信号の原色信号で展開されていても、後段で映像信号と合成または混合される出力信号は、輝度(Y)信号と色差(R−Y、B−Y)信号とする。また生成されるグラフィックスのプレーン数は限定するものではないが、本実施形態では1プレーンでよい。
メニュー画面を構成するグラフィックスの画素数は、本実施形態では表示装置21の画素数に一致させるようにしている。一致していない場合は、グラフィックス生成器15内またはグラフィックス生成器15の後段に画素数変換器を設けて、互いの画素数を一致させればよい。
第1の混合器16は、スケーラ14の出力信号S1とグラフィックス生成器15の出力信号Gsとを、制御値α1により混合割合を制御して混合する。具体的には、下記(1)式で出力信号M1oが表される。
M1o=α1×S1+(1−α1)×Gs…(1)
制御値α1は、「0」から「1」の間の値に設定され、制御値α1を大きくするとスケーラ14の出力信号S1の割合が大きくなり、グラフィックス生成器15の出力信号Gsの割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
検出部17は、第1の検出器171、第2の検出器172、…第nの検出器17nを備える。検出部17に含まれる検出器は数を特定するものではなく、グラフィックス生成器15で生成されるメニュー画面と連携した制御内容を表す後述するプッシュボタンの数に対応して変動する。なお、プッシュボタンとはパソコンにおいてマウスでクリック操作する操作ボタンに該当するものである。
制御情報判断器18は、検出部17から出力されるデータ(検出信号)の解析を行い、各種制御信号を出力する。制御情報判断器18は、入力されるデータに基づいて操作されたプッシュボタンに対応する制御信号を生成し、各部を制御する。制御情報判断器18はソフトウェアで各種の処理を行うものであり、アルゴリズムについての詳細は後述する。本実施形態では、ハードウェア(各機能ブロック)による処理と、ソフトウェア(制御情報判断器18のCPU)による処理とが混在するが、特にここで示す区分けに限定するものではなく、ハードウェアとソフトウェアとをどのように用いてもよい。
画素数変換器19は、入力される映像信号の画素数と表示装置21の画素数を合わせるための画素数変換を行う。入力映像信号は、図示を省略している内蔵のチューナにて受信したテレビジョン信号(データ放送なども含む)による映像信号やビデオ(VTR)入力などテレビジョン受像機1の外部から入力される映像信号である。ここでは図示を省略するが、入力映像信号から水平及び垂直同期信号を抽出して、基準同期発生器11によって各部を入力映像信号の水平及び垂直同期信号に同期させるようにしている。
第2の混合器20は、第1の混合器16と同様の機能を有する。すなわち、第1の混合器16の出力信号M1oと、画素数変換器19の出力信号S2とを制御値α2で混合割合を制御して混合する。具体的には、下記(2)式で出力信号M2oが表される。
M2o=α2×M1o+(1−α2)×S2…(2)
制御値α2は、「0」から「1」の間の値に設定され、制御値α2を大きくすると第1の混合器16の出力信号M1oの割合が大きくなり、画素数変換器19の出力信号S2の割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
表示装置21は、CRT、液晶ディスプレイ(LCD)、プラズマディスプレイ(PDP)あるいはプロジェクションディスプレイなどを想定しているが、ディスプレイの表示方式を限定するものではない。表示装置21の入力信号は、輝度信号Yと、色差信号R−Y及びB−Yであり、表示装置21の内部にてRGB原色信号にマトリクス変換されて表示される。
以上のように構成されたテレビジョン受像機1の動作を、ユーザ3の動作を交えて説明する。図3は、グラフィックス生成器15の出力画像(以下、グラフィックス画像)41と、ビデオカメラ画像を鏡像変換し、スケーリングによりグラフィックス画像41と画素数を一致させたスケーラ14の出力画像(以下、スケーラ出力画像)43とを示している。この二つの画像41及び43に対応する信号が、第1の混合器16で混合される。
グラフィックス画像41は、操作を行うためのメニュー画面(操作用画像)を形成しており、矩形状の枠42はプッシュボタン(操作ボタン)を表す。一方のスケーラ出力画像43は、ユーザ3を撮影し、鏡と同じように表示するものである。スケーラ出力画像43の中の破線で示す矩形状の枠44は、複数の検出器171〜17nからなる検出部17で検出する検出エリアを表したもので、グラフィックス画像41上のプッシュボタン42と同一の位置に配置されている。
図4は、第1の混合器16における混合処理を説明するための図である。図4(A)は図3に示したグラフィックス生成器15で生成される操作メニュー画面(グラフィックス画像41)を表したものであり、プッシュボタン(1−1)〜(1−8)が含まれている。図4(B)は、図3に示したビデオカメラ2でユーザ3を撮影した鏡像変換及びスケーラ処理済みの画面(スケーラ出力画像43)で、検出部17の各検出器に対応する検出エリア(2−1)〜(2−8)が含まれている。
第1の混合器16にて、図4(A)及び(B)に示す画面を制御値α1に対応する混合割合で混合した画面を、図4(C)に示す。なお、図4(C)に表示されるユーザ3の画像は、実際には、図4(B)に示される画像より、制御値α1に対応して輝度及びコントラストが低下したものとなる。
このように表示装置21には、ユーザ3の画像が鏡と同様に表示されると共に、操作メニュー画面も重畳されて表示される。これによりユーザ3は、自分の動きと操作メニュー(プッシュボタン(1−1)〜(1−8))の位置を認識することができる。テレビジョン受像機1の操作は、ユーザ3が画面を見て、画面上のプッシュボタン(1−1)〜(1−8)に触れるように手(身体)を動かすことにより行う。
なお、ここではプッシュボタン(1−1)〜(1−8)に触れると表現したが、ユーザ3が実際に画面に触れるということではなく、プッシュボタン(1−1)〜(1−8)に相当する位置に手をかざして、表示装置21に表示されたユーザ3の映像がプッシュボタン(1−1)〜(1−8)に触れるということである。換言すれば、手をプッシュボタン(1−1)〜(1−8)上に位置するように画面を見てユーザ3が動作することにより、テレビジョン受像機1を操作する。
検出部17が、ユーザ3が手をかざしたプッシュボタン(1−1)〜(1−8)に対応して設けられている検出エリア(2−1)〜(2−8)内の手を検出し、制御情報判断器18は該当するプッシュボタン(1−1)〜(1−8)が押されたことを認識する。従って、制御情報判断器18から該当するプッシュボタンの制御内容に相当する制御信号を出力することができる。その際、メニュー画面の操作されたプッシュボタンの形状または色を変化させて、動作が認識されたことを画面上に表すことが好ましい。例えばプッシュボタンが押されたように画像を変化させる。
図5は、ビデオカメラ2からの画像(スケーラ出力画像43)上に設定している検出エリア(2−1)〜(2−8)と、検出部17の検出器171〜174との対応関係を示し、更に検出エリア(2−1)〜(2−8)のうち、検出エリア(2−1)と(2−8)を特定する水平及び垂直のタイミングパルスを示す。
各検出器171〜17nは、図6に示すように、オブジェクト抽出器30と、タイミングゲート器31と、オブジェクト特徴データ検出部32とを備えている。オブジェクト抽出器30は、画像の特徴に添ったフィルタを備えており、フィルタ処理をした画像信号をタイミングゲート器31に出力する。タイミングゲート器31は、図5に示したタイミングパルスでビデオカメラ2からの画像信号の通過を制御する。通過する領域は図5に破線の枠で示す検出エリア(2−1)〜(2−8)内である。
この検出エリア(2−1)〜(2−8)内に限定した信号に対して、オブジェクト特徴データ検出部32は種々のフィルタ処理を施してビデオカメラ2で撮影したユーザ3の手の画像を抽出する。なお、本実施形態では各検出器171〜17nはそれぞれオブジェクト抽出器30を備えているが、各オブジェクト抽出器30の機能が同じであれば各検出器171〜17nの前段に一つのオブジェクト抽出器を設けて簡略化してもよい。
図7にオブジェクト抽出器30の詳細ブロック図を示す。本実施形態でオブジェクト抽出器30はユーザ3の手を検出するためのフィルタ処理を行う。すなわち、本実施形態のオブジェクト抽出器30は、特定色フィルタ71と、階調限定器72と、時間差分フィルタ75と、合成器73と、オブジェクトゲート器74とを備えている。
特定色フィルタ71、階調限定器72及び時間差分フィルタ75は、それぞれオブジェクトを特定するフィルタである。特定色フィルタ71は、色差信号で入力される色信号の色相と色の濃さ(飽和度)を限定し、階調限定器72は、輝度信号の特定の階調の範囲を限定する。
特定色フィルタ71で色相と飽和度を限定することで、人の肌色に絞ることはできるが、人の肌は日焼け具合で変化し、また人種によっても異なるため、肌色といってもさまざまである。従って制御情報判断器18より入力される制御信号によって、特定色フィルタ71で色相、飽和度を調整し、階調限定器72で輝度信号の階調限定の範囲を調整すれば、概ね人の手を検出することができる。
更に、本実施形態の時間差分フィルタ75を設けたことで、人の手の背景が肌色であっても、わずかな輝度の差などを基に手の領域を抽出し、人の手を識別することができる。
また、本実施形態では人の手をプッシュボタン(1−1)〜(1−8)を操作する対象物としているが、パラメータである色相や階調を調整し最適化することにより、手以外の対象物も検出することができる。
時間差分フィルタ75の詳細については、後述する。
合成器73は、特定色フィルタ71と階調限定器72と時間差分フィルタ75から入力される信号を合成し、領域パルスに変換する。本実施形態では、特定色フィルタ71を通過した信号と階調限定器72を通過した信号と時間差分フィルタ75を通過した信号とが全て存在(AND)する場合に、ハイレベルとなる領域パルスを出力する。なお、特定色フィルタ71と階調限定器72と時間差分フィルタ75のうち1つまたは2つを通過した信号が存在すれば、ハイレベルとなる領域パルスを出力するようにしてもよい。
特定色フィルタ71と階調限定器72と時間差分フィルタ75のうちの、2つを通過した信号が存在すればハイレベルとなるようにすれば誤検出しにくく、3つを通過した信号が存在すればハイレベルとなるようにすれば更に誤検出しにくくなる。
合成器73で生成された領域パルスは、オブジェクトゲート器74に供給される。オブジェクトゲート器74は、領域パルスがハイレベルであるとき、輝度信号と色差信号を通過させる。領域パルスがローレベル(領域パルス外の範囲)であるときは、輝度信号も色差信号も通過させず、規定した値の信号を出力する。本実施形態では、黒レベルの輝度信号及び飽和度0の色差信号を出力する。
図7に示す特定色フィルタ71について、図8を参照して説明する。図8は、色差平面図で、縦軸をR−Y、横軸をB−Yとしたものである。テレビジョン信号の全ての色信号はこの座標上のベクトルで表すことができ、極座標で評価できる。これを特定するために色相は、第1象限のB−Y軸を基準(0度)として左回りの角度で表現するものとする。また飽和度は、ベクトルのスカラ量となり、色差平面の原点が飽和度0で色がない状態となり、原点から離れるに従って飽和度が大きく色が濃いことを示す。
本実施形態では、特定色フィルタ71により抽出される範囲は図8に示すように、等色相線L1に対応する角度θ1より小さくかつ等色相線L2に対応する角度θ2より大きい範囲に設定され、また色の濃さは等飽和度線S1より大きくS2より小さい範囲に設定されている。第2象限のこの範囲は、本実施形態で抽出する人間の手の色である肌色の領域に相当するが、抽出する色の領域はこれに限定されるものではない。特定色フィルタ71は、ビデオカメラ2から出力される色差信号(R−Y、B−Y)から角度と飽和度を算出し、色差信号が等色相線と等飽和度線で囲まれた領域に入っているか否かを判定する。
角度算出は、一例として図9にフローチャートで示すような角度算出処理によって、入力画素それぞれについて、図8に示す色差平面上でなす角度を算出する。本実施形態では、角度算出処理をハードウェアで実現しているが、ソフトウェア、ハードウェアのいずれで実現してもよい。
図9に示す角度算出処理のステップS401にて、入力画素それぞれの色差信号R−Y、B−Y成分の符号より、入力画素の色相が、色差平面上の第何象限に位置しているかを検出する。ステップS402にて、色差信号R−Y、B−Y成分それぞれの絶対値|R−Y|、|B−Y|を比較して、大きいほうをA、小さいほうをBとして算出する。
そして、ステップS403にて、B/Aより角度T1を検出する。この角度T1は、ステップS402の処理より明らかなように、0°〜45°となる。角度T1は、折れ線近似やROMテーブルによって算出することができる。
ステップS404にて、Aが|R−Y|であるか、すなわち、|R−Y|>|B−Y|であるか否かを判定する。|R−Y|>|B−Y|でなければ、そのままステップS406に進む。|R−Y|>|B−Y|であれば、ステップS405にて、角度T1を、(90−T1)なる角度Tに置き換える。これによって、tan-1((R−Y)/(B−Y))が求められる。
ステップS403において検出する角度T1を0°〜45°としているのは、tan-1((R−Y)/(B−Y))のカーブは45°を超えると急激に勾配が大きくなり、角度の算出に不適であるからである。
更に、ステップS406にて、ステップS401にて検出した象限のデータを用いて第2象限か否かを判定し、第2象限であれば、ステップS407にて、T=180−T1を算出する。第2象限でなければ、ステップS408にて、第3象限か否かを判定し、第3象限であれば、ステップS409にて、T=180+T1を算出する。
第3象限でなければ、ステップS410にて、第4象限か否かを判定し、第4象限であれば、ステップS411にて、T=360−T1を算出する。第4象限でもない、すなわち第1象限であるときは、ステップS412にて角度TをT1とする。そして、最終的に、ステップS413にて、入力画素それぞれの図8の色差平面上でなす角度Tを出力する。
以上の処理により、入力された色差信号R−Y、B−Yの色差平面上での角度を0°〜360°の範囲で求めることができる。ステップS404〜S411は、ステップS403にて検出した角度T1を角度Tに補正する処理である。また、ステップS404〜S411は、角度T1を、第1象限〜第4象限に応じて補正している。
次に色の濃さである飽和度Vcの算出は、下記の式により行われる。
Vc=sqrt(Cr×Cr+Cb×Cb)
Vcはベクトルのスカラ量であり、ここでは飽和度を表す。Crは、図8に示すように色差信号の(R−Y)軸成分であり、Cbは(B−Y)軸成分である。またsqrt( )は平方根の演算を行う演算子である。
ここでの処理はソフトウェアまたはハードウェアを特定するものではないが、乗算と平方根はハードウェアでは実現が容易でなく、またソフトウェアでも演算のステップが多くなるので以下のように近似することもできる。
Vc=max(|Cr|,|Cb|)+0.4×min(|Cr|,|Cb|)
ただし、max(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、大きい方を選択する演算処理であり、min(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、小さい方を選択する処理である。
以上より求めた角度(色相)Tと飽和度Vcが、等色相線の角度θ1からθ2の範囲、色の濃さは等飽和度線S1より大きくかつS2より小さい範囲に入っているか否かを評価する。この範囲に入っている信号を通過させるのが、図7に示す特定色フィルタ71の役割である。
図7に示す階調限定器72は、図10に示すように輝度信号の特定の階調の範囲を限定するものである。8ビットデジタル信号の場合、0〜255までの256階調において階調の最大レベルLmax及び最小レベルLminを任意に設定し、LmaxからLminの間に含まれる階調レベルの輝度信号を出力する。
図11は図7における時間差分フィルタ75の第1実施例を説明するためのブロック図である。
時間差分フィルタ75は、検出領域画像メモリ80、第1の減算器81、第1の絶対値器82、第1の非線形処理器83と書き込みパルス生成器90を備える時間差分抽出部750と、周辺領域画像メモリ84、第2の減算器85、第2の絶対値器86、第2の非線形処理器87、タイミングゲート器88と動き発生量算出器89を備える動き検出部751とを備える。時間差分抽出部750は、後述する検出領域(検出エリア)にかざされた手の領域を抽出し、動き検出部751は、後述する周辺検出領域にかざされている手の動きを検出する。
CPUバスには、制御情報判断器18が接続されており、制御情報判断器18に供給される情報はソフトウェアで処理される。制御情報判断器18は、時間差分フィルタ75を制御する時間差分フィルタ制御部18Fを備えている。
本実施形態では、各プッシュボタンに対応する各検出エリアの周辺に、周辺検出領域を設けた。図12(A)、(B)に周辺検出領域46、461を示す。ここでプッシュボタン(1−1)〜(1−8)に対応する検出エリア(2−1)〜(2−8)を総称して検出領域45とする。
図12(A)は、周辺検出領域46が検出領域45の外周縁より大きい内周縁を有する枠形状であり、検出領域45がその内周縁の内側にある第1実施例を示す。周辺検出領域46の内周縁は、検出領域45の外周縁と同じ大きさであってもよい。図12(B)は、周辺検出領域461に検出領域45が重なっている第2実施例を示し、どちらの実施例を用いても所望の動作が得られる。本実施形態では、周辺検出領域46の内周縁が検出領域45の外周縁と同じ大きさである第1実施例を用いた。
図12(C)、(D)に示すように、隣接する周辺検出領域46、461が重なって設けられていても、いずれの周辺検出領域46、461も手がかざされていることを問題なく検出できる。
図11に戻り、検出領域画像メモリ80はそれぞれのプッシュボタンに対応して設けられている検出領域45内の、ビデオカメラ2からの画像信号を記憶する検出領域のメモリである。従って、検出領域画像メモリ80は検出領域45の大きさに相当する画像を記憶する容量があればよい。第1の読み出し制御信号による読み出しはフレーム単位であり、書き込みが停止された場合は最後のフレームが継続的に読み出される。後に詳述するように、検出領域画像メモリ80は、検出領域45に手をかざす前の背景のみの画像を記憶して読み出すように制御される。ここでは、入力信号をノンインターレース信号としてフレーム単位としたが、インターレース信号であればフィールド単位であり、すなわち垂直周期単位である。
書き込みパルス生成器90は、時間差分フィルタ制御部18Fの制御及びタイミングパルス発生器12から入力されるタイミングパルスに基づき、検出領域45内の画像を検出領域画像メモリ80に記憶させるための第1の書き込み制御信号を生成する。第1の読み出し制御信号は、制御情報判断器18から出力されても、制御情報判断器18によって制御された信号発生回路で生成され出力されてもよい。
第1の減算器81は、現在のフレーム(画面)における検出領域45の画像信号と、検出領域画像メモリ80に最後に書き込まれたフレームの画像信号との差分を求める。差分を求めることで、検出領域45内にかざされている手の領域を示す画像信号を抽出できる。減算の符号の向きは特に規定するものではない。
第1の絶対値器82は、第1の減算器81から入力される差分値を絶対値化して第1の非線形処理器83に出力する。第1の非線形処理器83は、入力された絶対値化された差分信号に対して図13に示す入出力特性に基づいて、検出領域45内において得られた画像は手がかざされていることを示すと判断されるレベルと、手ではなくノイズであるとして切り捨てるレベルとに分けるよう、非線形処理を施す。非線形処理された出力信号は、合成器73に入力される。
図13において、横軸は第1の絶対値器82から入力された絶対値化された差分信号Sinを、縦軸は第1の非線形処理器83から出力される信号Soutを示す。0からa値までの低レベル領域の差分信号Sinは、ノイズとみなし出力Soutを0にする。
a値からb1値、b2値、b3値までの画像の変化に伴う差分信号の増大に応じて、0からリミット値(limit)まで出力を変化させる。例えば差分信号Sinがb1値になったときにリミット値となる折れ線をL1、差分信号Sinがb2値になったときにリミット値となる折れ線をL2、差分信号Sinがb3値になったときにリミット値となる折れ線をL3として示す。
Sinがa値以上となるとSoutが発生し、Sinがb1〜b3値となりSoutがリミット値に達すると、Sinがb1〜b3値以上でもSoutは一定(リミット値)となる。リミット値は、出力の量子化数による値で、a=bとして2値1ビットとしたり、0〜31ステップの5ビットとするなど、適宜設定すればよい。なお、第1の非線形処理器83の出力を2値1ビットとする場合は第1の非線形処理器83を比較器で実現できる。第1の非線形処理器83は比較器も含む。
周辺領域画像メモリ84は、検出領域45の周辺に設けられた周辺検出領域46の画像信号を記憶する。本実施形態の周辺領域画像メモリ84はフレームメモリであり、第2の書き込み制御信号と第2の読み出し制御信号に従って、周辺検出領域46の画像信号を毎フレーム記憶して読み出す。周辺領域画像メモリ84は、少なくとも1フレームを記憶するメモリであればよく、複数フレームを記憶するメモリでもよい。第2の書き込み制御信号、第2の読み出し制御信号は制御情報判断器18から出力されても、制御情報判断器18の制御に基づいて信号発生回路で生成され出力されてもよい。
第2の減算器85は、現在のフレーム(画面)における周辺検出領域46の画像信号と、検出領域画像メモリ84に書き込まれた少なくとも1フレーム前の周辺検出領域46の画像信号との差分を求める。差分を求めることで、周辺検出領域46内にかざされた手の領域を示す画像信号が抽出できる。減算の符号の向きは特に規定するものではない。
第2の絶対値器86と第2の非線形処理器87は、第1の絶対値器82と第1の非線形処理器83と同様の機能を有するものであり、第2の非線形処理器87の入出力特性は図13に示すものと同様である。
タイミングゲート器88は、第2の非線形処理器87から出力されたデータと図2で示したタイミングパルス発生器12よりタイミングパルスを受け取る。そしてタイミングゲート器88は、第2の非線形処理器87から出力されたデータにおける周辺検出領域46の部分のデータのみ通過させる。
動き発生量算出器89はタイミングゲート器88から出力されたデータを受け取り、所定の値以上を示すデータの数をカウントする。カウントした値は、手の動きに応じて発生する動き発生量を示すデータである。この動き発生量データを以下単に第1発生量とよぶ。動き発生量算出器89は、入力されたデータが0を超えるたびにカウントするものであっても、所定の値以上のときカウントするものであってもよい。
本実施形態の動き発生量算出器89は、受け取ったデータが0を超えるたびにカウントする。第1発生量は周辺検出領域46における差分が発生した画素の数であり、すなわち周辺検出領域46にかざされた手(対象物)の領域の大きさに相当する。第1発生量は、周辺検出領域46の全画素数に対する差分が発生した画素数の割合としてもよく、周辺検出領域46における差分の発生の程度がわかればよい。
動き発生量算出器89から出力された第1発生量は、CPUバスを経由し時間差分フィルタ制御部18Fに入力され、ソフトウェア処理される。
以上のように構成される本実施形態の時間差分フィルタ75は、周辺検出領域46の画像信号を周辺領域画像メモリ84に保持して、1フレーム間または複数フレーム間より求めた画像信号の差分に基づき、周辺検出領域46にかざされた手の領域の大きさに基づくデータ(第1発生量)を時間差分フィルタ制御部18Fに供給する。時間差分フィルタ制御部18Fは、データに基づいて書き込みパルス生成器90を制御して検出領域画像メモリ80の書き込み及び読み出しを行う。
図14(A)及び図15(A)は、ビデオカメラ2から入力される画像に対して破線にて示す検出エリア(2−1)〜(2−8)が設定されていることを表す。既述したように本実施形態では、ユーザ3が表示装置21に表示された各プッシュボタン(1−1)〜(1−8)に対応した検出エリア(2−1)〜(2−8)に手をかざすと、その動作が操作情報として判別される。
図14(B)及び図15(B)は、手の動きを示す。図14(B)は、手の指を伸ばしてプッシュボタン(1−8)に対応した検出エリア(2−8)にかざした状態を示し、図15(B)は、手の指を折り曲げた状態を示す。本実施形態では、この指を折り曲げる動作を2度繰り返すことでプッシュボタン(1−1)〜(1−8)を押した(操作した)ことを制御情報判断器18に認識させるようにしている。制御情報判断器18は、操作されたプッシュボタンに割り当てられた電子機器の動作に対応する制御信号を出力する。なお、プッシュボタン(1−1)〜(1−8)を押したことを認識させるのは、手をかざしただけとしてもよく、折り曲げ動作を1度あるいは3度以上としてもよく、適宜設定すればよい。
図16(A)、(B)に、図6のオブジェクト抽出器30の出力信号に対応する画像を示す。図16(A)は図14(B)のように指を伸ばして検出エリア(2−8)にかざした状態を示し、図16(B)は図15(B)のように指を折り曲げてかざした状態を示している。
上記したようにオブジェクト抽出器30に入力された映像信号は、図7の特定色フィルタ71で特定された色、すなわち本実施形態では手の肌色の領域のみが通過する。また、階調限定器72によって限定された階調の領域が通過し、時間差分フィルタ75によって背景と区別された手の領域が通過する。
図7のオブジェクトゲート器74は、各フィルタを通過した領域以外の領域を黒(輝度信号、色信号共に0)とする信号を生成し、信号に基づく画像は図16(A)、(B)に示すように手の指以外の領域であるハッチングで示した領域が黒となる。ここで、肌色領域以外の領域を黒に設定したのは後段のオブジェクト特徴データ検出部32での検出精度を上げるためであり、検出すべき対象物によって最適レベル(特定のレベル)を設定することになる。
オブジェクトゲート器74から出力された信号は、更に図6のタイミングゲート器31においてプッシュボタン(1−1)〜(1−8)の領域が限定され、プッシュボタン(1−1)〜(1−8)以外の領域は無視される。
図17に示すオブジェクト特徴データ検出部32は、図16(A)、(B)に示す対象物の領域を示す画像信号から、更にさまざまな特徴を検出し検出信号を発生するための機能ブロックを備える。本実施形態では、ヒストグラム検出器33、平均輝度(APL)検出器34、高域発生量検出器35、最小値検出器36、最大値検出器37を備える。この他にも画像を特徴づける要件はあるが、本実施形態ではこれらの検出器より発生される検出信号を用い、第1の動作検出器181〜第5の動作検出器185によって手であることを判別すると共にその動作を認識する。
ヒストグラム検出器33〜最大値検出器37(検出器33〜37)から出力された各検出信号は、それぞれ第1の動作検出器181〜第5の動作検出器185に入力され、指の折り曲げ動作を検出する。そして折り曲げが検出されると、制御情報発生器186から操作されたプッシュボタン(1−1)〜(1−8)に割り当てられた電子機器の動作に対応する制御信号が出力される。
オブジェクト特徴データ検出部32の各検出器33〜37は、本実施形態ではハードウェアにて構成され、画面上の検出エリア(2−1)〜(2−8)内の各特徴を表すデータ(検出信号)を画面単位(フィールドまたはフレーム単位:垂直周期単位)で生成して、CPUバスを介して制御情報判断器18ヘと送出する。
ヒストグラム検出器33は、第1の減算器81からの出力信号を用いて得られた手の領域を示す画像信号に基づいて検出信号を発生する。ここでは、タイミングゲート器31から出力された輝度信号の階調を例えば8ステップ(階調“0”〜“7”と表記する)に区切って各ステップに存在する画素の数をカウントし、1画面(1フィールドまたは1フレーム画面)ごとにヒストグラムを示すデータを第1の動作検出器181へ出力する。APL検出器34は、同様に1画面内の輝度レベルを加算し、全画素数で割った1画面の平均輝度値を第2の動作検出器182へ出力する。
高域発生量検出器35は、空間フィルタ(2次元フィルタ)にて高域成分を抽出し、1画面内における高域成分の発生量を第3の動作検出器183に出力する。最小値検出器36は、1画面内の輝度信号の最小階調値を、また最大値検出器37は1画面内の輝度信号の最大階調値をそれぞれ第4の動作検出器184、第5の動作検出器185へ出力する。
ヒストグラムのデータに基づいて手(指)がどのような状態であるかを判別する方法は種々考えられる。例えば、階調を限定した範囲である階調“4”〜“7”の頻度を合計して、手の動作を判別することができる。図18(A)は図16(A)に示すように指を伸ばした状態のヒストグラムデータ、図18(B)は図16(B)に示すように指を折り曲げた状態のヒストグラムデータである。
図18(A)、(B)を比較すれば分かるように、指を伸ばした状態と指を折り曲げた状態とでは黒の部分である階調“0”の頻度が異なる。これはオブジェクト抽出器30の出力信号に含まれる階調“0”の部分の量が異なるからである。従って、階調“0”の頻度のみに基づいて手の動作を判別することも可能である。このような階調“0”の頻度のみに基づいた判別では、制御情報判断器18における判別動作の処理が簡略化されるので都合がよい。
第1の動作検出器181〜第5の動作検出器185は、受け取ったデータを変数として格納し、ソフトウェアにてデータを処理する。後述する手の動作を検出する処理は、本実施形態ではソフトウェアによる処理となる。
なお、検出器33〜37の全てを備えることは好ましいが、例えばヒストグラム検出器33のみでも手の動作を認識することができるので、ヒストグラム検出器33のみを備える構成であってもよい。
第1の動作検出器181〜第5の動作検出器185から出力されたデータは、制御情報発生器186に入力される。また、第1の動作検出器181は論理和器187に後述する第2検出フラグを供給する。
制御情報発生器186は第1の動作検出器181〜第5の動作検出器185から受け取ったデータに基づいて、操作されたプッシュボタン(1−1)〜(1−8)に割り当てられた電子機器の動作に対応する制御信号を発生させる。後述するように、制御情報発生器186の出力はフラグ生成器180によって禁止される場合もある。
フラグ生成器180は、時間差分フィルタ75から入力されたデータに基づいて各種のフラグを生成し、制御情報発生器186または論理和器187に供給する。論理和器187は、第1の動作検出器181及びフラグ生成器180から供給されたフラグに基づいて検出領域画像メモリ80の書き込み停止を制御するためのフラグを生成し、時間差分フィルタ75に供給する。本実施形態では、フラグ生成器180と論理和器187とで時間差分フィルタ制御部18Fを構成している。
図19(A)〜(F)は、時間差分フィルタ75から得られたデータに基づいて時間差分フィルタ75及び制御情報発生器186を制御する第1実施例のアルゴリズムである。図19(A)〜(F)までの横軸(時間軸)は同一スケールで描いている。ここで、横軸の時間軸をフレーム単位の時間として示している。
図19(A)は動き発生量算出器89によって算出された、周辺検出領域46で検出された手の動きに基づく第1発生量を縦軸に、フレーム単位の時間経過を横軸に示している。
縦軸に示す第1発生量の閾値th1とth2について、図20(A)、(B)を用いて説明する。
図20(A)、(B)は、周辺検出領域46に手がかざされている状態を示す。図20(A)は、プッシュボタンを制御するために検出領域45に手をかざす際に周辺検出領域46に手がかざされている状態、図20(B)は、特定のプッシュボタンに手をかざして電子機器を制御する意志がなく、例えば大きく左右に手を振っている際に周辺検出領域46に手がかざされている状態を示す。
図20(A)に示す領域47は、周辺検出領域46にかざされている手によって発生した差分に基づく第1発生量を簡易的に図示したものである。同様に、図20(B)に示す領域48は、手を振っている場合の周辺検出領域46にかざされている手による第1発生量である。図20(A)、(B)より分かるように、特定のプッシュボタンに手をかざす意志がない場合に発生する領域48は、プッシュボタンに手をかざす意志がある場合に発生する領域47より大きく、すなわち第1発生量が異なる。
このことより、本実施形態では手の動きによって異なる第1発生量に基づいて、周辺検出領域46にかざされた手が検出領域45に到達する前に、手の動きを予測し時間差分フィルタ75及び制御情報発生器186を制御する。閾値th1は図20(A)に示すようなプッシュボタンに手をかざす意志があることを検出するための閾値であり、閾値th2は図20(B)に示すような特定のプッシュボタンに手をかざす意志がないことを検出する閾値である。
図19(A)において第1発生量が閾値th1以下のとき、時間差分フィルタ制御部18Fは書き込みパルス生成器90を介して、検出領域画像メモリ80に対して検出領域45の画像を書き込むよう制御している。
時刻t1から時刻t5、時刻t7から時刻t8、時刻t13から時刻t16が、フラグ生成器180が時間差分フィルタ75の動き検出部751より出力される第1発生量を示すデータに基づいて、周辺検出領域46に手が進入してきたと判断している期間である。
時刻t1において第1発生量が閾値th1を超えると、第1発生量が閾値th1を超えない期間P1が、時刻t1以前に確保されていたかが確認される。期間P1は、フラグ生成器180が周辺検出領域46に手が進入していないと判断している期間である。期間P1が確認できると、続いて時刻t1から期間P2が経過した後、フラグ生成器180は図19(B)に示す第1検出フラグを立ち上げる。すなわちフラグ生成器180は、第1発生量において閾値th1を超えた時点から所定の時間(期間P2)を経過した時点で発生する第1検出フラグを、閾値th1を超えた期間に対応して生成する。この第1検出フラグは論理和器187に供給される。
期間P1を設けることで、第1発生量が閾値th1を超えても期間P1が確保できない場合にはノイズとして除外できる。本実施形態は背景が動いていないことを前提条件としているため、期間P1によって第1発生量が小さい画像を背景として検出領域画像メモリ80が記憶できる。従って周辺検出領域46に手が入ってきたときに発生する、背景との差分が精度よく得られる。
立ち上がった第1検出フラグは、図19(A)において周辺検出領域46における第1発生量が閾値th1以下となった時刻t5から期間P2後に立ち下がる。ここで期間P2は、第1発生量の閾値th1近傍での微小な変動を追従しないため、及びノイズに対する耐性を保つために設けたものであり、更にレベル方向(縦軸方向)にヒステリシスを持たせても良い。
動き発生量算出器89で算出される第1発生量が閾値th2以上となった場合には、フラグ生成器180はプッシュボタンが所定の動作を行わないように図19(F)に示す制御禁止フラグを生成して、制御情報発生器186に供給する。これにより制御情報発生器186は制御禁止フラグに基づいて制御信号を出力することを禁止して、プッシュボタンに対応する制御動作を停止させる。
図19(C)は、検出領域45にかざされている手の領域を示す発生量(第2発生量)である。第2発生量は検出領域45における差分が発生した画素の数に対応して発生するものであり、第1の動作検出器181で算出される。本実施形態の第1の動作検出器181は、ヒストグラム検出器33から手の領域を示す画像信号に基づいた1画面毎のヒストグラムを示すデータ(検出信号)を受け取り、検出信号に基づいて検出領域45内にかざされている手の領域の大きさに応じて発生する第2発生量を算出する。具体的には、図18に示すヒストグラムの階調“0”以外のデータを足し合わせて図19(C)に示す第2発生量とする。なお、本実施形態ではヒストグラム検出器33から出力されたヒストグラムを示すデータに基づいて第2発生量を生成したが、第1の非線形処理器83の出力信号やオブジェクトゲート器74の出力信号を用いてもよい。
時刻t9から時刻t14は、検出領域45に手をかざし、図15(B)に示す指の折り曲げ動作を2度行った場合の第2発生量を示している。図19(A)に示す周辺検出領域46における第1発生量は、時刻t7から時刻t8の期間と時刻t13から時刻t16の期間、閾値th1以上となっている。時刻t7から時刻t8の期間は、検出領域45にかざそうとする手が周辺検出領域46で検出される期間を示し、時刻t13から時刻t16の期間はプッシュボタンの操作が終了し、検出領域45に手がかざされなくなり、周辺検出領域46からも手が検出されなくなるまでの期間を示す。
時刻t11から時刻t12を含んで発生している破線にて示す波形は、図12(B)に示す第2実施例の周辺検出領域461を使用したときに検出される第1発生量である。指を折り曲げる動作によって周辺検出領域461における第1発生量が変化する。
第1の動作検出器181は、図19(C)に示す第2発生量が閾値th3以上となると同時に立ち上がる図19(D)に示す第2検出フラグを生成する。第2検出フラグは、検出領域45において検出される第2発生量が閾値th3以下となった時刻t4から期間P3後に立ち下がる。期間P3は、閾値th3近傍での第2発生量の微小な変動や指の折り曲げる動作を追従しないために設けたものであり、更にレベル方向にヒステリシスを持たせても良い。
第1の動作検出器181は検出領域45内にかざされている手の領域の大きさに応じて発生する第2発生量を示す第2発生量データを算出し、第2発生量データにおける閾値th3を超えた期間(時刻t2から時刻t4、時刻t9から時刻t15)に対応して第2検出フラグを生成する。第2検出フラグは論理和器187に供給される。
図19(E)は、検出領域画像メモリ80に対する書き込み停止フラグを示す。書き込み停止フラグは、論理和器187において図19(B)に示す第1検出フラグと図19(D)に示す第2検出フラグの両方の論理和をとり、すなわちいずれか一方がハイのときにハイとなるフラグとして出力される。
図11において、論理和器187から出力され、書き込みパルス生成器90に供給される書き込み停止フラグがローレベルのとき、第1の書き込み制御信号によって検出領域画像メモリ80へ輝度信号が書き込まれ、書き込み停止フラグがハイレベルとなると第1の書き込み制御信号によって検出領域画像メモリ80への書き込みが停止されて、最後に書き込まれたフレームのデータが検出領域画像メモリ80から読み出される。論理和器187は、図19(B)に示す第1検出フラグと図19(D)に示す第2検出フラグとに基づいて、検出領域画像メモリ80の書き込みを停止するための書き込み停止フラグを生成する。本実施形態では、フラグ生成器180と第1の動作検出器181と論理和器187とが第1発生量の大きさに応じて検出領域画像メモリ80の書き込みを停止するよう制御する書き込み制御部として動作する。
第1実施例のアルゴリズムによれば、閾値th1を設けて周辺検出領域46に手がかざされたことを検出し、検出領域45に手がかざされる直前に検出領域画像メモリ80の書き込みを停止するため、背景のみの画像が検出領域画像メモリ80に記憶される。
周辺検出領域46に手がかざされてから検出領域45に手がかざされる直前までの時間が短くても背景のみの画像を記憶できると、第1の減算器81は、検出領域45にかざされた手によって発生する差分をより正確に得られる。また、第1の動作検出器181より出力される図19(C)に示す検出領域45にかざされている手によって発生する第2発生量も、より正確な値となり、図16に示す手の部分だけをより的確に抽出できる。すなわち、対象物を精度よく抽出することができ、プッシュボタンが制御されたかどうかの誤認識を避けることができる。
図21(A)、(B)は検出領域45と周辺検出領域46とを画面上の所定の位置に描いたもので、画面上に手がかざされていないときを図21(A)に、手がかざされているときを図21(B)に示す。
図21(A)は、全てのプッシュボタン(1−1)〜(1−8)に対応する検出領域45及び周辺検出領域46に手などの動作するものがかざされていないので、第1の書き込み制御信号において図19(E)に示す書き込み停止フラグはローレベルである。
図21(B)は、プッシュボタン(1−3)にかざすために手が画面の下方から上がってきた様子を示す。プッシュボタン(1−3)に対応する周辺検出領域46に手がかざされると、図19(E)に示す書き込み停止フラグはハイレベルとなり、プッシュボタン(1−3)に対応する検出領域45の検出領域画像メモリ80に対する書き込みが停止する。また、同時にプッシュボタン(1−5)、(1−7)に対応する検出領域45及び周辺検出領域46に手がかざされるため、プッシュボタン(1−5)、(1−7)に対応する各検出領域45の検出領域画像メモリ80に対する書き込みも同様に停止する。
このようにプッシュボタンにかざそうとする手が周辺検出領域46にかざされると、対応する検出領域45の検出領域画像メモリ80への書き込みパルスは書き込み停止フラグにより停止され、手が検出領域45にかざされる直前の背景のみの画像が検出領域画像メモリ80に書き込まれる。そして、手が検出領域45及び周辺検出領域46で検出されなくなると、書き込み停止フラグが立ち下がり検出領域画像メモリ80への書き込みが再開する。
本実施形態において、図11に示す周辺領域画像メモリ84は1フレーム毎に輝度信号を書き込むように制御されている。図22(A)から(D)は、他の実施形態として、制御情報判断器18が周辺領域画像メモリ84に輝度信号を1フレーム置きに書き込むよう制御する場合の動作を示している。
図22(A)は、時間軸を1垂直周期で刻むフレーム番号を上段に、入力信号にフレーム単位に番号(F1,F2…)を振ったものを下段に示す。図22(B)に周辺領域画像メモリ84に入力される第2の書き込み制御信号を示す。第2の書き込み制御信号は、1フレーム置きで入力信号(輝度信号)を周辺領域画像メモリ84に書き込む信号である。
図22(C)は、周辺領域画像メモリ84に入力される第2の読み出し制御信号を示す。第2の読み出し制御信号は、F1,F1,F3,F3,F5,F5と同一のフレームを2度続けて読み出している。これは、第2の読み出し制御信号が周辺領域画像メモリ84から毎フレーム読み出す信号であり、周辺領域画像メモリ84への書き込みが、図22(B)に示したように1フレーム置きに行われるためである。
図22(D)は縦軸に、図22(A)下段の入力信号と図22(C)の第2の読み出し制御信号との差分信号より得られる、動き発生量算出器89の第1発生量を示すものである。第1発生量を示すデータは時間差分フィルタ制御部18FにCPUバスを介してフレーム単位で転送され、図19で説明したアルゴリズムに従ってソフトウェア処理される。
例えば、手が等速で周辺検出領域46に進入すると、2フレーム差分信号における第1発生量は1フレーム差分信号における第1発生量のほぼ2倍となる。
図22(B)に示すように1フレーム置きに書き込みをするような第2の書き込み制御信号とすることにより、第2の減算器85より出力される差分信号は図22(D)に示すように1フレーム間差分と2フレーム間差分の第1発生量が交互に得られる。1フレーム間差分による識別信号を2倍して平均化して活用すればよい。または1フレーム間差分の識別信号のみ、2フレーム間差分の識別信号のみなど状況に合わせて切り替えて活用することもできる。
このような処理を行うことで、周辺領域画像メモリ84のメモリ容量が1フレームで、1フレーム置きに書き込みを行う構成でも、より高い精度で、漏れの少ない動き検出部751が実現できる。
なお、上記したような処理(間欠処理)にて複数フレーム間の動き情報を得る方法は、上記したような1フレーム置き(2フレーム周期)での間欠処理に限らず、2フレーム置き(3フレーム周期)またはそれ以上も原理上は可能である。しかし、フレーム周期が大きくなると手の動作が特に速いときは周辺検出領域46に手が進入したことを検出できなくなる可能性があるので、2フレームないし3フレーム周期での処理が実用に適している。
図23(A)〜(E)、(G)は、時間差分フィルタ75から得られたデータに基づいて時間差分フィルタ75及び制御情報発生器186を制御する第2実施例のアルゴリズムを示す。
周辺検出領域46から検出される手に基づく第1発生量を示すデータには、意図しないノイズも含まれている。ノイズに対する耐性を高めるためにはこのデータを低域通過フィルタ処理したり、またこの結果を累積させて単発的な信号に反応しないようにすることが好ましい。
また、図19(B)に示す第1検出フラグは期間P2を経た後立ち上がるので、速い動きで手が検出領域45にかざされた際には、検出領域画像メモリ80の書き込みを停止する前に手がかざされてしまい、手が入った画像を背景画像として書き込んでしまう可能性がある。
第2実施例のアルゴリズムは、周辺検出領域46で検出される手の発生量(第1発生量)に基づいた検出領域画像メモリ80への書き込み制御を、図19に示した第1実施例よりも高速化できる構成である。
図23(A)〜(E)、(G)の横軸(時間軸)は同一スケールで描いている。ここで、横軸の時間軸をフレーム単位の時間にして示している。時間軸のポイントとなるところには、t1〜t17を付して説明する。第2実施例では新たに、図19に示した第1実施例の書き込み制御アルゴリズムに、図23(G)に示す第1検出前置パルス(フラグ)を追加した。従って図23(A)〜(D)までは図19(A)〜(D)と同様に、図23(A)に示す周辺検出領域46において検出された手の発生量に基づいて図23(B)に示す第1検出フラグが立ち上がり、図23(C)に示す検出領域45にかざされた手の領域を示す発生量(第2発生量)に基づいて図23(D)に示す第2検出フラグが立ち上がる。なお、第2実施例では図19(F)に示した制御禁止フラグは省略した。
図23(G)は、第1検出前置フラグを示す。第1検出前置フラグは、図17のフラグ生成器180によって生成される。フラグ生成器180は、図23(A)に示す周辺検出領域46における第1発生量が閾値th1以上となった時刻から、設定された期間P0だけ第1検出前置フラグを発生させる。図23(G)では、時刻t1から時刻t2、時刻t3から時刻t4、時刻t5から時刻t7、時刻t11から時刻t13で第1検出前置フラグが立ち上がっている。第1検出前置フラグは、検出領域45に手をかざすことを意図せずに周辺検出領域46にかざされた手の動きや、インパルス状のノイズに対しても反応する。
図23(E)に示す書き込み停止フラグは、図23(G)の第1検出前置フラグと図23(B)の第1検出フラグと図23(D)の第2検出フラグとに基づいて、論理和器187によって論理和をとり生成される。従って、意図しない動作やノイズによる周辺検出領域46における第1発生量に基づいて第1検出前置フラグが立っている間は、検出領域画像メモリ80への書き込みが停止されているが、期間P0を経るとすぐに書き込みが再開する。
第1検出前置フラグを設けたことで、第1実施例のアルゴリズムであれば時刻t6で立ち上がっていた書き込み停止フラグは、図23(E)に示すように時刻t5で立ち上がる。従って第2実施例のアルゴリズムによれば書き込み停止フラグは、時刻t5〜t6までの期間Δtだけ立ち上がりが速まるので、検出領域画像メモリ80に手が入った背景が書き込まれることをより効果的に回避できる。
これは、ノイズに対する耐性を考慮せず時間応答を速くしたため、立ち上がる回数が多い図23(G)の第1検出前置フラグと、ノイズに対する耐性をもたせた図23(B)の第1検出フラグとの論理和をとり、書き込み停止フラグとして機能させることによって実現したものである。
第1検出前置フラグの生成は、図11で示したとおり、制御情報判断器18内のフラグ生成器180でソフトウェアにて処理されるが、ハードウェアにて処理することも可能である。動き発生量算出器89から得られる手の発生量から第1検出前置フラグをハードウェアにて作り、書き込みパルス生成器90に直接入力し、ソフトウェアで得られる図23(B)に示す第1検出フラグと図23(D)に示す第2検出フラグとの論理和を得る方法もある。
図24は時間差分フィルタ75の第2実施例を示すブロック図である。図11の第1実施例と同じ部分には同じ番号を付している。また説明に要しない部分については一部省いている。第2実施例ではビデオカメラ2から得られる鏡像変換画像信号の色差信号(B−Y、R−Y)を色差信号合成器91で合成し、更に加算器92で輝度信号(Y信号)と加算して一系統で処理する。色差信号合成器91は、色差信号を基に上記した色相や飽和度Vcの値を含んだ信号を生成する。本実施形態では飽和度Vcの値を出力する。
加算器92から出力された加算信号は、時間差分抽出部750の検出領域画像メモリ80と第1の減算器81、及び動き検出部の周辺領域画像メモリ84と第2の減算器85へ入力されている。
本実施形態の時間差分フィルタ75は、検出領域45における手の発生量を検出して検出領域45に手がかざされているかいないかを判別するものである。従って、手がかざされていない背景画像と手がかざされている画像との差分信号から判別しているので、入力される信号が輝度信号、色差信号、輝度信号と色差信号を混合した信号、いずれのものでも手の発生量を検出するには特に問題はなく、混合した信号のほうが差分信号を得られやすくなる。
従って第2実施例の時間差分フィルタ75は、背景画像と手が同一の輝度信号の階調を持っていても、色差信号が異なれば差分信号を得て区別できる。また色差信号が同一でも輝度信号が異なれば同様に差分信号が得られて区別できる。このため、動作を検出するために背景画像に依存しなくなる利点を有しており、あらゆるユーザの環境化で動作させる目的に対して有効である。
なお、本実施形態においては時間差分フィルタ75を、時間差分抽出部750と動き検出部751とを備える構成としたが、動き検出部751を省略して時間差分抽出部750のみで構成して簡略化した構成としてもよい。ただし、動き検出部751を備えることにより検出領域45にかざされた手の領域を精度よく抽出できるので、動き検出部751を備えるほうが好ましい。
また、本実施形態は手を対象物として説明したが、自発光機能を具備した遠隔操作用機器を対象物としたり、また遠隔操作用機器が具備する発光体から出射される縦線や横線などの模様を対象物としたりしてもよく、同様の制御方法が適用できる。
本発明の電子機器の操作方法の概要を説明するための図である。 本発明の各実施形態にかかる電子機器(テレビジョン受像機1)の要部の構成を示すブロック図である。 操作者の画像と操作用画像とを示す図である。 操作者の画像と操作用画像とを混合した状態を説明するための図である。 図2に示す検出器と表示装置の画面上の検出エリアとの対応を説明するための図である。 図2に示す検出器の構成を示すブロック図である。 図6に示すオブジェクト抽出器の構成を示すブロック図である。 オブジェクト抽出器で抽出する対象物の色相及び飽和度を説明するための図である。 色差信号から色相を算出する処理のフローチャートである。 オブジェクト抽出器で抽出する対象物の輝度信号レベルを示す図である。 図7に示す時間差分フィルタの第1実施例を示すブロック図である。 検出領域と周辺検出領域を説明するための図である。 非線形処理器の入出力特性を示す図である。 画面上の操作ボタンに手をかざした状態を示す図である。 画面上の操作ボタンの上で指を曲げた状態を示す図である。 図6に示すオブジェクト抽出器より出力される出力信号に対応する画像を示す図である。 オブジェクト特徴データ検出部の構成を示すブロック図である。 図14、15に示す図における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図17に示す時間差分フィルタと制御情報判断器の動作を説明するための第1実施例のアルゴリズムである。 画面上の操作ボタンの周辺に手をかざした状態を示す図である。 操作ボタンへの動作と図19に示したアルゴリズムとの対応を説明するための図である。 時間差分フィルタ制御部の動作を説明するための図である。 図17に示す時間差分フィルタと制御情報判断器の動作を説明するための第2実施例のアルゴリズムである。 図7に示す時間差分フィルタの第2実施例を示すブロック図である。
符号の説明
1 テレビジョン受像機(電子機器)
2 ビデオカメラ
3 ユーザ(操作者)
12 タイミングパルス発生器
13 鏡像変換器
14 スケーラ
15 グラフィックス生成器
16 第1の混合器
17 検出部
18 制御情報判断器(制御部)
21 表示装置

Claims (6)

  1. 電子機器において、
    表示装置と、
    前記表示装置の前に位置する操作者を撮影するビデオカメラと、
    前記ビデオカメラで撮影された画像の鏡像変換を行う鏡像変換器と、
    少なくとも1つの操作ボタンを含む操作用画像を生成する操作用画像生成器と、
    前記鏡像変換器より出力された鏡像変換画像信号と前記操作用画像生成器より出力された操作用画像信号とを混合する混合器と、
    前記混合器により混合された画像を前記表示装置の画面上に表示させた状態で、前記画面に表示された操作者が前記操作ボタンを対象物により操作する所定の動作に対応した検出信号を発生する検出器と、
    前記検出器により出力される検出信号に基づいて、操作された前記操作ボタンに対応する制御動作を行う制御器とを備え、
    前記検出器は、
    前記鏡像変換画像信号における前記操作ボタンに対応して設けられた検出領域の画像信号を記憶する第1のメモリと、
    前記鏡像変換画像信号における前記検出領域の周辺に位置する周辺検出領域の画像信号を記憶する第2のメモリと、
    前記鏡像変換画像信号の現在の画面の画像信号と前記第1のメモリから読み出された過去の画面の画像信号との差分を求めることにより前記検出領域内にかざされている前記対象物の領域を示す画像信号を出力する第1の減算器と、
    前記鏡像変換画像信号の現在の画面の画像信号と前記第2のメモリから読み出された過去の画面の画像信号との差分を求めることにより前記周辺検出領域内にかざされている前記対象物の領域を示す画像信号を出力する第2の減算器と、
    前記第1の減算器からの出力信号を用いて得られた前記対象物の領域を示す画像信号に基づいて前記検出信号を発生する発生器と、
    前記第2の減算器より出力された前記画像信号に基づいて、前記周辺検出領域内における前記対象物がかざされている領域の大きさに応じて発生する発生量を示す第1のデータを算出する算出器とを備え、
    更に前記電子機器は、前記第1のデータの大きさに応じて前記第1のメモリの書き込みを停止するよう制御する書き込み制御部とを備えることを特徴とする電子機器。
  2. 前記書き込み制御部は、
    前記第1のデータにおける予め定めた第1の閾値を超えた期間に対応して第1のフラグを生成する第1のフラグ生成器と、
    前記検出領域内にかざされている前記対象物の領域の大きさに応じて発生する発生量を示す第2のデータを算出し、前記第2のデータにおける予め定めた第2の閾値を超えた期間に対応して第2のフラグを生成する第2のフラグ生成器と、
    前記第1のフラグと前記第2のフラグとに基づいて、前記第1のメモリの書き込みを停止するための書き込み停止フラグを生成するための第3のフラグ生成器とを備えることを特徴とする請求項1記載の電子機器。
  3. 前記第1のフラグ生成器は、前記第1のデータが前記第1の閾値を超えた時点から所定の時間を経過した時点で発生する前記第1のフラグを生成することを特徴とする請求項2記載の電子機器。
  4. 前記第1のフラグ生成器は、前記第1のデータが前記第1の閾値を超えた時点で発生する第4のフラグを生成し、
    前記第3のフラグ生成器は、前記第1のフラグと前記第2のフラグと前記第4のフラグとに基づいて前記書き込み停止フラグを生成することを特徴とする請求項3記載の電子機器。
  5. 前記第1のフラグ生成器は、前記第1のデータにおける予め定めた第3の閾値を超えた期間に対応して第5のフラグを生成し、
    前記制御器は、前記第5のフラグに基づいて前記制御動作を停止させることを特徴とする請求項2ないし4のいずれか一項に記載の電子機器。
  6. 前記鏡像変換画像信号の輝度信号と色信号とを加算して加算信号を出力する加算器を備え、前記第1及び第2のメモリに入力される前記画像信号は、前記加算器より出力された前記加算信号であることを特徴とする請求項1ないし5のいずれか一項に記載の電子機器。
JP2006243788A 2006-09-08 2006-09-08 電子機器 Active JP4650381B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006243788A JP4650381B2 (ja) 2006-09-08 2006-09-08 電子機器
CNB2007101381886A CN100512397C (zh) 2006-09-08 2007-07-31 电子设备
US11/896,839 US8179367B2 (en) 2006-09-08 2007-09-06 Electronic appliance having a display and a detector for generating a detection signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006243788A JP4650381B2 (ja) 2006-09-08 2006-09-08 電子機器

Publications (2)

Publication Number Publication Date
JP2008065663A JP2008065663A (ja) 2008-03-21
JP4650381B2 true JP4650381B2 (ja) 2011-03-16

Family

ID=39169094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006243788A Active JP4650381B2 (ja) 2006-09-08 2006-09-08 電子機器

Country Status (3)

Country Link
US (1) US8179367B2 (ja)
JP (1) JP4650381B2 (ja)
CN (1) CN100512397C (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4419768B2 (ja) * 2004-09-21 2010-02-24 日本ビクター株式会社 電子機器の制御装置
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
JP4591724B2 (ja) * 2008-05-14 2010-12-01 セイコーエプソン株式会社 表示装置および表示方法
KR20100039017A (ko) * 2008-10-07 2010-04-15 한국전자통신연구원 메뉴 마크업 언어를 이용한 원격 제어 장치
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
US20100271297A1 (en) * 2009-04-27 2010-10-28 Shoei-Lai Chen Non-contact touchpad apparatus and method for operating the same
US20100271303A1 (en) * 2009-04-27 2010-10-28 Shoei-Lai Chen Non-contact mouse apparatus and method for operating the same
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
EP2256590A1 (en) * 2009-05-26 2010-12-01 Topspeed Technology Corp. Method for controlling gesture-based remote control system
US8112719B2 (en) * 2009-05-26 2012-02-07 Topseed Technology Corp. Method for controlling gesture-based remote control system
US8683456B2 (en) * 2009-07-13 2014-03-25 Apple Inc. Test partitioning for a non-volatile memory
JP4983962B2 (ja) * 2009-07-23 2012-07-25 カシオ計算機株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US8645776B2 (en) * 2010-03-24 2014-02-04 Apple Inc. Run-time testing of memory locations in a non-volatile memory
US8650446B2 (en) * 2010-03-24 2014-02-11 Apple Inc. Management of a non-volatile memory based on test quality
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US8402502B2 (en) 2010-06-16 2013-03-19 At&T Intellectual Property I, L.P. Method and apparatus for presenting media content
US8640182B2 (en) 2010-06-30 2014-01-28 At&T Intellectual Property I, L.P. Method for detecting a viewing apparatus
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8593574B2 (en) 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US8751903B2 (en) 2010-07-26 2014-06-10 Apple Inc. Methods and systems for monitoring write operations of non-volatile memory
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
KR101880998B1 (ko) 2011-10-14 2018-07-24 삼성전자주식회사 이벤트 기반 비전 센서를 이용한 동작 인식 장치 및 방법
JP6398248B2 (ja) 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
US10127439B2 (en) * 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
KR102394190B1 (ko) * 2017-11-13 2022-05-09 엘지전자 주식회사 유기 발광 다이오드 디스플레이 장치 및 그의 동작 방법
JP7374581B2 (ja) * 2018-10-01 2023-11-07 カシオ計算機株式会社 ロボット、画像処理方法及びプログラム
WO2020096576A1 (en) * 2018-11-06 2020-05-14 Hewlett-Packard Development Company, L.P. Iconographic control panel of an image forming apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222375A (ja) * 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5051929A (en) * 1987-10-19 1991-09-24 Interand Corporation Electronic memory state reallocation system for improving the resolution of color coding video systems
JP3096387B2 (ja) * 1994-01-28 2000-10-10 三菱電機株式会社 数値演算処理装置
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6431711B1 (en) * 2000-12-06 2002-08-13 International Business Machines Corporation Multiple-surface display projector with interactive input capability
JP3860550B2 (ja) 2003-03-07 2006-12-20 日本電信電話株式会社 インタフェース方法、装置、およびプログラム
JP3860560B2 (ja) 2003-05-30 2006-12-20 日本電信電話株式会社 表示インタフェース方法および装置
JP3851907B2 (ja) * 2004-02-18 2006-11-29 株式会社ソニー・コンピュータエンタテインメント 画像表示システム及びビデオゲームシステム
JP4419768B2 (ja) 2004-09-21 2010-02-24 日本ビクター株式会社 電子機器の制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222375A (ja) * 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム

Also Published As

Publication number Publication date
CN101141579A (zh) 2008-03-12
CN100512397C (zh) 2009-07-08
US8179367B2 (en) 2012-05-15
JP2008065663A (ja) 2008-03-21
US20080062125A1 (en) 2008-03-13

Similar Documents

Publication Publication Date Title
JP4650381B2 (ja) 電子機器
JP4569555B2 (ja) 電子機器
US10671175B2 (en) Image processing apparatus, image processing method, and program product to control a display to display an image generated based on a manipulation target image
US9704028B2 (en) Image processing apparatus and program
JP4419768B2 (ja) 電子機器の制御装置
US20170102776A1 (en) Information processing apparatus, method and program
US8144121B2 (en) Method and apparatus for controlling electronic appliance
JP4720738B2 (ja) 電子機器
AU2016202282A1 (en) Display apparatus and controlling method thereof
JP2009089068A (ja) 電子機器の制御装置、制御方法及び制御プログラム
US9402029B2 (en) Image processing apparatus capable of specifying positions on screen
US20170048447A1 (en) Image processing apparatus, image processing method, and program
KR20150078229A (ko) 디스플레이 장치 및 디스플레이 장치의 채널 맵 관리 방법
JP2007312823A (ja) タッチパネル入力ユニットおよび内視鏡プロセッサ
JP2009087095A (ja) 電子機器の制御装置、制御方法及び制御プログラム
US20140337807A1 (en) Information processing apparatus, information processing method, and recording medium
JP2008118633A (ja) 電子機器の制御装置及び制御方法
JP2009010849A (ja) 電子機器の制御装置
TWI610198B (zh) 遙控裝置與根據至少一靜態手勢產生控制指令的方法
JP4544195B2 (ja) 電子機器
JP2008282131A (ja) 電子機器の制御装置
JP2010003303A (ja) 電子機器の制御装置
US9639161B2 (en) Gesture recognition module and gesture recognition method
JP2005148661A (ja) 情報処理装置、および情報処理方法
CN118317203A (en) Image processing method and device, electronic equipment and chip

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101129

R151 Written notification of patent or utility model registration

Ref document number: 4650381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350