JP4650381B2 - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP4650381B2 JP4650381B2 JP2006243788A JP2006243788A JP4650381B2 JP 4650381 B2 JP4650381 B2 JP 4650381B2 JP 2006243788 A JP2006243788 A JP 2006243788A JP 2006243788 A JP2006243788 A JP 2006243788A JP 4650381 B2 JP4650381 B2 JP 4650381B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- flag
- image
- detection
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
- Image Processing (AREA)
Description
(a)電子機器において、表示装置21と、前記表示装置の前に位置する操作者3を撮影するビデオカメラ2と、前記ビデオカメラで撮影された画像の鏡像変換を行う鏡像変換器13と、少なくとも1つの操作ボタン(1−1)〜(1−8)を含む操作用画像41を生成する操作用画像生成器15と、前記鏡像変換器より出力された鏡像変換画像信号と前記操作用画像生成器より出力された操作用画像信号とを混合する混合器16と、前記混合器により混合された画像を前記表示装置の画面上に表示させた状態で、前記画面に表示された操作者が前記操作ボタンを対象物により操作する所定の動作に対応した検出信号を発生する検出器17と、前記検出器により出力される検出信号に基づいて、操作された前記操作ボタンに対応する制御動作を行う制御器18とを備え、前記検出器は、前記鏡像変換画像信号における前記操作ボタンに対応して設けられた検出領域45の画像信号を記憶する第1のメモリ80と、前記鏡像変換画像信号における前記検出領域の周辺に位置する周辺検出領域46,461の画像信号を記憶する第2のメモリ84と、前記鏡像変換画像信号の現在の画面の画像信号と前記第1のメモリから読み出された過去の画面の画像信号との差分を求めることにより前記検出領域内にかざされている前記対象物の領域を示す画像信号を出力する第1の減算器81と、前記鏡像変換画像信号の現在の画面の画像信号と前記第2のメモリから読み出された過去の画面の画像信号との差分を求めることにより前記周辺検出領域内にかざされている前記対象物の領域を示す画像信号を出力する第2の減算器85と、前記第1の減算器からの出力信号を用いて得られた前記対象物の領域を示す画像信号に基づいて前記検出信号を発生する発生器32と、前記第2の減算器より出力された前記画像信号に基づいて、前記周辺検出領域内における前記対象物がかざされている領域の大きさに応じて発生する発生量を示す第1のデータを算出する算出器89とを備え、更に前記電子機器は、前記第1のデータの大きさに応じて前記第1のメモリの書き込みを停止するよう制御する書き込み制御部18とを備えることを特徴とする電子機器。
(b)前記書き込み制御部は、前記第1のデータにおける予め定めた第1の閾値を超えた期間に対応して第1のフラグを生成する第1のフラグ生成器180と、前記検出領域内にかざされている前記対象物の領域の大きさに応じて発生する発生量を示す第2のデータを算出し、前記第2のデータにおける予め定めた第2の閾値を超えた期間に対応して第2のフラグを生成する第2のフラグ生成器181と、前記第1のフラグと前記第2のフラグとに基づいて、前記第1のメモリの書き込みを停止するための書き込み停止フラグを生成するための第3のフラグ生成器187とを備えることを特徴とする(a)記載の電子機器。
(c)前記第1のフラグ生成器は、前記第1のデータが前記第1の閾値を超えた時点から所定の時間を経過した時点で発生する前記第1のフラグを生成することを特徴とする(b)記載の電子機器。
(d)前記第1のフラグ生成器は、前記第1のデータが前記第1の閾値を超えた時点で発生する第4のフラグを生成し、前記第3のフラグ生成器は、前記第1のフラグと前記第2のフラグと前記第4のフラグとに基づいて前記書き込み停止フラグを生成することを特徴とする(c)記載の電子機器。
(e)前記第1のフラグ生成器は、前記第1のデータにおける予め定めた第3の閾値を超えた期間に対応して第5のフラグを生成し、前記制御器は、前記第5のフラグに基づいて前記制御動作を停止させることを特徴とする(b)ないし(d)のいずれか一項に記載の電子機器。
(f)前記鏡像変換画像信号の輝度信号と色信号とを加算して加算信号を出力する加算器92を備え、前記第1及び第2のメモリに入力される前記画像信号は、前記加算器より出力された前記加算信号であることを特徴とする(a)ないし(e)のいずれか一項に記載の電子機器。
操作者(ユーザ)3がテレビジョン受像機1を従来の操作方法で操作する場合、ユーザ3はリモコン装置4を手に持ち、所望の機能を働かせるキーをテレビジョン受像機1に向けて押下する。従って、リモコン装置4が無ければテレビジョン受像機1を操作できず、不便を強いられる場合を時々経験する。
ユーザ3の動作とは、具体的にはテレビジョン受像機1の表示装置21に表示されるメニュー画面から所望のボタンを選択する身体(手、足、顔など)の動きのことである。本実施形態では後述するように最も実用的である手の動きで操作する方法が採用されている。またテレビジョン受像機1の周囲が暗いときは、自発光機能を具備した遠隔操作用機器(手元制御機器)を用いることにより、手の動作と同様の効果を得るようにしている。遠隔操作用機器については後述する。
ビデオカメラ2は、図1に示すようにテレビジョン受像機1の前面に位置してユーザ3、またはテレビジョン受像機1の前の映像を撮影する。ビデオカメラ2の出力信号は、輝度(Y)信号、及び色差(R−Y、B−Y)信号であり、基準同期発生器11から出力される水平周期パルス及び垂直周期パルスに同期している。
メニュー画面を構成するグラフィックスの画素数は、本実施形態では表示装置21の画素数に一致させるようにしている。一致していない場合は、グラフィックス生成器15内またはグラフィックス生成器15の後段に画素数変換器を設けて、互いの画素数を一致させればよい。
M1o=α1×S1+(1−α1)×Gs…(1)
制御値α1は、「0」から「1」の間の値に設定され、制御値α1を大きくするとスケーラ14の出力信号S1の割合が大きくなり、グラフィックス生成器15の出力信号Gsの割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
M2o=α2×M1o+(1−α2)×S2…(2)
制御値α2は、「0」から「1」の間の値に設定され、制御値α2を大きくすると第1の混合器16の出力信号M1oの割合が大きくなり、画素数変換器19の出力信号S2の割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
グラフィックス画像41は、操作を行うためのメニュー画面(操作用画像)を形成しており、矩形状の枠42はプッシュボタン(操作ボタン)を表す。一方のスケーラ出力画像43は、ユーザ3を撮影し、鏡と同じように表示するものである。スケーラ出力画像43の中の破線で示す矩形状の枠44は、複数の検出器171〜17nからなる検出部17で検出する検出エリアを表したもので、グラフィックス画像41上のプッシュボタン42と同一の位置に配置されている。
第1の混合器16にて、図4(A)及び(B)に示す画面を制御値α1に対応する混合割合で混合した画面を、図4(C)に示す。なお、図4(C)に表示されるユーザ3の画像は、実際には、図4(B)に示される画像より、制御値α1に対応して輝度及びコントラストが低下したものとなる。
なお、ここではプッシュボタン(1−1)〜(1−8)に触れると表現したが、ユーザ3が実際に画面に触れるということではなく、プッシュボタン(1−1)〜(1−8)に相当する位置に手をかざして、表示装置21に表示されたユーザ3の映像がプッシュボタン(1−1)〜(1−8)に触れるということである。換言すれば、手をプッシュボタン(1−1)〜(1−8)上に位置するように画面を見てユーザ3が動作することにより、テレビジョン受像機1を操作する。
この検出エリア(2−1)〜(2−8)内に限定した信号に対して、オブジェクト特徴データ検出部32は種々のフィルタ処理を施してビデオカメラ2で撮影したユーザ3の手の画像を抽出する。なお、本実施形態では各検出器171〜17nはそれぞれオブジェクト抽出器30を備えているが、各オブジェクト抽出器30の機能が同じであれば各検出器171〜17nの前段に一つのオブジェクト抽出器を設けて簡略化してもよい。
図7にオブジェクト抽出器30の詳細ブロック図を示す。本実施形態でオブジェクト抽出器30はユーザ3の手を検出するためのフィルタ処理を行う。すなわち、本実施形態のオブジェクト抽出器30は、特定色フィルタ71と、階調限定器72と、時間差分フィルタ75と、合成器73と、オブジェクトゲート器74とを備えている。
特定色フィルタ71で色相と飽和度を限定することで、人の肌色に絞ることはできるが、人の肌は日焼け具合で変化し、また人種によっても異なるため、肌色といってもさまざまである。従って制御情報判断器18より入力される制御信号によって、特定色フィルタ71で色相、飽和度を調整し、階調限定器72で輝度信号の階調限定の範囲を調整すれば、概ね人の手を検出することができる。
更に、本実施形態の時間差分フィルタ75を設けたことで、人の手の背景が肌色であっても、わずかな輝度の差などを基に手の領域を抽出し、人の手を識別することができる。
また、本実施形態では人の手をプッシュボタン(1−1)〜(1−8)を操作する対象物としているが、パラメータである色相や階調を調整し最適化することにより、手以外の対象物も検出することができる。
時間差分フィルタ75の詳細については、後述する。
特定色フィルタ71と階調限定器72と時間差分フィルタ75のうちの、2つを通過した信号が存在すればハイレベルとなるようにすれば誤検出しにくく、3つを通過した信号が存在すればハイレベルとなるようにすれば更に誤検出しにくくなる。
合成器73で生成された領域パルスは、オブジェクトゲート器74に供給される。オブジェクトゲート器74は、領域パルスがハイレベルであるとき、輝度信号と色差信号を通過させる。領域パルスがローレベル(領域パルス外の範囲)であるときは、輝度信号も色差信号も通過させず、規定した値の信号を出力する。本実施形態では、黒レベルの輝度信号及び飽和度0の色差信号を出力する。
そして、ステップS403にて、B/Aより角度T1を検出する。この角度T1は、ステップS402の処理より明らかなように、0°〜45°となる。角度T1は、折れ線近似やROMテーブルによって算出することができる。
ステップS404にて、Aが|R−Y|であるか、すなわち、|R−Y|>|B−Y|であるか否かを判定する。|R−Y|>|B−Y|でなければ、そのままステップS406に進む。|R−Y|>|B−Y|であれば、ステップS405にて、角度T1を、(90−T1)なる角度Tに置き換える。これによって、tan-1((R−Y)/(B−Y))が求められる。
更に、ステップS406にて、ステップS401にて検出した象限のデータを用いて第2象限か否かを判定し、第2象限であれば、ステップS407にて、T=180−T1を算出する。第2象限でなければ、ステップS408にて、第3象限か否かを判定し、第3象限であれば、ステップS409にて、T=180+T1を算出する。
第3象限でなければ、ステップS410にて、第4象限か否かを判定し、第4象限であれば、ステップS411にて、T=360−T1を算出する。第4象限でもない、すなわち第1象限であるときは、ステップS412にて角度TをT1とする。そして、最終的に、ステップS413にて、入力画素それぞれの図8の色差平面上でなす角度Tを出力する。
Vc=sqrt(Cr×Cr+Cb×Cb)
Vcはベクトルのスカラ量であり、ここでは飽和度を表す。Crは、図8に示すように色差信号の(R−Y)軸成分であり、Cbは(B−Y)軸成分である。またsqrt( )は平方根の演算を行う演算子である。
Vc=max(|Cr|,|Cb|)+0.4×min(|Cr|,|Cb|)
ただし、max(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、大きい方を選択する演算処理であり、min(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、小さい方を選択する処理である。
時間差分フィルタ75は、検出領域画像メモリ80、第1の減算器81、第1の絶対値器82、第1の非線形処理器83と書き込みパルス生成器90を備える時間差分抽出部750と、周辺領域画像メモリ84、第2の減算器85、第2の絶対値器86、第2の非線形処理器87、タイミングゲート器88と動き発生量算出器89を備える動き検出部751とを備える。時間差分抽出部750は、後述する検出領域(検出エリア)にかざされた手の領域を抽出し、動き検出部751は、後述する周辺検出領域にかざされている手の動きを検出する。
CPUバスには、制御情報判断器18が接続されており、制御情報判断器18に供給される情報はソフトウェアで処理される。制御情報判断器18は、時間差分フィルタ75を制御する時間差分フィルタ制御部18Fを備えている。
図12(A)は、周辺検出領域46が検出領域45の外周縁より大きい内周縁を有する枠形状であり、検出領域45がその内周縁の内側にある第1実施例を示す。周辺検出領域46の内周縁は、検出領域45の外周縁と同じ大きさであってもよい。図12(B)は、周辺検出領域461に検出領域45が重なっている第2実施例を示し、どちらの実施例を用いても所望の動作が得られる。本実施形態では、周辺検出領域46の内周縁が検出領域45の外周縁と同じ大きさである第1実施例を用いた。
図12(C)、(D)に示すように、隣接する周辺検出領域46、461が重なって設けられていても、いずれの周辺検出領域46、461も手がかざされていることを問題なく検出できる。
書き込みパルス生成器90は、時間差分フィルタ制御部18Fの制御及びタイミングパルス発生器12から入力されるタイミングパルスに基づき、検出領域45内の画像を検出領域画像メモリ80に記憶させるための第1の書き込み制御信号を生成する。第1の読み出し制御信号は、制御情報判断器18から出力されても、制御情報判断器18によって制御された信号発生回路で生成され出力されてもよい。
図13において、横軸は第1の絶対値器82から入力された絶対値化された差分信号Sinを、縦軸は第1の非線形処理器83から出力される信号Soutを示す。0からa値までの低レベル領域の差分信号Sinは、ノイズとみなし出力Soutを0にする。
Sinがa値以上となるとSoutが発生し、Sinがb1〜b3値となりSoutがリミット値に達すると、Sinがb1〜b3値以上でもSoutは一定(リミット値)となる。リミット値は、出力の量子化数による値で、a=bとして2値1ビットとしたり、0〜31ステップの5ビットとするなど、適宜設定すればよい。なお、第1の非線形処理器83の出力を2値1ビットとする場合は第1の非線形処理器83を比較器で実現できる。第1の非線形処理器83は比較器も含む。
第2の減算器85は、現在のフレーム(画面)における周辺検出領域46の画像信号と、検出領域画像メモリ84に書き込まれた少なくとも1フレーム前の周辺検出領域46の画像信号との差分を求める。差分を求めることで、周辺検出領域46内にかざされた手の領域を示す画像信号が抽出できる。減算の符号の向きは特に規定するものではない。
第2の絶対値器86と第2の非線形処理器87は、第1の絶対値器82と第1の非線形処理器83と同様の機能を有するものであり、第2の非線形処理器87の入出力特性は図13に示すものと同様である。
動き発生量算出器89はタイミングゲート器88から出力されたデータを受け取り、所定の値以上を示すデータの数をカウントする。カウントした値は、手の動きに応じて発生する動き発生量を示すデータである。この動き発生量データを以下単に第1発生量とよぶ。動き発生量算出器89は、入力されたデータが0を超えるたびにカウントするものであっても、所定の値以上のときカウントするものであってもよい。
動き発生量算出器89から出力された第1発生量は、CPUバスを経由し時間差分フィルタ制御部18Fに入力され、ソフトウェア処理される。
図14(B)及び図15(B)は、手の動きを示す。図14(B)は、手の指を伸ばしてプッシュボタン(1−8)に対応した検出エリア(2−8)にかざした状態を示し、図15(B)は、手の指を折り曲げた状態を示す。本実施形態では、この指を折り曲げる動作を2度繰り返すことでプッシュボタン(1−1)〜(1−8)を押した(操作した)ことを制御情報判断器18に認識させるようにしている。制御情報判断器18は、操作されたプッシュボタンに割り当てられた電子機器の動作に対応する制御信号を出力する。なお、プッシュボタン(1−1)〜(1−8)を押したことを認識させるのは、手をかざしただけとしてもよく、折り曲げ動作を1度あるいは3度以上としてもよく、適宜設定すればよい。
上記したようにオブジェクト抽出器30に入力された映像信号は、図7の特定色フィルタ71で特定された色、すなわち本実施形態では手の肌色の領域のみが通過する。また、階調限定器72によって限定された階調の領域が通過し、時間差分フィルタ75によって背景と区別された手の領域が通過する。
オブジェクトゲート器74から出力された信号は、更に図6のタイミングゲート器31においてプッシュボタン(1−1)〜(1−8)の領域が限定され、プッシュボタン(1−1)〜(1−8)以外の領域は無視される。
ヒストグラム検出器33〜最大値検出器37(検出器33〜37)から出力された各検出信号は、それぞれ第1の動作検出器181〜第5の動作検出器185に入力され、指の折り曲げ動作を検出する。そして折り曲げが検出されると、制御情報発生器186から操作されたプッシュボタン(1−1)〜(1−8)に割り当てられた電子機器の動作に対応する制御信号が出力される。
高域発生量検出器35は、空間フィルタ(2次元フィルタ)にて高域成分を抽出し、1画面内における高域成分の発生量を第3の動作検出器183に出力する。最小値検出器36は、1画面内の輝度信号の最小階調値を、また最大値検出器37は1画面内の輝度信号の最大階調値をそれぞれ第4の動作検出器184、第5の動作検出器185へ出力する。
図18(A)、(B)を比較すれば分かるように、指を伸ばした状態と指を折り曲げた状態とでは黒の部分である階調“0”の頻度が異なる。これはオブジェクト抽出器30の出力信号に含まれる階調“0”の部分の量が異なるからである。従って、階調“0”の頻度のみに基づいて手の動作を判別することも可能である。このような階調“0”の頻度のみに基づいた判別では、制御情報判断器18における判別動作の処理が簡略化されるので都合がよい。
なお、検出器33〜37の全てを備えることは好ましいが、例えばヒストグラム検出器33のみでも手の動作を認識することができるので、ヒストグラム検出器33のみを備える構成であってもよい。
制御情報発生器186は第1の動作検出器181〜第5の動作検出器185から受け取ったデータに基づいて、操作されたプッシュボタン(1−1)〜(1−8)に割り当てられた電子機器の動作に対応する制御信号を発生させる。後述するように、制御情報発生器186の出力はフラグ生成器180によって禁止される場合もある。
フラグ生成器180は、時間差分フィルタ75から入力されたデータに基づいて各種のフラグを生成し、制御情報発生器186または論理和器187に供給する。論理和器187は、第1の動作検出器181及びフラグ生成器180から供給されたフラグに基づいて検出領域画像メモリ80の書き込み停止を制御するためのフラグを生成し、時間差分フィルタ75に供給する。本実施形態では、フラグ生成器180と論理和器187とで時間差分フィルタ制御部18Fを構成している。
縦軸に示す第1発生量の閾値th1とth2について、図20(A)、(B)を用いて説明する。
図20(A)に示す領域47は、周辺検出領域46にかざされている手によって発生した差分に基づく第1発生量を簡易的に図示したものである。同様に、図20(B)に示す領域48は、手を振っている場合の周辺検出領域46にかざされている手による第1発生量である。図20(A)、(B)より分かるように、特定のプッシュボタンに手をかざす意志がない場合に発生する領域48は、プッシュボタンに手をかざす意志がある場合に発生する領域47より大きく、すなわち第1発生量が異なる。
図19(A)において第1発生量が閾値th1以下のとき、時間差分フィルタ制御部18Fは書き込みパルス生成器90を介して、検出領域画像メモリ80に対して検出領域45の画像を書き込むよう制御している。
時刻t1において第1発生量が閾値th1を超えると、第1発生量が閾値th1を超えない期間P1が、時刻t1以前に確保されていたかが確認される。期間P1は、フラグ生成器180が周辺検出領域46に手が進入していないと判断している期間である。期間P1が確認できると、続いて時刻t1から期間P2が経過した後、フラグ生成器180は図19(B)に示す第1検出フラグを立ち上げる。すなわちフラグ生成器180は、第1発生量において閾値th1を超えた時点から所定の時間(期間P2)を経過した時点で発生する第1検出フラグを、閾値th1を超えた期間に対応して生成する。この第1検出フラグは論理和器187に供給される。
期間P1を設けることで、第1発生量が閾値th1を超えても期間P1が確保できない場合にはノイズとして除外できる。本実施形態は背景が動いていないことを前提条件としているため、期間P1によって第1発生量が小さい画像を背景として検出領域画像メモリ80が記憶できる。従って周辺検出領域46に手が入ってきたときに発生する、背景との差分が精度よく得られる。
動き発生量算出器89で算出される第1発生量が閾値th2以上となった場合には、フラグ生成器180はプッシュボタンが所定の動作を行わないように図19(F)に示す制御禁止フラグを生成して、制御情報発生器186に供給する。これにより制御情報発生器186は制御禁止フラグに基づいて制御信号を出力することを禁止して、プッシュボタンに対応する制御動作を停止させる。
時刻t9から時刻t14は、検出領域45に手をかざし、図15(B)に示す指の折り曲げ動作を2度行った場合の第2発生量を示している。図19(A)に示す周辺検出領域46における第1発生量は、時刻t7から時刻t8の期間と時刻t13から時刻t16の期間、閾値th1以上となっている。時刻t7から時刻t8の期間は、検出領域45にかざそうとする手が周辺検出領域46で検出される期間を示し、時刻t13から時刻t16の期間はプッシュボタンの操作が終了し、検出領域45に手がかざされなくなり、周辺検出領域46からも手が検出されなくなるまでの期間を示す。
時刻t11から時刻t12を含んで発生している破線にて示す波形は、図12(B)に示す第2実施例の周辺検出領域461を使用したときに検出される第1発生量である。指を折り曲げる動作によって周辺検出領域461における第1発生量が変化する。
第1の動作検出器181は検出領域45内にかざされている手の領域の大きさに応じて発生する第2発生量を示す第2発生量データを算出し、第2発生量データにおける閾値th3を超えた期間(時刻t2から時刻t4、時刻t9から時刻t15)に対応して第2検出フラグを生成する。第2検出フラグは論理和器187に供給される。
図11において、論理和器187から出力され、書き込みパルス生成器90に供給される書き込み停止フラグがローレベルのとき、第1の書き込み制御信号によって検出領域画像メモリ80へ輝度信号が書き込まれ、書き込み停止フラグがハイレベルとなると第1の書き込み制御信号によって検出領域画像メモリ80への書き込みが停止されて、最後に書き込まれたフレームのデータが検出領域画像メモリ80から読み出される。論理和器187は、図19(B)に示す第1検出フラグと図19(D)に示す第2検出フラグとに基づいて、検出領域画像メモリ80の書き込みを停止するための書き込み停止フラグを生成する。本実施形態では、フラグ生成器180と第1の動作検出器181と論理和器187とが第1発生量の大きさに応じて検出領域画像メモリ80の書き込みを停止するよう制御する書き込み制御部として動作する。
周辺検出領域46に手がかざされてから検出領域45に手がかざされる直前までの時間が短くても背景のみの画像を記憶できると、第1の減算器81は、検出領域45にかざされた手によって発生する差分をより正確に得られる。また、第1の動作検出器181より出力される図19(C)に示す検出領域45にかざされている手によって発生する第2発生量も、より正確な値となり、図16に示す手の部分だけをより的確に抽出できる。すなわち、対象物を精度よく抽出することができ、プッシュボタンが制御されたかどうかの誤認識を避けることができる。
図21(A)は、全てのプッシュボタン(1−1)〜(1−8)に対応する検出領域45及び周辺検出領域46に手などの動作するものがかざされていないので、第1の書き込み制御信号において図19(E)に示す書き込み停止フラグはローレベルである。
このようにプッシュボタンにかざそうとする手が周辺検出領域46にかざされると、対応する検出領域45の検出領域画像メモリ80への書き込みパルスは書き込み停止フラグにより停止され、手が検出領域45にかざされる直前の背景のみの画像が検出領域画像メモリ80に書き込まれる。そして、手が検出領域45及び周辺検出領域46で検出されなくなると、書き込み停止フラグが立ち下がり検出領域画像メモリ80への書き込みが再開する。
図22(A)は、時間軸を1垂直周期で刻むフレーム番号を上段に、入力信号にフレーム単位に番号(F1,F2…)を振ったものを下段に示す。図22(B)に周辺領域画像メモリ84に入力される第2の書き込み制御信号を示す。第2の書き込み制御信号は、1フレーム置きで入力信号(輝度信号)を周辺領域画像メモリ84に書き込む信号である。
図22(C)は、周辺領域画像メモリ84に入力される第2の読み出し制御信号を示す。第2の読み出し制御信号は、F1,F1,F3,F3,F5,F5と同一のフレームを2度続けて読み出している。これは、第2の読み出し制御信号が周辺領域画像メモリ84から毎フレーム読み出す信号であり、周辺領域画像メモリ84への書き込みが、図22(B)に示したように1フレーム置きに行われるためである。
図22(B)に示すように1フレーム置きに書き込みをするような第2の書き込み制御信号とすることにより、第2の減算器85より出力される差分信号は図22(D)に示すように1フレーム間差分と2フレーム間差分の第1発生量が交互に得られる。1フレーム間差分による識別信号を2倍して平均化して活用すればよい。または1フレーム間差分の識別信号のみ、2フレーム間差分の識別信号のみなど状況に合わせて切り替えて活用することもできる。
このような処理を行うことで、周辺領域画像メモリ84のメモリ容量が1フレームで、1フレーム置きに書き込みを行う構成でも、より高い精度で、漏れの少ない動き検出部751が実現できる。
周辺検出領域46から検出される手に基づく第1発生量を示すデータには、意図しないノイズも含まれている。ノイズに対する耐性を高めるためにはこのデータを低域通過フィルタ処理したり、またこの結果を累積させて単発的な信号に反応しないようにすることが好ましい。
また、図19(B)に示す第1検出フラグは期間P2を経た後立ち上がるので、速い動きで手が検出領域45にかざされた際には、検出領域画像メモリ80の書き込みを停止する前に手がかざされてしまい、手が入った画像を背景画像として書き込んでしまう可能性がある。
第1検出前置フラグを設けたことで、第1実施例のアルゴリズムであれば時刻t6で立ち上がっていた書き込み停止フラグは、図23(E)に示すように時刻t5で立ち上がる。従って第2実施例のアルゴリズムによれば書き込み停止フラグは、時刻t5〜t6までの期間Δtだけ立ち上がりが速まるので、検出領域画像メモリ80に手が入った背景が書き込まれることをより効果的に回避できる。
これは、ノイズに対する耐性を考慮せず時間応答を速くしたため、立ち上がる回数が多い図23(G)の第1検出前置フラグと、ノイズに対する耐性をもたせた図23(B)の第1検出フラグとの論理和をとり、書き込み停止フラグとして機能させることによって実現したものである。
加算器92から出力された加算信号は、時間差分抽出部750の検出領域画像メモリ80と第1の減算器81、及び動き検出部の周辺領域画像メモリ84と第2の減算器85へ入力されている。
また、本実施形態は手を対象物として説明したが、自発光機能を具備した遠隔操作用機器を対象物としたり、また遠隔操作用機器が具備する発光体から出射される縦線や横線などの模様を対象物としたりしてもよく、同様の制御方法が適用できる。
2 ビデオカメラ
3 ユーザ(操作者)
12 タイミングパルス発生器
13 鏡像変換器
14 スケーラ
15 グラフィックス生成器
16 第1の混合器
17 検出部
18 制御情報判断器(制御部)
21 表示装置
Claims (6)
- 電子機器において、
表示装置と、
前記表示装置の前に位置する操作者を撮影するビデオカメラと、
前記ビデオカメラで撮影された画像の鏡像変換を行う鏡像変換器と、
少なくとも1つの操作ボタンを含む操作用画像を生成する操作用画像生成器と、
前記鏡像変換器より出力された鏡像変換画像信号と前記操作用画像生成器より出力された操作用画像信号とを混合する混合器と、
前記混合器により混合された画像を前記表示装置の画面上に表示させた状態で、前記画面に表示された操作者が前記操作ボタンを対象物により操作する所定の動作に対応した検出信号を発生する検出器と、
前記検出器により出力される検出信号に基づいて、操作された前記操作ボタンに対応する制御動作を行う制御器とを備え、
前記検出器は、
前記鏡像変換画像信号における前記操作ボタンに対応して設けられた検出領域の画像信号を記憶する第1のメモリと、
前記鏡像変換画像信号における前記検出領域の周辺に位置する周辺検出領域の画像信号を記憶する第2のメモリと、
前記鏡像変換画像信号の現在の画面の画像信号と前記第1のメモリから読み出された過去の画面の画像信号との差分を求めることにより前記検出領域内にかざされている前記対象物の領域を示す画像信号を出力する第1の減算器と、
前記鏡像変換画像信号の現在の画面の画像信号と前記第2のメモリから読み出された過去の画面の画像信号との差分を求めることにより前記周辺検出領域内にかざされている前記対象物の領域を示す画像信号を出力する第2の減算器と、
前記第1の減算器からの出力信号を用いて得られた前記対象物の領域を示す画像信号に基づいて前記検出信号を発生する発生器と、
前記第2の減算器より出力された前記画像信号に基づいて、前記周辺検出領域内における前記対象物がかざされている領域の大きさに応じて発生する発生量を示す第1のデータを算出する算出器とを備え、
更に前記電子機器は、前記第1のデータの大きさに応じて前記第1のメモリの書き込みを停止するよう制御する書き込み制御部とを備えることを特徴とする電子機器。 - 前記書き込み制御部は、
前記第1のデータにおける予め定めた第1の閾値を超えた期間に対応して第1のフラグを生成する第1のフラグ生成器と、
前記検出領域内にかざされている前記対象物の領域の大きさに応じて発生する発生量を示す第2のデータを算出し、前記第2のデータにおける予め定めた第2の閾値を超えた期間に対応して第2のフラグを生成する第2のフラグ生成器と、
前記第1のフラグと前記第2のフラグとに基づいて、前記第1のメモリの書き込みを停止するための書き込み停止フラグを生成するための第3のフラグ生成器とを備えることを特徴とする請求項1記載の電子機器。 - 前記第1のフラグ生成器は、前記第1のデータが前記第1の閾値を超えた時点から所定の時間を経過した時点で発生する前記第1のフラグを生成することを特徴とする請求項2記載の電子機器。
- 前記第1のフラグ生成器は、前記第1のデータが前記第1の閾値を超えた時点で発生する第4のフラグを生成し、
前記第3のフラグ生成器は、前記第1のフラグと前記第2のフラグと前記第4のフラグとに基づいて前記書き込み停止フラグを生成することを特徴とする請求項3記載の電子機器。 - 前記第1のフラグ生成器は、前記第1のデータにおける予め定めた第3の閾値を超えた期間に対応して第5のフラグを生成し、
前記制御器は、前記第5のフラグに基づいて前記制御動作を停止させることを特徴とする請求項2ないし4のいずれか一項に記載の電子機器。 - 前記鏡像変換画像信号の輝度信号と色信号とを加算して加算信号を出力する加算器を備え、前記第1及び第2のメモリに入力される前記画像信号は、前記加算器より出力された前記加算信号であることを特徴とする請求項1ないし5のいずれか一項に記載の電子機器。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006243788A JP4650381B2 (ja) | 2006-09-08 | 2006-09-08 | 電子機器 |
CNB2007101381886A CN100512397C (zh) | 2006-09-08 | 2007-07-31 | 电子设备 |
US11/896,839 US8179367B2 (en) | 2006-09-08 | 2007-09-06 | Electronic appliance having a display and a detector for generating a detection signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006243788A JP4650381B2 (ja) | 2006-09-08 | 2006-09-08 | 電子機器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008065663A JP2008065663A (ja) | 2008-03-21 |
JP4650381B2 true JP4650381B2 (ja) | 2011-03-16 |
Family
ID=39169094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006243788A Active JP4650381B2 (ja) | 2006-09-08 | 2006-09-08 | 電子機器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8179367B2 (ja) |
JP (1) | JP4650381B2 (ja) |
CN (1) | CN100512397C (ja) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4419768B2 (ja) * | 2004-09-21 | 2010-02-24 | 日本ビクター株式会社 | 電子機器の制御装置 |
JP4720738B2 (ja) * | 2006-12-20 | 2011-07-13 | 日本ビクター株式会社 | 電子機器 |
JP4591724B2 (ja) * | 2008-05-14 | 2010-12-01 | セイコーエプソン株式会社 | 表示装置および表示方法 |
KR20100039017A (ko) * | 2008-10-07 | 2010-04-15 | 한국전자통신연구원 | 메뉴 마크업 언어를 이용한 원격 제어 장치 |
JP5256109B2 (ja) | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
US20100271297A1 (en) * | 2009-04-27 | 2010-10-28 | Shoei-Lai Chen | Non-contact touchpad apparatus and method for operating the same |
US20100271303A1 (en) * | 2009-04-27 | 2010-10-28 | Shoei-Lai Chen | Non-contact mouse apparatus and method for operating the same |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
EP2256590A1 (en) * | 2009-05-26 | 2010-12-01 | Topspeed Technology Corp. | Method for controlling gesture-based remote control system |
US8112719B2 (en) * | 2009-05-26 | 2012-02-07 | Topseed Technology Corp. | Method for controlling gesture-based remote control system |
US8683456B2 (en) * | 2009-07-13 | 2014-03-25 | Apple Inc. | Test partitioning for a non-volatile memory |
JP4983962B2 (ja) * | 2009-07-23 | 2012-07-25 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
US8645776B2 (en) * | 2010-03-24 | 2014-02-04 | Apple Inc. | Run-time testing of memory locations in a non-volatile memory |
US8650446B2 (en) * | 2010-03-24 | 2014-02-11 | Apple Inc. | Management of a non-volatile memory based on test quality |
US9030536B2 (en) | 2010-06-04 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus and method for presenting media content |
US8402502B2 (en) | 2010-06-16 | 2013-03-19 | At&T Intellectual Property I, L.P. | Method and apparatus for presenting media content |
US8640182B2 (en) | 2010-06-30 | 2014-01-28 | At&T Intellectual Property I, L.P. | Method for detecting a viewing apparatus |
US9787974B2 (en) | 2010-06-30 | 2017-10-10 | At&T Intellectual Property I, L.P. | Method and apparatus for delivering media content |
US8593574B2 (en) | 2010-06-30 | 2013-11-26 | At&T Intellectual Property I, L.P. | Apparatus and method for providing dimensional media content based on detected display capability |
US8918831B2 (en) | 2010-07-06 | 2014-12-23 | At&T Intellectual Property I, Lp | Method and apparatus for managing a presentation of media content |
US9049426B2 (en) | 2010-07-07 | 2015-06-02 | At&T Intellectual Property I, Lp | Apparatus and method for distributing three dimensional media content |
US9232274B2 (en) | 2010-07-20 | 2016-01-05 | At&T Intellectual Property I, L.P. | Apparatus for adapting a presentation of media content to a requesting device |
US9560406B2 (en) | 2010-07-20 | 2017-01-31 | At&T Intellectual Property I, L.P. | Method and apparatus for adapting a presentation of media content |
US9032470B2 (en) | 2010-07-20 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus for adapting a presentation of media content according to a position of a viewing apparatus |
US8751903B2 (en) | 2010-07-26 | 2014-06-10 | Apple Inc. | Methods and systems for monitoring write operations of non-volatile memory |
US8994716B2 (en) | 2010-08-02 | 2015-03-31 | At&T Intellectual Property I, Lp | Apparatus and method for providing media content |
US8438502B2 (en) | 2010-08-25 | 2013-05-07 | At&T Intellectual Property I, L.P. | Apparatus for controlling three-dimensional images |
US8947511B2 (en) | 2010-10-01 | 2015-02-03 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting three-dimensional media content |
US8947497B2 (en) | 2011-06-24 | 2015-02-03 | At&T Intellectual Property I, Lp | Apparatus and method for managing telepresence sessions |
US9602766B2 (en) | 2011-06-24 | 2017-03-21 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting three dimensional objects with telepresence |
US9030522B2 (en) | 2011-06-24 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus and method for providing media content |
US9445046B2 (en) | 2011-06-24 | 2016-09-13 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting media content with telepresence |
US8587635B2 (en) | 2011-07-15 | 2013-11-19 | At&T Intellectual Property I, L.P. | Apparatus and method for providing media services with telepresence |
KR101880998B1 (ko) | 2011-10-14 | 2018-07-24 | 삼성전자주식회사 | 이벤트 기반 비전 센서를 이용한 동작 인식 장치 및 방법 |
JP6398248B2 (ja) | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
US10127439B2 (en) * | 2015-01-15 | 2018-11-13 | Samsung Electronics Co., Ltd. | Object recognition method and apparatus |
KR102394190B1 (ko) * | 2017-11-13 | 2022-05-09 | 엘지전자 주식회사 | 유기 발광 다이오드 디스플레이 장치 및 그의 동작 방법 |
JP7374581B2 (ja) * | 2018-10-01 | 2023-11-07 | カシオ計算機株式会社 | ロボット、画像処理方法及びプログラム |
WO2020096576A1 (en) * | 2018-11-06 | 2020-05-14 | Hewlett-Packard Development Company, L.P. | Iconographic control panel of an image forming apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001222375A (ja) * | 2000-02-08 | 2001-08-17 | Seiko Epson Corp | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
JP2002196855A (ja) * | 2000-10-06 | 2002-07-12 | Sony Computer Entertainment Inc | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
JP2004246578A (ja) * | 2003-02-13 | 2004-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェース方法、装置、およびプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5051929A (en) * | 1987-10-19 | 1991-09-24 | Interand Corporation | Electronic memory state reallocation system for improving the resolution of color coding video systems |
JP3096387B2 (ja) * | 1994-01-28 | 2000-10-10 | 三菱電機株式会社 | 数値演算処理装置 |
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) * | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US6431711B1 (en) * | 2000-12-06 | 2002-08-13 | International Business Machines Corporation | Multiple-surface display projector with interactive input capability |
JP3860550B2 (ja) | 2003-03-07 | 2006-12-20 | 日本電信電話株式会社 | インタフェース方法、装置、およびプログラム |
JP3860560B2 (ja) | 2003-05-30 | 2006-12-20 | 日本電信電話株式会社 | 表示インタフェース方法および装置 |
JP3851907B2 (ja) * | 2004-02-18 | 2006-11-29 | 株式会社ソニー・コンピュータエンタテインメント | 画像表示システム及びビデオゲームシステム |
JP4419768B2 (ja) | 2004-09-21 | 2010-02-24 | 日本ビクター株式会社 | 電子機器の制御装置 |
-
2006
- 2006-09-08 JP JP2006243788A patent/JP4650381B2/ja active Active
-
2007
- 2007-07-31 CN CNB2007101381886A patent/CN100512397C/zh active Active
- 2007-09-06 US US11/896,839 patent/US8179367B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001222375A (ja) * | 2000-02-08 | 2001-08-17 | Seiko Epson Corp | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
JP2002196855A (ja) * | 2000-10-06 | 2002-07-12 | Sony Computer Entertainment Inc | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
JP2004246578A (ja) * | 2003-02-13 | 2004-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェース方法、装置、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN101141579A (zh) | 2008-03-12 |
CN100512397C (zh) | 2009-07-08 |
US8179367B2 (en) | 2012-05-15 |
JP2008065663A (ja) | 2008-03-21 |
US20080062125A1 (en) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4650381B2 (ja) | 電子機器 | |
JP4569555B2 (ja) | 電子機器 | |
US10671175B2 (en) | Image processing apparatus, image processing method, and program product to control a display to display an image generated based on a manipulation target image | |
US9704028B2 (en) | Image processing apparatus and program | |
JP4419768B2 (ja) | 電子機器の制御装置 | |
US20170102776A1 (en) | Information processing apparatus, method and program | |
US8144121B2 (en) | Method and apparatus for controlling electronic appliance | |
JP4720738B2 (ja) | 電子機器 | |
AU2016202282A1 (en) | Display apparatus and controlling method thereof | |
JP2009089068A (ja) | 電子機器の制御装置、制御方法及び制御プログラム | |
US9402029B2 (en) | Image processing apparatus capable of specifying positions on screen | |
US20170048447A1 (en) | Image processing apparatus, image processing method, and program | |
KR20150078229A (ko) | 디스플레이 장치 및 디스플레이 장치의 채널 맵 관리 방법 | |
JP2007312823A (ja) | タッチパネル入力ユニットおよび内視鏡プロセッサ | |
JP2009087095A (ja) | 電子機器の制御装置、制御方法及び制御プログラム | |
US20140337807A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP2008118633A (ja) | 電子機器の制御装置及び制御方法 | |
JP2009010849A (ja) | 電子機器の制御装置 | |
TWI610198B (zh) | 遙控裝置與根據至少一靜態手勢產生控制指令的方法 | |
JP4544195B2 (ja) | 電子機器 | |
JP2008282131A (ja) | 電子機器の制御装置 | |
JP2010003303A (ja) | 電子機器の制御装置 | |
US9639161B2 (en) | Gesture recognition module and gesture recognition method | |
JP2005148661A (ja) | 情報処理装置、および情報処理方法 | |
CN118317203A (en) | Image processing method and device, electronic equipment and chip |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101116 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101129 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4650381 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |