JP2014164755A - センサを用いる近接動作認識装置及びその装置を用いた方法 - Google Patents

センサを用いる近接動作認識装置及びその装置を用いた方法 Download PDF

Info

Publication number
JP2014164755A
JP2014164755A JP2014021352A JP2014021352A JP2014164755A JP 2014164755 A JP2014164755 A JP 2014164755A JP 2014021352 A JP2014021352 A JP 2014021352A JP 2014021352 A JP2014021352 A JP 2014021352A JP 2014164755 A JP2014164755 A JP 2014164755A
Authority
JP
Japan
Prior art keywords
input
proximity
sensor
input object
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014021352A
Other languages
English (en)
Other versions
JP6333568B2 (ja
Inventor
Seung Ju Han
承 周 韓
Joon-Ah Park
浚 我 朴
Hyun-Surk Ryu
賢 錫 柳
Du-Sik Park
斗 植 朴
Ki Myung Lee
起 明 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130137168A external-priority patent/KR102118610B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014164755A publication Critical patent/JP2014164755A/ja
Application granted granted Critical
Publication of JP6333568B2 publication Critical patent/JP6333568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

【課題】 センサを用いる近接動作認識装置を提供する。
【解決手段】 一実施形態に係るセンサを用いる近接動作認識装置において、近接動作を認識するための基準面から予め決定した距離よりも近い第1入力空間をセンシングするための第1センサと、前記基準面から前記予め決定した距離よりも遠い第2入力空間をセンシングするための第2センサと、入力オブジェクトが前記第1入力空間と前記第2入力空間との間をトランジションする場合、前記第1センサと前記第2センサとの間で前記トランジションと関連する情報を伝達する情報伝達制御部とを備える。
【選択図】 図1

Description

本発明は、センサを用いる近接動作認識装置及びその装置を用いた方法に関する。
スマートフォン、タブレットコンピュータ及びノート型パソコンなどの様々な携帯用機器で2次元の平面上で行われるタッチ入力方式が多く利用されている。特に、タッチ入力方式は、単一のタッチ入力を受けるシングルポイント認識方式から複数のタッチ入力を同時に受け入れるマルチポイント認識方式に発展してきた。
本発明の目的は、互いに異なるセンサが長所を組み合わせる技術を提供することである。
また、本発明の目的は、互いに異なるセンサ間のスイッチングが均一に(seamless)接続されるようにする技術を提供する。
また、本発明の目的は、現在の利用されないセンサを非活性化させることによって電力消耗を節減する技術を提供する。
また、本発明の目的は、電力消耗を節減すると同時に反応速度を向上させる技術を提供する。
また、本発明の目的は、より細かいポインティング動作が入力され得る技術を提供する。
一側面に係るセンサを用いる近接動作認識装置は、近接動作を認識するための基準面から予め決定した距離よりも近い第1入力空間をセンシングするための第1センサと、前記基準面から前記予め決定した距離よりも遠い第2入力空間をセンシングするための第2センサと、入力オブジェクトが前記第1入力空間と前記第2入力空間との間をトランジションする場合、前記第1センサと前記第2センサとの間で前記トランジションと関連する情報を伝達する情報伝達制御部とを備える。
ここで、入力オブジェクトと前記基準面との間の近接程度を測定する近接程度測定部と、前記近接程度により前記第1センサ及び前記第2センサを択一的に活性化させるセンサ制御部とをさらに備えてもよい。
さらに、前記近接動作認識装置は、近接動作インタフェースを表示するディスプレイと、前記第1入力空間で第1入力オブジェクトが入力される場合、前記第1入力オブジェクトと前記基準面との間の近接程度により前記第1入力オブジェクトによってポインティングされる領域の大きさが変更されるように前記近接動作インタフェースを制御するインタフェース制御部とをさらに備えてもよい。
さらに、前記近接動作認識装置は、前記第2入力空間で第2入力オブジェクトが入力される場合、前記第2入力オブジェクトによってポインティングされる点の周辺に予め決定した少なくとも1つのアイコンが配置されるように前記近接動作インタフェースを制御するインタフェース制御部と、前記第1入力空間で第1入力オブジェクトが入力される場合、前記第1センサの出力信号に基づいて前記第1入力オブジェクトの終点及び軸を抽出する信号処理部をさらに含んでもよい。ここで、前記インタフェース制御部は、前記第1入力空間で前記第1入力オブジェクトが入力される場合、前記第1入力オブジェクトの終点及び軸を用いて前記第1入力オブジェクトによって前記ディスプレイが遮られる領域周辺に前記予め決定した少なくとも1つのアイコンが配置されるように前記近接動作インタフェースを制御してもよい。
また、前記近接動作認識装置は、前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて複数の入力オブジェクトが検出されるか否かを判断する複数入力検出部と、前記複数入力検出部によって複数の入力オブジェクトが検出されると判断される場合、予め決定したモードに応じて前記複数の入力オブジェクトのうち少なくとも1つの入力オブジェクトを選択する入力選択部とをさらに備えてもよい。
また、前記近接動作認識装置は、前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて入力パターンを認識する入力パターン認識部と、前記入力パターンに対応する機能を実行する機能実行部とをさらに備えてもよい。
また、前記近接動作認識装置は、2次元インタフェース及び3次元インタフェースを提供するディスプレイと、前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて入力オブジェクトの位置、速度、または角速度のうち少なくとも1つを算出する算出部と、前記算出結果に基づいて前記ディスプレイの動作モードを制御するディスプレイ制御部とをさらに備えてもよい。
他の一実施形態に係る近接動作認識方法は、第1センサを用いて近接動作を認識するための基準面から予め決定した距離よりも近い第1入力空間に入力オブジェクトが存在する場合、前記第1入力空間をセンシングするステップと、第2センサを用いて前記基準面から前記予め決定した距離よりも遠い第2入力空間に入力オブジェクトが存在する場合、前記第2入力空間をセンシングするステップと、入力オブジェクトが前記第1入力空間と前記第2入力空間との間をトランジションする場合、前記第1センサと前記第2センサとの間で前記トランジションと関連する情報を伝達するステップとを含む。
更なる位置実施形態に係るユーザインタフェースを制御する制御方法は、ユーザインタフェースと近い第1領域で入力をセンシングするステップと、前記第1領域の外の第2領域で入力をセンシングするステップと、前記第1領域と前記第2領域で検出された入力の位置及び動きのうち少なくとも1つに基づいて前記ユーザインタフェースを第1方式と第2方式に選択的に制御するステップとを含む。
本発明によると、実施形態は互いに異なるセンサが長所を組み合わせる技術を提供することができる。
また、本発明によると、互いに異なるセンサの間スイッチングが均一に接続されるようにする技術を提供することができる。
また、本発明によると、現在の利用されないセンサを非活性化させることによって電力消耗を節減する技術を提供することができる。
また、本発明によると、電力消耗を節減すると同時に反応速度を向上させる技術を提供することができる。
また、本発明によると、より細かいポインティング動作が入力され得る技術を提供することができる。
一実施形態に係るセンサを用いる近接動作認識装置を説明するための図である。 一実施形態に係る第1センサ及び第2センサの出力信号を説明するための図である。 一実施形態に係る近接動作認識装置のパワーセービングモードを説明するための図である。 一実施形態に係る近接動作認識装置が提供する近接動作インタフェースを説明するための図である。 一実施形態に係る近接動作認識装置の動作を説明するための動作フローチャートである。 一実施形態に係る近接動作認識装置のアイコン自動配置動作を説明するための図である。 一実施形態に係る近接動作認識装置のアイコン自動配置動作を説明するための図である。 一実施形態に係る近接動作認識装置のアイコン自動配置動作のための信号処理方法を説明するための図である。 一実施形態に係る近接動作認識装置のアイコン自動配置動作のための信号処理方法を説明するための図である。 一実施形態に係る近接動作認識装置のアイコン自動配置動作のための信号処理方法を説明するための図である。 一実施形態に係る複数の入力オブジェクトが検出される場合、近接動作認識装置の動作を説明するための図である。 一実施形態に係る複数の入力オブジェクトが検出される場合、近接動作認識装置の動作を説明するための図である。 一実施形態に係る複数の入力オブジェクトが検出される場合、近接動作認識装置の動作を説明するための図である。 一実施形態に係る複数の入力オブジェクトが検出される場合、近接動作認識装置の動作を説明するための図である。 一実施形態に係る入力パターンを認識する近接動作認識装置を示すブロック図である。 一実施形態に係る近接動作認識装置の2次元インタフェース及び3次元インタフェース変換動作を説明するための図である。 一実施形態に係る近接動作認識装置の2次元インタフェース及び3次元インタフェース変換動作を説明するための図である。
以下、実施形態を添付する図面を参照しながら詳細に説明する。
図1は、一実施形態に係るセンサを用いる近接動作認識装置を説明するための図である。図1を参照すると、一実施形態に係る近接動作認識装置100は、第1センサ110、第2センサ120、及び情報伝達制御部130を備える。ここで、近接動作認識技術は2次元のタッチ入力方式を3次元に発展させ得る技術であり、近接動作認識装置100は、利用者から近接動作の入力を受けて入力された近接動作を認識する装置として、固定型デバイスまたは携帯型デバイスなどの様々な形態で実現される。以下、第1センサ110は第1類型センサであり、第2センサ120は第1類型センサとは異なる類型の第2類型センサであってもよい。しかし、実施形態は、第1センサ110及び第2センサ120が異種センサと限定されることはない。例えば、実施形態は、第1センサ110と第2センサ120が同一の類型であるものの、互いに異なる領域の入力を検出する場合にも適用されてもよい。
第1センサ110は、近接動作を認識するための基準面140から予め決定した第1距離141よりも近い第1入力空間をセンシングしてもよい。図面に図示されていないが、一実施形態に係る近接動作認識装置100はディスプレイをさらに含んでもよく、この場合に基準面140はディスプレイ上に位置してもよい。ここで、第1センサ110は様々な方式で実現されてもよい。例えば、第1センサ110は、ディスプレイの隅部に設けられる超音波センサまたは赤外線センサを用いて実現されてもよい。または、第1センサ110は、タッチセンサパネル、深度センサまたはイメージセンサを用いて実現されてもよい。
また、第2センサ120は、基準面140から第1距離141よりも遠くて予め決定した第2距離142よりも近い第2入力空間をセンシングしてもよい。ここで、第2距離142の値は、第1距離141の値よりも大きくてもよい。ここで、入力オブジェクト150が第1距離141だけ離れた位置で入力される場合、近接動作認識装置100は予め決定された設定により第1センサ110または第2センサ120を用いて当該入力オブジェクトをセンシングする。ここで、第2センサ120は様々な方式で実現されてもよい。例えば、第2センサ120は、ディスプレイの隅部に設けられる超音波センサまたは赤外線センサを用いて実現されたり、タッチセンサパネル、深度センサ、またはイメージセンサを用いて実現されてもよい。ここで、第1距離141と第2距離142は、それぞれ第1センサ110の特性と第2センサ120の特性に応じて予め決定されてもよい。
一実施形態に係る近接動作認識装置100は、少なくとも2つの互いに異なるセンサを用いることによって、基準面140に最も近接する空間でセンシングされる入力と基準面140から相対的に遠い空間でセンシングされる入力を相異に処理してもよい。これによって、一実施形態に係る近接動作認識装置100は、互いに異なるセンサが有する長所(例えば、イメージセンサは広い入力空間をセンシングでき、タッチセンサパネルは迅速かつ正確に入力オブジェクトをセンシングできる)を組み合わせる技術を提供する。さらに、一実施形態に係る近接動作認識装置100は、タッチスクリーン入力方式に比べて入力による指の跡を残さない技術を提供する。また、近接動作認識装置100は、入力が直接画面に接する入力ロードを減らす技術を提供し、3次元空間を活用した様々な入力(例えば、ページをめくる動作、物をつかむ動作など、直観的で自然なジェスチャー入力など)を受け入れる技術を提供する。
以下、説明の便宜のために、第1センサ110は基準面140から5cm以内の空間をセンシングする静電式タッチセンサであり、第2センサ120は基準面140から5cm以上離れた空間をセンシングする視覚センサである場合を仮定する。ただし、本願の権利範囲はこれに限定されることはない。ここで、視覚センサは、対象体に対する光が時間により変化する程度(例えば、光の時間微分値)を検出することによって対象体の空間情報を認識することができる。そして、視覚センサは対象体に動きがある場合、背景と分離して動きのみを選択的に検出する。例えば、視覚センサは各ピクセルで光量の変化のみを検出する動的ビジョンセンサ(Dynamic Vision Sensor:DVS)から構成されてもよい。
また、情報伝達制御部130は、入力オブジェクト150が第1入力空間と第2入力空間との間をトランジション(移行)する場合、第1センサと第2センサとの間にトランジションと関連する情報を伝達する。例えば、入力オブジェクト150が基準面140から遠い位置で徐々に近接する場合を仮定する。この場合、入力オブジェクト150は、第2入力空間から第1入力空間にトランジションする。ここで、近接動作認識装置100は、入力オブジェクト150が第2入力空間で入力されると、第2センサ120を用いて入力オブジェクト150をセンシングする。一方、近接動作認識装置100は、入力オブジェクト150が第1入力空間で入力されると、第1センサ110を用いて入力オブジェクト150をセンシングする。したがって、入力オブジェクト150が第2入力空間から第1入力空間にトランジションする場合、近接動作認識装置100によって用いられるセンサが第2センサ120から第1センサ110にスイッチングされる。
ここで、情報伝達制御部130は、第2センサ120の出力信号に基づいて生成されたトランジションと関連する情報を第1センサ110またはセンサを制御する制御部に伝達してもよい。第1センサ110は、受信されたトランジションと関連する情報に基づいて第1入力空間から入力される入力オブジェクトをセンシングしてもよい。これによって、近接動作認識装置100は、互いに異なるセンサ間にスイッチングが均一に(seamless)接続されるようにする技術を提供する。例えば、トランジションと関連する情報は、第2センサ120によって検知された入力オブジェクトの位置と関連する情報を含んでもよい。第1センサ110は、トランジションと関連する情報に含まれた入力オブジェクトの位置を初期入力位置として利用してもよい。このような方式によって、近接動作認識装置100は、入力オブジェクトのセンシングに用いられるセンサが変更されても入力オブジェクトを連続的かつ均一にセンシングできる。前述した実施形態は、入力オブジェクト150が第1入力空間から第2入力空間にトランジションする場合にも適用される。
図2は、一実施形態に係る第1センサ及び第2センサの出力信号を説明するための図である。図2を参照すると、一実施形態に係る第1センサは、第1入力空間230でセンシングされる入力オブジェクトのx座標、y座標、及びz座標を出力してもよい。また、一実施形態に係る第2センサは、第2入力空間240でセンシングされるx座標及びy座標を出力してもよい。ここで、x座標、y座標、及びz座標は基準面220に存在する原点(例えば、基準面の左上段の隅部地点)を基準としてx軸方向211、y軸方向212、及びz軸方向213に入力オブジェクト250がセンシングされる位置を示す。
一実施形態に係る近接動作認識装置は、基準面220に最も近接する空間である第1入力空間230でセンシングされる入力は3次元座標として処理し、基準面220から相対的に遠い空間である第2入力空間240でセンシングされる入力は2次元座標として処理してもよい。この場合、入力オブジェクト250が第1入力空間230と第2入力空間240との間をトランジションするとき、情報伝達制御部によって伝えられるトランジションと関連する情報は、当該の入力空間でセンシングされる入力オブジェクトのx座標及びy座標を含んでもよい。第1センサまたは第2センサは、伝達されたx座標及びy座標を入力オブジェクトの初期位置に受け入れることによって、互いに異なるセンサ間のスイッチングを均一につなぐことが可能である。
図3は、一実施形態に係る近接動作認識装置のパワーセービングモードを説明するための図である。図3を参照すると、一実施形態に係る近接動作認識装置は、入力オブジェクト310と基準面320との間の近接程度に応じて、第1センサ及び第2センサを択一的に活性化させる。図面に示していないが、近接動作認識装置は、近接程度測定部及びセンサ制御部をさらに含んでもよい。
近接程度測定部は、入力オブジェクト310と基準面320との間の近接程度を測定する。ここで、近接程度は、入力オブジェクト310と基準面320が互いに近接する程度を示す尺度として、例えば、入力オブジェクト310と基準面320との間の最短距離などを含んでもよい。ここで、近接程度測定部は、第1センサ及び第2センサと区別される第3センサを用いて実現されてもよい。例えば、近接程度測定部は、赤外線センサ(IR sensor)を用いて実現されてもよい。または、他の実施形態に係る近接程度測定部は、第1センサの出力信号と第2センサの出力信号を用いて実現されてもよい。
センサ制御部は、近接程度測定部によって測定された近接程度により第1センサ及び第2センサを択一的に活性化させる。例えば、センサ制御部は、入力オブジェクト310が第1入力空間330で検出される場合、第1センサを活性化させて第2センサを非活性化させてもよい。また、センサ制御部は、入力オブジェクト310が第2入力空間350で検出される場合、第2センサを活性化させて第1センサを非活性化させてもよい。これによって、一実施形態に係る近接動作認識装置は、センサのうち現在の利用されていないセンサを非活性化することで電力消耗を節減する技術を提供できる。
それだけではなく、センサ制御部は、入力オブジェクト310が第1入力空間330と第2入力空間350との間のトランジション空間340で検出される場合、第1センサを活性化させた状態で第2センサを待機(stand−by)モードに動作させてもよい。他の実施形態に係るセンサ制御部は、入力オブジェクト310がトランジション空間340で検出される場合、第2センサを活性化させた状態で第1センサを待機モードに動作させてもよい。ここで、センサの待機モードは非活性化モードと区別される動作モードであり、例えば、当該センサが活性化するために要求される時間がさらに短い低電力動作モードなどを含んでもよい。これによって、一実施形態に係る近接動作認識装置は、電力消耗を節減する技術を提供すると同時にセンシングの反応速度を向上させる技術を提供できる。
図4は、一実施形態に係る近接動作認識装置が提供する近接動作インタフェースを説明するための図である。図4を参照すると、一実施形態に係る近接動作認識装置は、近接動作インタフェースを提供するディスプレイをさらに含む。ここで、基準面440はディスプレイ上に位置してもよい。より具体的に、近接動作認識装置は、入力される入力オブジェクトが基準面440と近接する程度により当該の入力オブジェクトによってポインティングされる領域の大きさが変更されるよう近接動作インタフェースを制御してもよい。例えば、近接動作認識装置は、第2入力空間460で入力オブジェクト410が入力する場合、第2センサを用いて入力オブジェクト410のx座標及びy座標を取得してもよい。近接動作認識装置は、取得されたx座標及びy座標を用いて入力オブジェクト410によってポインティングされる領域415を予め決定した大きさに表示してもよい。
さらに、近接動作認識装置は、第1入力空間450で入力オブジェクト420が入力する場合、第1センサを用いて入力オブジェクト420のx座標、y座標、及びz座標を取得してもよい。この場合、近接動作認識装置は、取得されたx座標及びy座標を用いて入力オブジェクト420によってポインティングされる領域425の大きさを変更してもよい。ここで、近接動作認識装置は、当該領域425の大きさを取得されたz座標により変更されるよう制御してもよい。例えば、近接動作認識装置は、取得されたz座標に基づいて入力オブジェクト420と基準面440との間の近接程度を抽出し、入力オブジェクト420が基準面440に近接するほど当該領域425の大きさが拡大するよう、近接動作インタフェースを制御する。したがって、一実施形態に係る近接動作認識装置は、入力オブジェクトと基準面との間の距離が近くなるにつれ当該入力オブジェクトによってポインティングされる領域が拡大されことで、より細かいポインティング動作が入力され得る技術を提供できる。
それだけではなく、近接動作認識装置は、入力オブジェクト430と基準面440が互いに接触したか否かを判断する。この場合、入力オブジェクト430は第1入力空間450で入力され、近接動作認識装置は第1センサを用いて入力オブジェクト430のx座標、y座標、及びz座標を取得する。近接動作認識装置は、入力オブジェクト430のz座標に基づいて入力オブジェクト430と基準面440が互いに接触したか否かを判断する。近接動作認識装置は、入力オブジェクト430と基準面440が互いに接触したとの判断に応じて、入力オブジェクト430によってポインティングされる領域435が選択されるよう近接動作インタフェースを制御する。
ここで、近接動作インタフェースは、少なくとも1つのアイコンを含んでもよい。この場合、近接動作認識装置は、入力オブジェクトと基準面が近接されるほど入力オブジェクトによってポインティングされるアイコンが拡大するよう近接動作インタフェースを制御してもよい。さらに、近接動作認識装置は、入力オブジェクトが基準面が接触する場合、当該入力オブジェクトによってポインティングされるアイコンが選択されるように近接動作インタフェースを制御してもよい。さらに、近接動作認識装置は、選択されたアイコンに対応する機能を行ってもよい。例えば、近接動作認識装置は、入力オブジェクトが基準面に接触するとき当該入力オブジェクトによってポインティングされるアイコンが通話アイコンである場合、通話機能を実行してもよい。これによって、一実施形態に係る近接動作認識装置は、基準面から近接する空間で入力動作を容易にユーザインタフェース技術を提供することができる。
他の実施形態に係る近接動作認識装置は、第1入力空間をセンシングする第1センサ及び第2入力空間をセンシングする第2センサだけではなく、基準面440上に入力されるタッチ入力をセンシングする一般的なタッチセンサをさらに含んでもよい。この場合、近接動作認識装置は、入力オブジェクト430と基準面440が互いに接触したとの判断に応じて、当該タッチセンサを活性化させる。
図5は、一実施形態に係る近接動作認識装置の動作を説明するための動作フローチャートである。図5を参照すると、一実施形態に係る近接動作認識装置は、ステップS510において、第1センサと第2センサを初期化する。ここで、近接動作認識装置は、予め決定した初期化設定により第1センサと第2センサを活性化モード(active mode)に初期化してもよい。
近接動作認識装置は、ステップS520において、入力オブジェクトが近接距離にあるか否かを判断する。例えば、近接動作認識装置は、第2センサによってセンシングされる第2距離内に入力オブジェクトが検出されるか否かを判断する。近接動作認識装置は、ステップS520で入力オブジェクトが近接距離にあると判断する場合、ステップS530において、入力オブジェクトが一定の近接距離内にあるか否かを判断する。例えば、近接動作認識装置は、第2距離内に入力オブジェクトが検出される場合、第1センサによってセンシングされる第1距離内に入力オブジェクトが検出されるか否かを判断する。
ここで、近接動作認識装置は、第2距離内で入力オブジェクトが検出されて第1距離内でも入力オブジェクトが検出される場合、ステップS540において、第1センサの動作モードを活性化モードに保持して第2センサの動作モードを待機モードに切り替える。この場合、入力オブジェクトが第1入力空間でセンシングされる場合であり、近接動作認識装置はステップS550において、検知された入力オブジェクトのx座標及びy座標を用いたポインティング動作及び検知された入力オブジェクトのz座標を用いた拡大動作が行われるようインタフェースを制御する。
一方、近接動作認識装置は、第2距離内で入力オブジェクトが検出されるものの第1距離内では入力オブジェクトが検出されない場合、ステップS560において、第2センサの動作モードを活性化モードに保持して第1センサの動作モードを待機モードに切り替える。この場合、入力オブジェクトが第2入力空間でセンシングされる場合であり、近接動作認識装置はステップS570において、検知された入力オブジェクトのx座標及びy座標を用いたポインティング動作が行われるようにインタフェースを制御する。ステップS550及びステップS570には、図4を参照して説明した事項がそのまま適用されるため、より詳細な説明は省略する。
また、近接動作認識装置は、ステップS580において、受信された入力に対応するアプリケーションユーザインタフェースを実行する。例えば、近接動作認識装置は選択されたアイコンを活性化したり、2次元インタフェースと3次元インタフェースとの間を切り替える動作を行ってもよい。
図6A及び図6Bは、一実施形態に係る近接動作認識装置のアイコン自動配置動作を説明するための図である。図6Aを参照すると、一実施形態に係る近接動作認識装置は、入力オブジェクトによってポインティングされる地点の周辺に予め決定した少なくとも1つのアイコンが配置されるように近接動作インタフェースを制御する。より具体的に、近接動作認識装置は、基準面610から一定距離622以上離れた第2入力空間で入力オブジェクト620が入力される場合、第2センサの出力信号に基づいて入力オブジェクト620によってポインティングされる地点621を取得する。この場合、近接動作認識装置は、入力オブジェクト620によってポインティングされる地点621の周辺で複数のアイコン623が配置されるインタフェースを提供してもよい。
さらに、近接動作認識装置は、第1入力空間で入力オブジェクト630が入力される場合、第1センサの出力信号に基づいて入力オブジェクト630の終点及び軸を抽出してもよい。例えば、図7を参照すると、近接動作認識装置は、入力オブジェクト720をセンシングしたイメージ730から終点740と軸750を抽出してもよい。ここで、終点740と軸750は全て基準面710上に位置してもよい。この場合、近接動作認識装置は、入力オブジェクト630によってディスプレイが遮られる領域周辺に複数のアイコン633が配置されるインタフェースを提供してもよい。例えば、図7を参照すると、近接動作認識装置は、終点740から軸750と反対方向の扇形状760に複数のアイコンが配置されるよう近接動作インタフェースを制御してもよい。
それだけではなく、近接動作認識装置は、第1入力空間で入力オブジェクト630が入力される場合、入力オブジェクト630と基準面610との間の近接程度632により予め決定した少なくとも1つのアイコンの大きさが変更されるように近接動作インタフェースを制御してもよい。このような動作には、図4を参照して説明した事項がそのまま適用されるため、より詳細な説明は省略する。
図6Bを参照すると、一実施形態に係る近接動作認識装置は、図6Aにおける入力オブジェクトと鏡上の対称である入力オブジェクトが入力する場合にも同一に動作する。より具体的に、近接動作認識装置は、第2入力空間で入力オブジェクト640が入力される場合、第2センサの出力信号に基づいて入力オブジェクト640によってポインティングされる地点641を取得してもよい。この場合、近接動作認識装置は、入力オブジェクト640によってポインティングされる地点641の周辺に複数のアイコン642が配置されるインタフェースを提供してもよい。
さらに、近接動作認識装置は、第1入力空間で入力オブジェクト650が入力される場合、第1センサの出力信号に基づいて入力オブジェクト650の終点及び軸を抽出する。この場合、近接動作認識装置は、入力オブジェクト650によってディスプレイが遮られる領域周辺に複数のアイコン651が配置されるインタフェースを提供する。したがって、一実施形態に係る近接動作認識装置は、入力オブジェクトが基準面から一定距離以上離れている場合、当該入力オブジェクトによってディスプレイが遮られる心配がないため、当該入力オブジェクトの軸方向と関係がなく当該入力オブジェクトによってポインティングされる地点の周辺に複数のアイコンを配置してもよい。一方、近接動作認識装置は入力オブジェクトが基準面から近接している場合、当該入力オブジェクトによってディスプレイが遮られる可能性が大きいため、当該入力オブジェクトの軸方向を考慮してディスプレイが遮られる領域周辺に複数のアイコンを配置してもよい。
図8A及び図8Bは、一実施形態に係る近接動作認識装置のアイコン自動配置動作のための信号処理方法を説明するための図である。図8Aを参照すると、一実施形態に係る近接動作認識装置はステップS811において、入力オブジェクトを検出する。近接動作認識装置はステップS812において、検出された入力オブジェクトの終点及び軸を抽出するための信号処理を行う。近接動作認識装置はステップS813において、信号処理結果に基づいて入力オブジェクトの終点及び軸を抽出する。ステップS811〜ステップS813と関連する詳細な説明は図8Bを参照して後述する。近接動作認識装置はステップS814において、抽出された終点、軸及び入力オブジェクトと基準面との間の近接距離に基づいて予め決定した少なくとも1つのアイコンを配置する。
図8Bを参照すると、一実施形態に係る近接動作認識装置は、入力オブジェクトのイメージセンシング820、オブジェクトを除いた背景画面を除去するためのサブトラクション830、オブジェクト外側の線を示すための高周波通過フィルタリング840、外側の線を鮮明にするための増幅850、オブジェクト以外の異常値(outlier)を除去する閾値化860、指先地点を探すための最高点探索870、及び結果出力880を行うことによって、入力オブジェクトの終点及び軸を抽出する。
より具体的には、近接動作認識装置は、イメージセンシング820によって入力映像を取得してもよい。例えば、近接動作認識装置は、入力映像で入力オブジェクトを撮影した深度映像を取得してもよい。近接認識動作装置は、サブトラクション830によって入力映像でオブジェクト831を抽出してもよい。例えば、近接動作認識装置は、深度映像でオブジェクトと背景とを区分することで、深度映像からオブジェクトに該当する部分を抽出してもよい。深度映像でオブジェクトと背景とを区分する方法は様々な方法で実現されてもよい。一例として、近接動作認識装置は、オブジェクトと背景とを区分する閾値深度を用いて、閾値深度の以下の深度ピクセルはオブジェクトに分類し、閾値深度よりも大きい深度ピクセルは背景に分類してもよい。
近接動作認識装置は、高周波通過フィルタリング840によってオブジェクト外側の線841を取得してもよい。例えば、近接動作認識装置は、周辺ピクセルに比べて深度変化が急激なピクセルを抽出してもよい。オブジェクトと背景との間の境界で深度変化が急激であるため、高周波通過フィルタリング840によってオブジェクト外側の線が導き出される。高周波通過フィルタリング840によって導き出されたオブジェクト外側の線は、五指の外側の線を含んでもよい。近接動作認識装置は、増幅850によってオブジェクト外側の線を鮮明にすることができる。例えば、近接動作認識装置は、オブジェクト外側の線の内側に含まれるピクセル値を増幅してもよい。入力映像が深度映像である場合、深度映像ピクセル深度が増幅されてもよい。以下、図8Bにおいて明るい色に表現されるピクセル深度は暗い色に表現されるピクセル深度よりも小さい。一例として、明るい色に表現される領域851に含まれたピクセル深度は暗い色に表現される領域852に含まれたピクセル深度よりも小さい。
近接動作認識装置は、閾値化860を用いてオブジェクト以外の異常値を除去する。例えば、近接動作認識装置は、与えられた深度映像ピクセルのうち深さが閾値深度よりも大きいピクセルを除去する。近接動作認識装置は、最高点探索870を用いて指先地点を探す。近接動作認識装置は、五指それぞれに対して指を囲む長方形モデル871を生成してもよい。ここで、長方形モデル871は高さh、幅wを有する。近接動作認識装置は、長方形モデル871の一側の先領域で最高点、すなわち、深さが最も小さいピクセルを探索する。近接動作認識装置は、長方形モデルの一側の先に位置して四辺の長さがhの正方形領域872内で最も小さい深度ピクセル873を探索してもよい。探索されたピクセル873は入力オブジェクトの終点となる。また、終点を基準として長方形モデルの幅方向につながる線分が入力オブジェクトの軸となる。近接動作認識装置は、結果出力880を介して少なくとも1つの(入力オブジェクトの終点、入力オブジェクトの軸)ペアを出力してもよい。例えば、近接動作認識装置は、五指それぞれに対する(終点、軸)ペアを出力してもよい。
図9A〜図10は、一実施形態に係る複数の入力オブジェクトが検出される場合、近接動作認識装置の動作を説明するための図である。図面に表示していないが、一実施形態に係る近接動作認識装置は、複数入力検出部及び入力選択部をさらに備えてもよい。複数の入力検出部は、第1センサの出力信号または第2センサの出力信号のうち少なくとも1つに基づいて複数の入力オブジェクトが検出されるか否かを判断する。また、入力選択部は、複数入力検出部によって複数の入力オブジェクトが検出されると判断される場合、予め決定したモードに応じて複数の入力オブジェクトのうち少なくとも1つの入力オブジェクトを選択してもよい。
例えば、図9Aを参照すると、近接動作認識装置は、複数の入力を受け入れるモードとして動作してもよい。この場合、近接動作認識装置は、第1入力オブジェクト920と第2入力オブジェクト930によって入力される複数の入力を全て処理する。より具体的に、近接動作認識装置は、基準面910から一定距離以上離れた第1入力オブジェクト920がポインティングする地点921の周辺に第1アイコン922を配置してもよい。これと同時に、近接動作認識装置は、基準面910と近接する第2入力オブジェクト930がポインティングする地点931の周辺ではない第2入力オブジェクト930によって遮られる領域周辺に第2アイコン932を配置してもよい。
また、図9Bを参照すると、他の実施形態に係る近接動作認識装置は、基準面と最も近接する入力オブジェクトを選択するモードとして動作する。この場合、近接動作認識装置は、基準面910から相対的に遠く離れた第1入力オブジェクト940がポインティングする地点941の周辺ではアイコンを配置できない場合がある。近接動作認識装置は、基準面910から最も近い第2入力オブジェクト950を選択し、第2入力オブジェクト950によって遮られる領域周辺に予め決定したアイコン952を配置する。場合に応じて、基準面910から最も近い入力オブジェクト950が基準面910から一定の距離以上離れた状況が発生することがある。この場合、近接動作認識装置は、入力オブジェクト950によってポインティングされる地点951の周辺に予め決定したアイコンを配置してもよい。
また、図9Cを参照すると、更なる実施形態に係る近接動作認識装置は、入力オブジェクトによってポインティングされる位置が基準面上の予め指定された位置から最も近接する入力オブジェクトを選択するモードとして動作する。例えば、近接動作認識装置は、基準面910の中央980から最も近接する位置をポインティングする入力オブジェクトを選択してもよい。第1入力オブジェクト960は、基準面の中央980から距離962だけ離れた位置961をポインティングし、第2入力オブジェクト970は基準面の中央980から距離972だけ離れた位置971をポインティングする場合を仮定する。この場合、近接動作認識装置は、基準面の中央980からさらに近い位置971をポインティングする第2入力オブジェクト970を選択してもよい。さらに、近接動作認識装置は、選択された第2入力オブジェクト970と基準面910との間の近接程度により予め決定した少なくとも1つのアイコン973を配置してもよい。
図10を参照すると、一実施形態に係る近接動作認識装置はステップS1010において、複数の入力オブジェクトを検出する。近接動作認識装置はステップS1020において、予め決定したモードに応じて少なくとも1つの入力オブジェクトを選択する。近接動作認識装置はステップS1030において、選択された入力オブジェクトの終点及び軸を抽出するために信号処理を行う。近接動作認識装置はステップS1040において、信号処理結果に基づいて選択された入力オブジェクトの終点及び軸を抽出する。近接動作認識装置はステップS1050において、抽出された終点、軸、選択された入力オブジェクトと基準面との間の距離及び基準面上特定位置との距離などに基づいて予め決定した少なくとも1つのアイコンを配置する。図10に示す各モジュールには、図1〜図9を参照して記述された事項がそのまま適用されるため、より詳細な説明は省略する。
図11は、一実施形態に係る入力パターンを認識する近接動作認識装置を示すブロック図である。図11を参照すると、一実施形態に係る近接動作認識装置1100は、センサ1110、入力パターン認識部1120、機能実行部1130、及びディスプレイ1140を備える。ここで、センサ1110は第1センサと第2センサを含んでもよく、入力パターン認識部1120は第1センサの出力信号または第2センサの出力信号のうち少なくとも1つに基づいて入力パターンを認識する。ここで、入力パターン認識部1120は、入力オブジェクトの動きを追跡することによって、近接動作ポイント数の変化、近接動きの方向、及び近接座標変化などを検出する。機能実行部1130は、入力パターン認識部1120によって認識された入力パターンに対応する機能を実行する。ここで、機能実行部1130は、現在の動作中であるアプリケーションの種類により入力パターンに対応する機能を相異に決定してもよい。例えば、近接動作認識装置は、同一の入力パターンが入力されても現在の動作中であるアプリケーションの種類によって互いに異なる機能を実行してもよい。
さらに、入力パターン認識部1120は、第1センサの出力信号または第2センサの出力信号のうち少なくとも1つに基づいて入力オブジェクトの速度または角速度のうち少なくとも1つを算出する。例えば、入力パターン認識部1120は、第1センサの出力信号または第2センサの出力信号のうち少なくとも1つに基づいて入力オブジェクトの位置変化を追跡してもよい。この場合、入力パターン認識部1120は、入力オブジェクトの位置変化値を用いて入力オブジェクトの速度または角速度を算出する。この場合、機能実行部1130は、入力パターン認識部1120によって算出された入力オブジェクトの速度または角速度に基づいて入力パターンに対応する機能を検出する。例えば、機能実行部1130は、入力パターン認識部1120によって算出された入力オブジェクトの速度または角速度をトランプをシャッフルする速度、ルーレット盤の回転速度など、様々なユーザインタフェースに必要な情報として活用してもよい。また、近接動作認識装置1100は、機能実行部1130の実行結果をディスプレイ1140を用いて出力してもよい。
図12A及び図12Bは、一実施形態に係る近接動作認識装置の2次元インタフェース及び3次元インタフェース変換動作を説明するための図である。図面に表示していないが、一実施形態に係る近接動作認識装置は、ディスプレイ、算出部、及び制御部をさらに備えてもよい。
ここで、ディスプレイは、2次元インタフェース及び3次元インタフェースを提供してもよく、算出部は、第1センサの出力信号または第2センサの出力信号のうち少なくとも1つに基づいて入力オブジェクトの位置、速度、または角速度のうち少なくとも1つを算出する。制御部は、算出部による算出結果に基づいてディスプレイの動作モードを制御する。例えば、図12Aを参照すると、近接動作認識装置は、基準面1210から予め決定した距離だけ離れた空間に入力される入力オブジェクトを検出する。近接動作認識装置は、当該空間で検出される入力オブジェクトがない場合、2次元インタフェースを用いて複数のアイコン1220を表示してもよい。近接動作認識装置は、当該空間に入力オブジェクト1240が検出される場合、2次元インタフェースを3次元インタフェースに切り替える。この場合、近接動作認識装置は、3次元インタフェースを用いて複数のアイコン1230を表示してもよい。
図12Bを参照すると、他の実施形態に係る近接動作認識装置は、基準面1250から予め決定した距離だけ離れた空間で検出される入力オブジェクトがない場合、3次元インタフェースを用いて複数のアイコン1260を表示してもよい。近接動作認識装置は、当該空間に入力オブジェクト1280が検出される場合、3次元インタフェースを2次元インタフェースに切り替える。この場合、近接動作認識装置は、2次元インタフェースを用いて複数のアイコン1270を表示してもよい。
実施形態に係る方法は、様々なコンピュータ手段によって実行されることができるプログラム命令形態で実現され、コンピュータで読み取り可能な媒体に記録されることができる。コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むことができる。媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェア当業者に公示されて使用可能なものであってもよい。
上述したように、本発明は限定された実施形態と図面によって説明されたが、本発明が上述した実施形態に限定されるものではなく、本発明が属する分野において通常の知識を有する者であれば、このような記載から多様な修正および変形が可能である。
したがって、本発明の範囲は上述した実施形態に限定されて定められてはならず、添付の特許請求の範囲だけではなく、この特許請求の範囲と均等なものによって定められなければならない。
110 第1センサ
120 第2センサ
220 基準面
230 第1入力空間
240 第2入力空間
340 トランジション空間
621 ポインティングされる地点
623 アイコン
730 センシングしたイメージ
740 終点
750 軸
980 中央

Claims (33)

  1. センサを用いる近接動作認識装置において、
    近接動作を認識するための基準面から予め決定した距離よりも近い第1入力空間をセンシングするための第1センサと、
    前記基準面から前記予め決定した距離よりも遠い第2入力空間をセンシングするための第2センサと、
    入力オブジェクトが前記第1入力空間と前記第2入力空間との間をトランジションする場合、前記第1センサと前記第2センサとの間で前記トランジションと関連する情報を伝達する情報伝達制御部と、
    を備えることを特徴とする近接動作認識装置。
  2. 入力オブジェクトと前記基準面との間の近接程度を測定する近接程度測定部と、
    前記近接程度により前記第1センサ及び前記第2センサを択一的に活性化させるセンサ制御部と、
    をさらに備えることを特徴とする請求項1に記載の近接動作認識装置。
  3. 前記センサ制御部は、
    前記近接程度と前記予め決定した距離を比較する近接程度比較部と、
    前記比較結果に応じて、前記第1センサの動作モード及び前記第2センサの動作モードを制御する動作モード制御部と、
    を備え、
    前記動作モードは、活性化モード、非活性化モード、または待機モードのうち少なくとも1つを含むことを特徴とする請求項2に記載の近接動作認識装置。
  4. 前記トランジションと関連する情報は、少なくとも前記第1入力空間または前記第2入力空間でセンシングされる入力オブジェクトのx座標及びy座標を含むことを特徴とする請求項1乃至3のいずれか一項に記載の近接動作認識装置。
  5. 前記第1センサは前記第1入力空間でセンシングされる入力オブジェクトのx座標、y座標及びz座標を出力し、前記第2センサは前記第2入力空間でセンシングされる入力オブジェクトのx座標及びy座標を出力することを特徴とする請求項1乃至4のいずれか一項に記載の近接動作認識装置。
  6. 前記第1センサはタッチセンサを含み、前記第2センサはビジョンセンサを含むことを特徴とする請求項1乃至5のいずれか一項に記載の近接動作認識装置。
  7. 近接動作インタフェースを表示するディスプレイと、
    前記第1入力空間で第1入力オブジェクトが入力される場合、前記第1入力オブジェクトと前記基準面との間の近接程度により前記第1入力オブジェクトによってポインティングされる領域の大きさが変更されるように前記近接動作インタフェースを制御するインタフェース制御部と、
    をさらに備えることを特徴とする請求項1乃至6のいずれか一項に記載の近接動作認識装置。
  8. 前記近接動作インタフェースは少なくとも1つのアイコンを含み、
    前記インタフェース制御部は、前記第1入力オブジェクトと前記基準面が近接されるほど前記第1入力オブジェクトによってポインティングされるアイコンの大きさが大きくなるように前記近接動作インタフェースを制御し、前記第1入力オブジェクトが前記基準面に接触する場合、前記第1入力オブジェクトによってポインティングされるアイコンが選択されるように前記近接動作インタフェースを制御することを特徴とする請求項7に記載の近接動作認識装置。
  9. 近接動作インタフェースを表示するディスプレイと、
    前記第2入力空間で第2入力オブジェクトが入力される場合、前記第2入力オブジェクトによってポインティングされる点の周辺に予め決定した少なくとも1つのアイコンが配置されるように前記近接動作インタフェースを制御するインタフェース制御部と、
    をさらに備えることを特徴とする請求項1乃至8のいずれか一項に記載の近接動作認識装置。
  10. 前記第1入力空間で第1入力オブジェクトが入力される場合、前記第1センサの出力信号に基づいて前記第1入力オブジェクトの終点及び軸を抽出する信号処理部をさらに含み、
    前記インタフェース制御部は、前記第1入力空間で前記第1入力オブジェクトが入力される場合、前記第1入力オブジェクトの終点及び軸を用いて前記第1入力オブジェクトによって前記ディスプレイが遮られる領域周辺に前記予め決定した少なくとも1つのアイコンが配置されるように前記近接動作インタフェースを制御することを特徴とする請求項9に記載の近接動作認識装置。
  11. 前記インタフェース制御部は、前記第1入力オブジェクトと前記基準面との間の近接程度により前記予め決定した少なくとも1つのアイコンの大きさが変更されるように前記近接動作インタフェースを制御することを特徴とする請求項10に記載の近接動作認識装置。
  12. 前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて複数の入力オブジェクトが検出されるか否かを判断する複数入力検出部と、
    前記複数入力検出部によって複数の入力オブジェクトが検出されると判断される場合、予め決定したモードに応じて前記複数の入力オブジェクトのうち少なくとも1つの入力オブジェクトを選択する入力選択部と、
    をさらに備えることを特徴とする請求項1乃至11のいずれか一項に記載の近接動作認識装置。
  13. 前記予め決定したモードは、複数の入力を受け入れるモード、前記基準面と最も近接する入力オブジェクトを選択するモード、及び入力オブジェクトによってポインティングされる位置が前記基準面上の予め指定された位置から最も近接する入力オブジェクトを選択するモードを含むことを特徴とする請求項12に記載の近接動作認識装置。
  14. 近接動作インタフェースを表示するディスプレイと、
    前記第1入力空間で前記少なくとも1つの入力オブジェクトが検出される場合、前記第1センサの出力信号に基づいて前記少なくとも1つの入力オブジェクトの終点及び軸を抽出する信号処理部と、
    前記第2入力空間で少なくとも1つの入力オブジェクトが検出される場合、前記少なくとも1つの入力オブジェクトによってポインティングされる点の周辺に予め決定した少なくとも1つのアイコンが配置されるように前記近接動作インタフェースを制御し、前記第1入力空間で前記少なくとも1つの入力オブジェクトが検出される場合、前記少なくとも1つの入力オブジェクトの終点及び軸を用いて前記少なくとも1つの入力オブジェクトによって前記ディスプレイが遮られる領域周辺に前記予め決定した少なくとも1つのアイコンが配置されるように前記近接動作インタフェースを制御するインタフェース制御部と、
    をさらに備えることを特徴とする請求項12に記載の近接動作認識装置。
  15. 前記インタフェース制御部は、前記少なくとも1つの入力オブジェクトと前記基準面との間の近接程度により前記予め決定した少なくとも1つのアイコンの大きさが変更されるように前記近接動作インタフェースを制御することを特徴とする請求項14に記載の近接動作認識装置。
  16. 前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて入力パターンを認識する入力パターン認識部と、
    前記入力パターンに対応する機能を実行する機能実行部と、
    をさらに備えることを特徴とする請求項1乃至15のいずれか一項に記載の近接動作認識装置。
  17. 前記入力パターン認識部は、前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて入力オブジェクトの速度または角速度のうち少なくとも1つを算出する算出部を備え、
    前記機能実行部は、前記算出結果に基づいて前記入力パターンに対応する機能を検出する検出部を備えることを特徴とする請求項16に記載の近接動作認識装置。
  18. 2次元インタフェース及び3次元インタフェースを提供するディスプレイと、
    前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて入力オブジェクトの位置、速度、または角速度のうち少なくとも1つを算出する算出部と、
    前記算出結果に基づいて前記ディスプレイの動作モードを制御するディスプレイ制御部と、
    をさらに備えることを特徴とする請求項1乃至17のいずれか一項に記載の近接動作認識装置。
  19. センサを用いる近接動作認識方法において、
    第1センサを用いて近接動作を認識するための基準面から予め決定した距離よりも近い第1入力空間に入力オブジェクトが存在する場合、前記第1入力空間をセンシングするステップと、
    第2センサを用いて前記基準面から前記予め決定した距離よりも遠い第2入力空間に入力オブジェクトが存在する場合、前記第2入力空間をセンシングするステップと、
    入力オブジェクトが前記第1入力空間と前記第2入力空間との間をトランジションする場合、前記第1センサと前記第2センサとの間で前記トランジションと関連する情報を伝達するステップと、
    を含むことを特徴とする近接動作認識方法。
  20. 入力オブジェクトと前記基準面との間の近接程度を測定するステップと、
    前記近接程度により前記第1センサ及び前記第2センサを択一的に活性化させるステップと、
    をさらに含むことを特徴とする請求項19に記載の近接動作認識方法。
  21. 前記トランジションと関連する情報は、少なくとも前記第1入力空間または前記第2入力空間でセンシングされる入力オブジェクトのx座標及びy座標を含むことを特徴とする請求項19または20に記載の近接動作認識方法。
  22. 前記第1センサは前記第1入力空間でセンシングされる入力オブジェクトのx座標、y座標及びz座標を出力し、前記第2センサは前記第2入力空間でセンシングされる入力オブジェクトのx座標及びy座標を出力することを特徴とする請求項19乃至21のいずれか一項に記載の近接動作認識方法。
  23. 前記第1センサはタッチセンサを含み、前記第2センサはビジョンセンサを含むことを特徴とする請求項19乃至22のいずれか一項に記載の近接動作認識方法。
  24. 前記第1入力空間で第1入力オブジェクトが入力される場合、前記第1入力オブジェクトと前記基準面との間の近接程度により前記第1入力オブジェクトによってポインティングされる領域の大きさが変更されるように近接動作インタフェースを制御するステップと、
    前記近接動作インタフェースを表示するステップと、
    をさらに含むことを特徴とする請求項19乃至23のいずれか一項に記載の近接動作認識方法。
  25. 前記近接動作インタフェースは少なくとも1つのアイコンを含み、
    前記制御するステップは、
    前記第1入力オブジェクトと前記基準面が近接されるほど前記第1入力オブジェクトによってポインティングされるアイコンの大きさが大きくなるように前記近接動作インタフェースを制御するステップと、
    前記第1入力オブジェクトが前記基準面に接触する場合、前記第1入力オブジェクトによってポインティングされるアイコンが選択されるように前記近接動作インタフェースを制御するステップと、
    を含むことを特徴とする請求項24に記載の近接動作認識方法。
  26. 前記第2入力空間で第2入力オブジェクトが入力される場合、前記第2入力オブジェクトによってポインティングされる点の周辺に予め決定した少なくとも1つのアイコンが配置されるように近接動作インタフェースを制御するステップと、
    前記近接動作インタフェースを表示するステップと、
    をさらに含むことを特徴とする請求項19乃至25のいずれか一項に記載の近接動作認識方法。
  27. 前記第1入力空間で第1入力オブジェクトが入力される場合、前記第1センサの出力信号に基づいて前記第1入力オブジェクトの終点及び軸を抽出するステップをさらに含み、
    前記制御するステップは、前記第1入力空間で前記第1入力オブジェクトが入力される場合、前記第1入力オブジェクトの終点及び軸を用いて前記第1入力オブジェクトによってディスプレイが遮られる領域周辺に前記予め決定した少なくとも1つのアイコンが配置されるように前記近接動作インタフェースを制御するステップを含むことを特徴とする請求項26に記載の近接動作認識方法。
  28. 前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて複数の入力オブジェクトが検出されるか否かを判断するステップと、
    複数の入力オブジェクトが検出されると判断される場合、予め決定したモードに応じて前記複数の入力オブジェクトのうち少なくとも1つの入力オブジェクトを選択するステップと、
    をさらに含むことを特徴とする請求項19乃至27のいずれか一項に記載の近接動作認識方法。
  29. 前記予め決定したモードは、複数の入力を受け入れるモード、前記基準面と最も近接する入力オブジェクトを選択するモード、及び入力オブジェクトによってポインティングされる位置が前記基準面上の予め指定された位置から最も近接する入力オブジェクトを選択するモードを含むことを特徴とする請求項28に記載の近接動作認識方法。
  30. 前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて入力オブジェクトの速度または角速度のうち少なくとも1つを算出するステップと、
    前記算出結果に基づいて入力パターンに対応する機能を実行するステップと、
    をさらに含むことを特徴とする請求項19乃至29のいずれか一項に記載の近接動作認識方法。
  31. 前記第1センサの出力信号または前記第2センサの出力信号のうち少なくとも1つに基づいて入力オブジェクトの位置、速度、または、角速度のうち少なくとも1つを算出するステップと、
    前記算出結果に基づいてディスプレイの動作モードを2次元インタフェース及び3次元インタフェースの間に切り替えるステップと、
    をさらに含むことを特徴とする請求項19乃至30のいずれか一項に記載の近接動作認識方法。
  32. ユーザインタフェースを制御する制御方法において、
    ユーザインタフェースと近い第1領域で入力をセンシングするステップと、
    前記第1領域の外の第2領域で入力をセンシングするステップと、
    前記第1領域と前記第2領域で検出された入力の位置及び動きのうち少なくとも1つに基づいて前記ユーザインタフェースを第1方式と第2方式に選択的に制御するステップと、
    を含むことを特徴とする制御方法。
  33. 請求項19乃至32のいずれか一項に記載の方法を実行させるためのプログラムが記録されたコンピュータで読み出し可能な記録媒体。
JP2014021352A 2013-02-22 2014-02-06 センサを用いる近接動作認識装置及びその装置を用いた方法 Active JP6333568B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20130018961 2013-02-22
KR10-2013-0018961 2013-02-22
KR1020130137168A KR102118610B1 (ko) 2013-02-22 2013-11-12 센서들을 이용하는 근접 동작 인식 장치 및 그 장치를 이용한 방법
KR10-2013-0137168 2013-11-12

Publications (2)

Publication Number Publication Date
JP2014164755A true JP2014164755A (ja) 2014-09-08
JP6333568B2 JP6333568B2 (ja) 2018-05-30

Family

ID=50150538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014021352A Active JP6333568B2 (ja) 2013-02-22 2014-02-06 センサを用いる近接動作認識装置及びその装置を用いた方法

Country Status (4)

Country Link
US (1) US10261612B2 (ja)
EP (1) EP2770408B1 (ja)
JP (1) JP6333568B2 (ja)
CN (1) CN104007814B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016164777A (ja) * 2015-02-13 2016-09-08 新益先創科技股▲分▼有限公司 多機能容量−イメージ感知システム
KR20160144969A (ko) * 2014-04-17 2016-12-19 마이크로칩 테크놀로지 인코포레이티드 용량형 센서 시스템에서의 터치 검출
JP2018181293A (ja) * 2017-09-11 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2019046458A (ja) * 2017-09-04 2019-03-22 株式会社ワコム 空間位置指示システム
JP2019531239A (ja) * 2017-02-08 2019-10-31 ユン,イル シク モニタを用いたエレベータ動作制御装置および方法
JP2020170311A (ja) * 2019-04-02 2020-10-15 船井電機株式会社 入力装置
JP2021099542A (ja) * 2019-12-19 2021-07-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7523610B2 (ja) 2017-09-04 2024-07-26 株式会社ワコム 座標算出システム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
CN105844659B (zh) * 2015-01-14 2019-04-26 北京三星通信技术研究有限公司 运动部件的跟踪方法和装置
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
JP6517356B2 (ja) 2015-04-30 2019-05-22 グーグル エルエルシー タイプに依存しないrf信号表現
EP3885882A1 (en) 2015-04-30 2021-09-29 Google LLC Rf-based micro-motion tracking for gesture tracking and recognition
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
JP6705206B2 (ja) * 2016-02-25 2020-06-03 セイコーエプソン株式会社 電子機器の制御装置および電子機器の制御プログラム
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
CN106597463B (zh) * 2016-12-29 2019-03-29 天津师范大学 基于动态视觉传感器芯片的光电式接近传感器及探测方法
WO2019000287A1 (zh) * 2017-06-28 2019-01-03 华为技术有限公司 一种图标显示方法及装置
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
JP7316383B2 (ja) 2019-07-26 2023-07-27 グーグル エルエルシー Imuおよびレーダーを介した認証管理
CN113892072A (zh) 2019-08-30 2022-01-04 谷歌有限责任公司 用于暂停的雷达姿势的视觉指示器
CN118192796A (zh) 2019-08-30 2024-06-14 谷歌有限责任公司 移动设备的输入方法
CN111741165B (zh) * 2020-06-19 2021-07-06 北京字节跳动网络技术有限公司 移动终端控制的方法、装置、移动终端及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008544352A (ja) * 2005-06-08 2008-12-04 スリーエム イノベイティブ プロパティズ カンパニー 多数のタッチ位置法を含むタッチ位置決定方法
JP2009116583A (ja) * 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
JP2010224663A (ja) * 2009-03-19 2010-10-07 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2011022958A (ja) * 2009-07-21 2011-02-03 Kyocera Corp 入力装置
JP2011108152A (ja) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd 3次元入力表示装置
JP2011257820A (ja) * 2010-06-07 2011-12-22 Sony Corp 情報表示装置および表示画像制御方法
JP2012018620A (ja) * 2010-07-09 2012-01-26 Canon Inc 情報処理装置およびその制御方法
JP2012114920A (ja) * 2010-11-26 2012-06-14 Lg Electronics Inc 携帯端末機及びその動作制御方法
JP2012133729A (ja) * 2010-12-24 2012-07-12 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012181596A (ja) * 2011-02-28 2012-09-20 Toshiba Corp 情報処理装置およびプログラム
JP2012226691A (ja) * 2011-04-22 2012-11-15 Ntt Docomo Inc 表示制御装置及び表示制御方法
JP2013016018A (ja) * 2011-07-04 2013-01-24 Canon Inc 表示制御装置、制御方法及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070006477A (ko) 2005-07-08 2007-01-11 삼성전자주식회사 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치
US8842074B2 (en) * 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US8284165B2 (en) * 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
KR101513023B1 (ko) * 2008-03-25 2015-04-22 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
US8576181B2 (en) 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
US8054300B2 (en) * 2008-06-17 2011-11-08 Apple Inc. Capacitive sensor panel having dynamically reconfigurable sensor size and shape
US20110050575A1 (en) * 2009-08-31 2011-03-03 Motorola, Inc. Method and apparatus for an adaptive touch screen display
KR20120085783A (ko) 2009-09-23 2012-08-01 딩난 한 인간-컴퓨터의 상호작용을 위한 인터페이스 및 그 방법
JP2011210083A (ja) 2010-03-30 2011-10-20 Panasonic Corp 表示装置
JP5580694B2 (ja) 2010-08-24 2014-08-27 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記憶媒体
US9098138B2 (en) * 2010-08-27 2015-08-04 Apple Inc. Concurrent signal detection for touch and hover sensing
US20120069055A1 (en) * 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus
US8743083B2 (en) 2010-10-15 2014-06-03 Logitech Europe, S.A. Dual mode touchpad with a low power mode using a proximity detection mode
US8816964B2 (en) * 2010-11-26 2014-08-26 Mckesson Financial Holdings Sensor-augmented, gesture-enabled keyboard and associated apparatus and computer-readable storage medium
KR101646616B1 (ko) 2010-11-30 2016-08-12 삼성전자주식회사 객체 제어 장치 및 방법
US20120162636A1 (en) * 2010-12-23 2012-06-28 Silicon Laboratories, Inc. Proximity detector including anti-falsing mechanism
CN103135889B (zh) * 2011-12-05 2017-06-23 Lg电子株式会社 移动终端及其3d图像控制方法
US20130222226A1 (en) * 2012-02-24 2013-08-29 Nokia Corporation User interfaces and associated apparatus and methods
US9459737B2 (en) * 2012-05-23 2016-10-04 Atmel Corporation Proximity detection using multiple inputs

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008544352A (ja) * 2005-06-08 2008-12-04 スリーエム イノベイティブ プロパティズ カンパニー 多数のタッチ位置法を含むタッチ位置決定方法
JP2009116583A (ja) * 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
JP2010224663A (ja) * 2009-03-19 2010-10-07 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2011022958A (ja) * 2009-07-21 2011-02-03 Kyocera Corp 入力装置
JP2011108152A (ja) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd 3次元入力表示装置
JP2011257820A (ja) * 2010-06-07 2011-12-22 Sony Corp 情報表示装置および表示画像制御方法
JP2012018620A (ja) * 2010-07-09 2012-01-26 Canon Inc 情報処理装置およびその制御方法
JP2012114920A (ja) * 2010-11-26 2012-06-14 Lg Electronics Inc 携帯端末機及びその動作制御方法
JP2012133729A (ja) * 2010-12-24 2012-07-12 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012181596A (ja) * 2011-02-28 2012-09-20 Toshiba Corp 情報処理装置およびプログラム
JP2012226691A (ja) * 2011-04-22 2012-11-15 Ntt Docomo Inc 表示制御装置及び表示制御方法
JP2013016018A (ja) * 2011-07-04 2013-01-24 Canon Inc 表示制御装置、制御方法及びプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160144969A (ko) * 2014-04-17 2016-12-19 마이크로칩 테크놀로지 인코포레이티드 용량형 센서 시스템에서의 터치 검출
JP2017515196A (ja) * 2014-04-17 2017-06-08 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated 容量センサシステムにおけるタッチ検出
US10459623B2 (en) 2014-04-17 2019-10-29 Microchip Technology Incorporated Touch detection in a capacitive sensor system
KR102329097B1 (ko) 2014-04-17 2021-11-22 마이크로칩 테크놀로지 인코포레이티드 용량형 센서 시스템에서의 터치 검출
JP2016164777A (ja) * 2015-02-13 2016-09-08 新益先創科技股▲分▼有限公司 多機能容量−イメージ感知システム
JP2019531239A (ja) * 2017-02-08 2019-10-31 ユン,イル シク モニタを用いたエレベータ動作制御装置および方法
US11630570B2 (en) 2017-09-04 2023-04-18 Wacom Co., Ltd. Spatial position indication system
JP2019046458A (ja) * 2017-09-04 2019-03-22 株式会社ワコム 空間位置指示システム
JP7523610B2 (ja) 2017-09-04 2024-07-26 株式会社ワコム 座標算出システム
JP7441600B2 (ja) 2017-09-04 2024-03-01 株式会社ワコム 空間位置指示システム
JP2018181293A (ja) * 2017-09-11 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法
CN111796694A (zh) * 2019-04-02 2020-10-20 船井电机株式会社 输入装置
JP7400205B2 (ja) 2019-04-02 2023-12-19 船井電機株式会社 入力装置
JP2020170311A (ja) * 2019-04-02 2020-10-15 船井電機株式会社 入力装置
JP7413758B2 (ja) 2019-12-19 2024-01-16 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2021099542A (ja) * 2019-12-19 2021-07-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
CN104007814A (zh) 2014-08-27
US20140240248A1 (en) 2014-08-28
EP2770408A2 (en) 2014-08-27
CN104007814B (zh) 2019-08-13
JP6333568B2 (ja) 2018-05-30
US10261612B2 (en) 2019-04-16
EP2770408A3 (en) 2017-04-26
EP2770408B1 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP6333568B2 (ja) センサを用いる近接動作認識装置及びその装置を用いた方法
US9020194B2 (en) Systems and methods for performing a device action based on a detected gesture
US10921926B2 (en) Apparatus and method for recognizing proximity motion using sensors
TWI546724B (zh) 用以在通訊設備間傳送資訊項目之裝置及方法
KR102118610B1 (ko) 센서들을 이용하는 근접 동작 인식 장치 및 그 장치를 이용한 방법
US20140189579A1 (en) System and method for controlling zooming and/or scrolling
US20140092031A1 (en) System and method for low power input object detection and interaction
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US20170003762A1 (en) Systems and methods for text entry
US20100088595A1 (en) Method of Tracking Touch Inputs
WO2009142880A1 (en) Proximity sensor device and method with subregion based swipethrough data entry
US20160349871A1 (en) Capacitive stereoscopic image sensing
CN107272971B (zh) 抓握管理
KR101436585B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
US20180059806A1 (en) Information processing device, input control method for controlling input to information processing device, and computer-readable storage medium storing program for causing information processing device to perform input control method
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
KR102169236B1 (ko) 터치스크린 장치 및 그 제어방법 그리고 디스플레이 장치
US9244608B2 (en) Method and system for gesture identification
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
WO2014041548A1 (en) System and method for controlling behavior of a cursor
EP3317754B1 (en) Position-filtering for land-lift events
TWI550489B (zh) 背景訊號更新方法及其感測裝置
TWI550466B (zh) 背景訊號更新方法及其感測裝置
KR20150003694A (ko) 보조 장치를 활용한 터치 인식 장치 및 그 구동 방법
KR101436586B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180425

R150 Certificate of patent or registration of utility model

Ref document number: 6333568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250