JP2007052780A - 移動通信端末のユーザー入力方法及び装置 - Google Patents

移動通信端末のユーザー入力方法及び装置 Download PDF

Info

Publication number
JP2007052780A
JP2007052780A JP2006217335A JP2006217335A JP2007052780A JP 2007052780 A JP2007052780 A JP 2007052780A JP 2006217335 A JP2006217335 A JP 2006217335A JP 2006217335 A JP2006217335 A JP 2006217335A JP 2007052780 A JP2007052780 A JP 2007052780A
Authority
JP
Japan
Prior art keywords
indicator
user
image
camera
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006217335A
Other languages
English (en)
Inventor
Ki-Dong Park
基東 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2007052780A publication Critical patent/JP2007052780A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】本発明は、移動通信端末の便利なユーザー入力方法及び装置を提供する。
【解決手段】本発明は、移動通信端末のユーザー入力方法において、現在設定された動作モードに従い、端末制御に必要なキー機能及びメニュー機能の各々に対応するイメージを含むメニュー画面を表示するステップと、AR入力モードの設定時、具備されたカメラを介して撮影される映像から予め設定されたインジケーターを検出し、検出されたインジケーターを前記メニュー画面にリアルタイムで合成して表示するステップと、合成された画面上において、イメージの任意のイメージとインジケーターとが重畳された状態で、カメラを介して撮影された映像から選択に対応する予め設定されたユーザーモーションが検出される場合、イメージに対応する機能に従う動作を遂行するステップとを含む。
【選択図】図3

Description

本発明は、移動通信端末に関し、特に、キー入力のような移動通信端末のユーザー入力方法及び装置に関する。
最近、移動通信端末の大衆化に伴い、移動通信端末は、基本的な通話サービス以外にも、多様な付加サービスを遂行することになった。例えば、短文メッセージサービス、マルチメディアメッセージサービス、ゲームプレーが可能なゲームサービス、無線インターネットサービス等の付加サービスが存在する。
このように、移動通信端末で支援される付加サービスの増加に伴い、ユーザーインターフェースも変化した。初期のキー入力部は、0〜9のそれぞれの数字に複数のアルファベットが割り当てられた数字キーと、通話及び終了のための基本的な機能キーとからなった。ところが、現在は一つの数字キーに複数のアルファベットは勿論、ハングルまで割り当てられて複雑になり、方向キーのような機能キーの種類も増加して全体的なキーボタンの数も増加し、各機能キーに割り当てられた機能も増加している。移動通信端末に具備されるキーボタンは、移動通信端末の動作をユーザーが制御するために必要な構成であるが、多様な動作モード又は任意の動作制御において、全てのキーボタンが使用されるものではない。移動通信端末に現在設定された動作モードや、遂行中の動作と関連したいくつかのキーボタンが利用されるだけで、そのキーボタンを除いた残りのキーボタンは利用されないにも関わらず、多くの数のキーボタンが具備されることは、時としてユーザーに不便を招く恐れがある。
また、移動通信端末の大きさの縮小化に伴い、キーボタンの大きさも小型化されつつある。これにより、ユーザーは、キーボタンを使用するとき、不便と退屈を感じ、微細な操作を必要とするようになった。
さらに、ユーザーに提供する情報量が増加する一方、表示画面のサイズも大きくなる。しかしながら、キー入力部に割り当てられるべき最小面積は確保されなければならないため、表示画面の大きさの増加にも限界があり、これはユーザーの不満を招くことになる。
一方、AR(Augumented Reality)は、ユーザーが見る実映像とコンピュータから生成された仮想映像とを正確に整合したユーザーインターフェース技術であって、すなわち、ユーザーにより現実感及び認識度の向上を提供するために、ユーザーが見る実映像とコンピュータから生成された文字やグラフィックのような仮想の付加情報とをリアルタイムで合成して表示する技術である。ARシステムは、カメラを介して得られた実映像とコンピュータから生成された仮想映像とをリアルタイムで整合し、トラッカー(tracker)を用いたカメラの位置と姿勢を追跡し、トラッカー及びカメラの誤差を補正し、実映像と仮想映像との整合結果を3次元又は2次元にシミュレーションする。このようなARは、ゲーム、放送、教育、訓練、医療、設計、広告などの多様な分野で活用されている。
前述したように、ARは、カメラ、表示部、映像データ処理のための処理部が具備される場合、ユーザーの動きを感知できる。
よって、このようなARの特徴を用いて移動通信端末のユーザー入力方式を構成する場合、より便利なユーザー入力方式を具現できる。
よって、本発明の目的は、移動通信端末の便利なユーザー入力方法及び装置を提供することにある。
また、本発明の他の目的は、ARを用いた移動通信端末のユーザー入力方法及び装置を提供することにある。
前記目的を達成するために、本発明は、移動通信端末のユーザー入力方法において、現在設定された動作モードに従い、端末制御に必要なキー機能及びメニュー機能の各々に対応するイメージを含むメニュー画面を表示するステップと、AR入力モードの設定時、具備されたカメラを介して撮影される映像から予め設定されたインジケーターを検出し、前記検出されたインジケーターを前記メニュー画面にリアルタイムで合成して表示するステップと、前記合成された画面上において、前記イメージの任意のイメージと前記インジケーターとが重畳された状態で、前記カメラを介して撮影された映像から選択に対応する予め設定されたユーザーモーションが検出される場合、前記イメージに対応する機能に従う動作を遂行するステップとを含むことを特徴とする。
本発明によれば、AR入力モードにおいて、カメラを介して撮影される映像から予め設定されたインジケーターを検出し、移動通信端末に格納されたメニュー又はキーに対応するイメージからなる仮想画面と合成して表示し、合成画面上において、インジケーターの位置と任意のイメージの位置とが一致する状態で、予め設定された選択に対応するユーザーモーションが感知される場合、当該イメージに対応する動作を遂行することで、便利で興味深い方法により移動通信端末のユーザー入力を可能にする。
以下、本発明の好適な実施形態について添付図面を参照しながら詳細に説明する。図面において、同一の構成要素に対しては、同一の参照符号を付したことに留意すべきである。なお、下記の説明において、本発明の要旨のみを明瞭にするために、公知の機能や構成についての具体的な説明は適宜省略する。
まず、本発明が適用される移動通信端末の構成を、図1を参照して説明する。図1は、本発明が適用される移動通信端末のブロック構成図である。図1によれば、本発明の実施形態による移動通信端末100は、制御部11、メモリ部13、映像処理部15、カメラ17、表示部19、ベースバンド処理部25、RF(Radio Frequency)モジュール21及び音声処理部23からなる。
制御部11は、移動通信端末の全般的な動作を制御する。
RFモジュール21は、アンテナを介して移動通信基地局と無線信号を送受信するが、ベースバンド処理部25を介して制御部11から入力される送信信号を変調してRF信号をアンテナを介して送信し、アンテナを介して受信されるRF信号を復調してベースバンド処理部25を介して制御部11に提供する。ベースバンド処理部25は、RFモジュール21と制御部11との間で送受信されるベースバンド信号を処理する。
制御部11に連結された音声処理部23、音声処理部23に接続されたマイク(MIC)及びスピーカー(SPK)は、電話通話及び音声録音に使用される。
表示部19は、各種画像情報と、基地局から受信されるか又はメモリ部13に格納されている画像とを、制御部11の制御により画面上に表示する。
カメラ17は、イメージセンサーにより得られる画像フレームを映像処理部15に出力する。
映像処理部15は、制御部11の制御下で、カメラ17から入力される画像フレームを表示部19に表示可能な映像データに変換し、表示部19に出力する。また、映像処理部15は、制御部11の制御下で、カメラ17を介して得られた実映像とメモリ部13に格納された仮想映像、或いは、実映像から検出したインジケーターと仮想映像をリアルタイムで整合し、誤差を補正し、実映像と仮想映像との整合結果を2次元又は3次元で表示部19に表示する。
メモリ部13は、制御部11の処理及び制御のためのプログラム、参照データ、更新可能な各種格納用データなどを格納し、制御部11のワーキングメモリ(working memory)に提供される。また、メモリ部13は、本発明の実施形態によってAR入力モードを遂行するためのプログラムデータを格納し、移動通信端末100の動作制御に必要な各種イメージを格納する。AR入力モードとは、カメラ17を介して撮影された実映像からインジケーターを検出し、メモリ部13に予め格納されたイメージからなる任意の仮想映像とリアルタイムで合成して表示し、合成映像を表示した状態でインジケーターが任意の仮想映像に含まれるイメージを選択する入力を感知したり、インジケーターによる直接的なデータ入力を感知すれば、それに対応する移動通信端末の動作を遂行するモードを意味する。動作制御に必要な各種イメージは、キーに対応するイメージ、各種メニューに対応するイメージ、多様な背景画面などを含む。
また、メモリ部13は、本発明の実施形態により、AR入力モードの遂行時、必要な各種インジケーター情報と、各種ユーザーモーションとを格納する。インジケーター情報とは、ARモードの遂行中に、カメラ17を介して撮影される映像のうちで、移動通信端末100の入力素子として認識されるインジケーターの区分に必要な情報である。インジケーターとしては、例えば、ユーザーの指、ペン、赤外線出力ペン、瞳、顔などにすることができ、インジケーター情報はインジケーターを区分して認識できる情報である。本発明の実施形態により、ユーザーは、メモリ部13に格納されたインジケーターの中に任意のインジケーターを指定でき、新しいインジケーターをさらに登録できる。インジケーターの追加登録は、メモリ部13にインジケーター情報を格納することによりなされ、インジケーター情報の格納はインジケーターを撮影することによりなされる。
ユーザーモーションとは、AR入力モードにおいて、ユーザーが移動通信端末100に入力できる各種命令語に従う所定のユーザー動作であって、各種命令語は選択、解除、任意の動作の開始及び終了などにすることができる。各種命令語に従うユーザーモーションは、全部区分可能であり、必要に応じて同一の動作にすることができる。例えば、インジケーターが指やペンの模様である場合、選択及び解除に対応するユーザーモーションである選択モーションと解除モーションは、押下動作でなされ、開始及び終了に対応するユーザーモーションである開始モーションと終了モーションは、円を描く動作からなる。他の例として、インジケーターが瞳である場合、選択モーションと解除モーションは、目を1回瞬く動作からなり、開始モーション及び終了モーションは、目を2回瞬く動作からなる。
また、メモリ部13は、本発明の実施形態により文字を読み出すのに必要なデータを格納し、仮想アクションメニューに関するプログラムデータと、多数の仮想アクションコードとを格納する。仮想アクションメニューとは、画像通話時、被呼者の移動通信端末の画像通話画面に任意の固定仮想イメージ又は動的仮想イメージと実際映像とを合成して表示させるメニューであって、各メニューは対応する仮想アクションコードを備える。仮想イメージとしては、花粉、爆竹などにすることができる。
前述したように、本発明による移動通信端末100の動作の過程は、次の通りである。移動通信端末100の制御部11は、動作モードによって各種キーに対応するイメージからなるキーインターフェース又はメニューからなるメニュー画面を表示し、AR入力モードの実行時、撮影された映像から検出されたインジケーターをメニュー画面にリアルタイムで合成して表示する。以後、ユーザーは、表示部19を確認して自身が選択したいキー又はメニューに対応するイメージにインジケーターを配置する。続いて、ユーザーがイメージを選択する動作、すなわち、選択モーションを行うと、制御部11はインジケーターの位置とイメージの位置とが一致することを把握し、選択モーションを把握して選択されたイメージに対応するキー又はメニューが選択されたことを把握して、それに従う動作を遂行する。本発明においてインジケーターの位置と任意のイメージの位置とが一致することは、合成画面上において、2つのイメージの中心座標が一致することではなく、2つのイメージの重畳部分が存在することである。
前述したように動作する移動通信端末100は、本発明により移動通信端末100の動作制御に必要な各種キーを表示部19に表示し、ユーザーの要求によってAR入力モードを実行することで、AR機能を介してキーが入力され、メニューが選択されるため、別途のキー入力部が不要になる。これにより、移動通信端末100は、図2に示すように構成することができる。図2は、本発明の実施形態による移動通信端末の正面図である。図2によれば、移動通信端末100は、表示部19のみを全面に備え、端末の上側にカメラ17を備える。また、表示部19は、移動通信端末の情報を表示する一般表示画面31と、現在動作モードによってキー又は各種メニューが表示される入力表示画面33とに区分されて表示することもできる。図2に示すように、一般表示画面31と入力表示画面33とが分離表示された場合、インジケーターとの合成は入力表示画面33のみで行われる。
一方、図2では、一般表示画面31と入力表示画面33とが分離表示された場合を示したが、動作モードによって表示部19の全体が入力表示画面33からなることもできる。
移動通信端末100は、従来の一般移動通信端末のキー入力部によりなされる全てのユーザー入力を、AR入力モードを介して入力されることができる。それに従う実施形態を、図3〜図6を参照して説明する。
まず、図3を参照して本発明によるキー入力過程を説明する。図3は、本発明の実施形態による移動通信端末のメニュー選択の過程に従う制御部の動作フローチャートである。図3によれば、制御部11は、段階S101において、現在設定された動作モードに従い、端末制御に必要なキーに対応するイメージやアイコンを含むメニュー画面を表示する。例えば、現在アイドルモードである場合、着発信キー、メニューキー、取消キー、確認キー等からなる基本機能キーと、数字キーとを表示する。以後、制御部11は、段階S103においてモーション入力要求を感知すれば、段階S105に進行する。モーション入力要求とは、AR入力モードの設定を要求するもので、これは別途に具備されたキー入力により行うことができる。制御部11は、段階S105においてカメラ撮影を開始して段階S107に進行する。制御部11は、段階S107において撮影された映像から予め指定されたインジケーターを検出し、検出されたインジケーターをメニュー画面にリアルタイムで合成して表示する。例えば、既定のインジケーターが指であれば、カメラを介して撮影されたユーザーのイメージのうち、指イメージをインジケーターとして検出し、指のリアルタイム動きをメニュー画面に合成する。ユーザーは、合成された画面を介して自身の指位置を把握でき、選択したいキーアイコンに指を位置させる。制御部11は、段階S109において撮影された映像を分析してインジケーターの位置がメニュー画面に含まれた任意のアイコン位置と一致した状態で、アイコン選択ユーザーモーションが検出されるか否かを確認して、検出されれば段階S111に進行し、検出されなければ段階S113に進行する。すなわち、ユーザーが任意のキーアイコン上に指を位置した状態で、既定の選択に該当するユーザーモーションである押下動作を行うと、制御部11は、段階S111において当該アイコンに設定された機能を遂行し、結果に従う動作モードを設定して段階S109に進行して、段階S109〜段階S115を遂行する。
一方、制御部11は、段階S113において撮影された映像とメニュー画面とを分析して、インジケーターの位置がメニュー画面のスクロールバーと一致した状態で、アイコン選択ユーザーモーションが検出されるか否かを確認して、検出されれば段階S115に進行し、検出されなければ段階S109に進行する。すなわち、ユーザーが画面のスクロールバーの位置に指を移動させ、スクロールバーと指の位置とが一致した状態で、既定の選択ユーザーモーションである押下動作を遂行すれば、制御部11はスクロールバーが選択されたことを感知し、段階S115においてインジケーターの動きに従ってメニュー画面をスクロールして表示し、段階S109に進行する。
本発明の実施形態では、キーを選択して入力する過程に限って説明したが、メニューを選択する過程も同様になされる。すなわち、制御部11が各種メニュー目録を含む画面を表示した状態でAR入力モードが設定される場合、制御部11は撮影された映像からインジケーターを検出し、表示した画面とリアルタイムで合成して表示する。ユーザーの所望のメニュー目録にインジケーターを位置させ、選択ユーザーモーションを行うと、制御部11は現在インジケーの位置と同一に位置するメニューが選択されたと判断し、選択されたメニューに従う動作を遂行する。このとき、メニュー目録は多様なフォーマットで表示することができる。また、それぞれのメニューに対応するアイコンや動的イメージになり得る。
他の実施形態として、AR入力モードにおけるインジケーターの動きに従う文字入力過程について、図4を参照して説明する。図4は、本発明の実施形態による文字認識過程に従う制御部11の動作フローチャートである。図4によれば、制御部11は、文字認識モードが設定されると、段階S201において文字認識画面を表示してカメラ撮影を開始する。本発明の実施形態において、文字認識モードはAR入力モードのインジケーターの動きに従う文字認識モードである。制御部11は、段階S203において撮影された映像からインジケーターを検出し、検出されたインジケーターを文字認識画面に合成して表示して段階S205に進行する。ユーザーは、文字認識画面にインジケーターが合成されて表示されると、適当な位置で文字を書き込むために、予め設定された入力開始ユーザーモーションを行った後、文字を書き込む。制御部11は、段階S205において撮影される映像から文字入力開始ユーザーモーションが検出されるか否かを確認して、検出されれば段階S207に進行する。制御部11は、段階S207においてインジケーターの動きに従う軌跡を線で表示し、段階S209に進行する。ユーザーは、所望の文字の書き込みが完了すれば、予め設定された入力終了ユーザーモーションを行う。すなわち、“3”を入力したい場合、入力開始ユーザーモーションを行った後“3”を書込み、“3”の書込みが完了すれば入力終了ユーザーモーションを行う。制御部11は、段階S209において撮影される映像から文字入力終了ユーザーモーションが検出されれば、段階S211に進行する。制御部11は、段階S211においてインジケーターの動きに従う軌跡表示を中断し、表示された軌跡を文字で認識し、段階S203に戻り、段階S203〜段階S211を繰返す。前述した例から、インジケーターが赤外線ペンである場合、入力開始ユーザーモーション及び終了ユーザーモーションはまた、赤外線光の存在及び不存在にすることができる。
前記のような過程によりユーザーは文字を入力できる。
他の実施形態として、一つの画面に全体が表示できない文書をスクロール機能により確認する過程について、図5を参照して説明する。図5は、本発明の実施形態による文書表示過程に従う制御部の動作フローチャートである。図5によれば、制御部11は、段階S401においてユーザーから文字表示の要求があれば、段階S403に進行する。制御部11は、段階S403において画面に当該文書の全体を表示できるか否かを判断して、表示できれば段階S415に進行して文書を表示し、表示できなければ段階S405に進行する。制御部11は、段階S405において最大に表示可能な文書の一部を表示して段階S407に進行する。制御部11は、段階S407においてモーション入力要求を感知すれば段階S409に進行する。制御部11は、段階S409においてカメラ撮影を開始し、撮影された映像からインジケーターを検出してリアルタイムで文書画面と合成して表示する。ユーザーは表示文書の他の部分を見るために、予め設定された文書スクロールモーションを行う。制御部11は、段階S411において撮影された映像から文書スクロールモーションが検出されれば、段階S413に進行する。制御部11は、段階S413においてインジケーターの動きに従って文書コンテンツをスクロールして表示し、動作過程を終了する。図示していないが、ユーザーが予め設定されたスクロール解除モーションを行うと、制御部11は、撮影される映像からインジケーターが動いても、インジケーターの動きを変化させて表示するだけであって、文書をスクロールして動かさない。上記では文書を例として説明したが、一つの画面に表示できないウェブページやメニュー画面においても、前述した実施形態と同様な過程によりユーザーが確認できる。
次に、図6を参照して画像通話中にAR入力モードを介して仮想アクションメニューを遂行する過程を説明する。図6は、本発明の実施形態による画像通話時の制御部の動作フローチャートである。図6によれば、制御部11は、画像通話モードにおいて被呼者の映像/ユーザーの映像及び仮想アクションメニューからなる画像通話画面を、段階S501において表示し、段階S503に進行する。制御部11は、段階S503において撮影された映像から検出されたインジケーターを画像通話画面と合成して表示し、段階S505に進行する。ユーザーは、画像通話中に被呼者に仮想アクションメニューを実行したい場合、画面を介して確認しながらインジケーターを移動させて所望の仮想アクションメニュー上に位置させ、予め設定された選択ユーザーモーションを行う。仮想アクションメニューの例としては、花粉飛ばしや爆竹鳴らしなどがある。 制御部11は、段階S505においてインジケーターの位置が画像画面に含まれる任意の仮想アクションメニューの位置と一致した状態で、メニュー選択ユーザーモーションが検出されると、段階S507に進行する。制御部11は、段階S507において選択された仮想アクションメニューに対応する仮想アクションコードを被呼者の端末に転送し、被呼者の映像と選択された仮想アクションとが実行される映像、すなわち、仮想イメージを合成して表示し、段階S509に進行する。すなわち、制御部11は、選択された仮想アクションメニューに関するデータを直接転送するものではなく、選択された仮想アクションメニューに対応する仮想アクションコードのみを転送する。仮想アクションコードを受信した移動通信端末は、対応する仮想アクションメニューデータを検出してユーザー映像と合成して表示する。
以後、段階S509において、制御部11は、通話終了が感知されるまで段階S501〜段階S507を繰返す。
図示していないが、仮想アクションメニューには音楽再生も含まれる。但し、ユーザーがAR入力モードを介して音楽再生命令を入力すれば、制御部11は、当該音楽の音源データを画像データに含めて転送する。また、図示していないが、ユーザーは、音楽再生時、時間的な音楽再生程度を示すスクロールバーをAR入力モードのインジケーターを介して選択して要望通り調整でき、制御部11はユーザーの調整によって音楽を再生する。
なお、本発明の詳細な説明では具体的な実施形態について説明したが、本発明の要旨から逸脱しない範囲内で多様に変形できる。よって、本発明の範囲は、前述の実施形態に限定されるものではなく、特許請求の範囲の記載及びこれと均等なものに基づいて定められるべきである。
本発明が適用される移動通信端末のブロック構成図である。 本発明の実施形態による移動通信端末の正面図である。 本発明の実施形態による移動通信端末の実施形態によるメニュー選択過程に従う制御部の動作フローチャートである。 本発明の実施形態による文字認識過程に従う制御部の動作フローチャートである。 本発明の実施形態による文書表示過程に従う制御部の動作フローチャートである。 本発明の実施形態による画像通話時の制御部の動作フローチャートである。
符号の説明
11 制御部
13 メモリ部
15 映像処理部
17 カメラ
19 表示部
21 RFモジュール
23 音声処理部
25 ベースバンド処理部

Claims (19)

  1. 移動通信端末のユーザー入力方法において、
    現在設定された動作モードに従い、端末制御に必要なキー機能及びメニュー機能の各々に対応するイメージを含むメニュー画面を表示するステップと、
    AR入力モードの設定時、具備されたカメラを介して撮影される映像から予め設定されたインジケーターを検出し、前記検出されたインジケーターを前記メニュー画面にリアルタイムで合成して表示するステップと、
    前記合成された画面上において、前記イメージの任意のイメージと前記インジケーターとが重畳された状態で、前記カメラを介して撮影された映像から選択に対応する予め設定されたユーザーモーションが検出される場合、前記イメージに対応する機能に従う動作を遂行するステップと
    を含むことを特徴とするユーザー入力方法。
  2. 前記インジケーターは、前記ARモードの遂行中、前記カメラを介して撮影される映像のうちで、前記移動通信端末の入力素子として認識される被写体であることを特徴とする、請求項1に記載のユーザー入力方法。
  3. 前記AR入力モードの設定時、具備されたカメラを介して撮影される映像から予め設定されたインジケーターを検出し、前記検出されたインジケーターを前記メニュー画面にリアルタイムで合成して表示するステップは、
    ユーザーの要求に従って前記AR入力モードを設定し、前記カメラを作動させるステップと、
    前記カメラを介して撮影される映像から予め設定されたインジケーターを検出するステップと、
    前記検出されたインジケーターを前記メニュー画面にリアルタイムで合成して表示するステップと
    を含むことを特徴とする請求項1に記載のユーザー入力方法。
  4. 前記インジケーターは、予め格納された複数のインジケーターのうち、ユーザーにより選択されたインジケーターが設定されることを特徴とする、請求項1に記載のユーザー入力方法。
  5. 前記予め格納されたインジケーターは、ユーザーの指、ペン、赤外線出力ペン、瞳、顔を含むことを特徴とする、請求項4に記載のユーザー入力方法。
  6. 前記ユーザーモーションは、ユーザーが前記移動通信端末に入力できる各種命令語に対応して予め設定されたユーザーの動作であることを特徴とする、請求項1に記載のユーザー入力方法。
  7. 前記合成された画面上において、前記表示画面に含まれるスクロールバーと前記インジケーターとが重畳された状態で、前記カメラを介して撮影された映像から選択に対応する予め設定されたユーザーモーションが検出される場合、前記インジケーターの動きに従ってスクロール機能を遂行するステップをさらに含むことを特徴とする、請求項1に記載のユーザー入力方法。
  8. 前記メニュー画面の一部が表示された状態で、前記カメラを介して撮影された映像から予め設定されたスクロールユーザーモーションが検出される場合、インジケーターの動きに従って前記メニュー画面がコンテンツをスクロールして表示するステップをさらに含むことを特徴とする、請求項1に記載のユーザー入力方法。
  9. 移動通信端末のユーザー入力方法において、
    文字認識画面を表示し、前記移動通信端末に具備されたカメラ撮影を開始するステップと、
    前記撮影される映像から予め設定されたインジケーターを検出し、前記検出されたインジケーターを前記メニュー画面にリアルタイムで合成して表示するステップと、
    前記撮影される映像から予め設定された文字入力開始ユーザーモーションを検出すれば、前記インジケーターの動きに従う軌跡を前記文字認識画面に線で表示するステップと、
    前記撮影される映像から予め設定された文字入力終了ユーザーモーションを検出すれば、前記インジケーターの動きに従う軌跡表示を中断し、表示された軌跡を文字で認識するステップと
    を含むことを特徴とするユーザー入力方法。
  10. 移動通信端末のユーザー入力方法において、
    画像通話時、被呼者の映像、撮影されるユーザー映像及び複数の仮想アクションメニューを含む画像通話画面を表示するステップと、
    前記撮影される映像から予め設定されたインジケーターを検出し、前記検出されたインジケーターを前記画像通話画面にリアルタイムで合成して表示するステップと、
    前記合成された画像通話画面において、任意の仮想アクションメニューと前記インジケーターとが重畳された状態で、選択ユーザーモーションが感知されれば、前記任意の仮想アクションメニューに対応するアクションコードを被呼者の端末に転送し、前記任意の仮想アクションメニューに従う仮想イメージを前記被呼者の映像と合成して表示するステップと
    を含むことを特徴とするユーザー入力方法。
  11. 前記被呼者の端末から任意のアクションコードを受信すれば、受信されたアクションコードに対応する仮想アクションメニューを検索し、仮想アクションメニューに対応する仮想イメージを前記ユーザー映像と合成して表示するステップをさらに含むことを特徴とする、請求項10に記載のユーザー入力方法。
  12. 移動通信端末のユーザー入力装置において、
    表示部と、
    カメラと、
    前記カメラを介して撮影した映像と予め格納されたイメージとからなる仮想映像に、前記カメラを介して撮影した映像から検出したインジケーターをリアルタイムで整合し、誤差を補正し、2次元又は3次元で前記表示部に表示する映像処理部と、
    前記映像処理部及び前記表示部を制御し、現在設定された動作モードに従って端末制御に必要なキー機能及びメニュー機能の各々に対応するイメージを含むメニュー画面を前記表示部に表示し、AR入力モードの設定時、前記映像処理部を制御して、前記カメラを介して撮影される映像から予め設定されたインジケーターを検出し、前記検出されたインジケーターを前記メニュー画面にリアルタイムで合成して表示し、前記合成された画面上において、前記イメージの任意のイメージと前記インジケーターとが重畳された状態で、前記カメラを介して撮影された映像から選択に対応する予め設定されたユーザーモーションが検出される場合、前記イメージに対応する機能に従う動作を遂行する制御部と
    を含むことを特徴とするユーザー入力装置。
  13. 前記インジケーターは、前記ARモードの遂行中、前記カメラを介して撮影される映像のうちで、前記移動通信端末の入力素子として認識される被写体であることを特徴とする、請求項12に記載のユーザー入力装置。
  14. 前記制御部は、ユーザーの要求に従って前記AR入力モードを設定して前記カメラを作動させ、前記映像処理部を制御して、前記カメラを介して撮影される映像から予め設定されたインジケーターを検出し、前記検出されたインジケーターを前記メニュー画面にリアルタイムで合成して表示することを特徴とする請求項12に記載のユーザー入力装置。
  15. 前記インジケーターは、予め格納された複数のインジケーターのうち、ユーザーにより選択されたインジケーターが設定されることを特徴とする、請求項12に記載のユーザー入力装置。
  16. 前記予め格納されたインジケーターは、ユーザーの指、ペン、赤外線出力ペン、瞳、顔を含むことを特徴とする、請求項15に記載のユーザー入力装置。
  17. 前記ユーザーモーションは、ユーザーが前記移動通信端末に入力できる各種命令語に対応して予め設定されたユーザーの動作であることを特徴とする、請求項12に記載のユーザ入力装置。
  18. 前記制御部は、前記合成された画面上において、前記表示画面に含まれるスクロールバーと前記インジケーターとが重畳された状態で、前記カメラを介して撮影された映像から選択に対応する予め設定されたユーザーモーションが検出される場合、前記インジケーターの動きに従ってスクロール機能を遂行することを特徴とする、請求項12に記載のユーザー入力装置。
  19. 前記制御部は、前記メニュー画面の一部が表示された状態で、前記カメラを介して撮影された映像から予め設定されたスクロールユーザーモーションが検出される場合、インジケーターの動きに従って前記メニュー画面がコンテンツをスクロールして表示することを特徴とする請求項12に記載のユーザー入力装置。
JP2006217335A 2005-08-11 2006-08-09 移動通信端末のユーザー入力方法及び装置 Pending JP2007052780A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050073797A KR100987248B1 (ko) 2005-08-11 2005-08-11 이동 통신 단말의 사용자 입력 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2007052780A true JP2007052780A (ja) 2007-03-01

Family

ID=37433819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006217335A Pending JP2007052780A (ja) 2005-08-11 2006-08-09 移動通信端末のユーザー入力方法及び装置

Country Status (7)

Country Link
US (1) US7898563B2 (ja)
EP (1) EP1752861A1 (ja)
JP (1) JP2007052780A (ja)
KR (1) KR100987248B1 (ja)
CN (1) CN1913545A (ja)
RU (1) RU2381544C2 (ja)
WO (1) WO2007018416A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010061850A1 (ja) * 2008-11-26 2010-06-03 京セラ株式会社 カメラ付き機器
KR100963238B1 (ko) 2008-02-12 2010-06-10 광주과학기술원 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
JPWO2021038786A1 (ja) * 2019-08-29 2021-03-04

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
KR100858358B1 (ko) * 2006-09-29 2008-09-11 김철우 손의 움직임 인식을 이용한 사용자인터페이스 장치 및 방법
KR100798447B1 (ko) * 2007-03-15 2008-01-28 에스케이 텔레콤주식회사 화상 통화 시스템에서의 가상 액션 서비스 방법과 이를위한 이동통신 단말기
KR100868732B1 (ko) * 2007-11-05 2008-11-13 광주과학기술원 증강현실을 이용한 멀티미디어 명함정보 제공 시스템 및 그제공방법
KR100868733B1 (ko) * 2007-11-05 2008-11-13 광주과학기술원 증강현실 기반의 게임이 가능한 이동 단말기 및 이동단말기를 이용하여 증강현실 기반의 게임을 제공하는 방법
KR20090061792A (ko) * 2007-12-12 2009-06-17 주식회사 엘지텔레콤 대기 화면 서비스의 번호 Key 매핑을 통한 Quick실행 방법 및 장치
US8159458B2 (en) 2007-12-13 2012-04-17 Apple Inc. Motion tracking user interface
KR20100009023A (ko) * 2008-07-17 2010-01-27 (주)마이크로인피니티 움직임을 인식하는 장치 및 방법
KR101390045B1 (ko) * 2008-12-24 2014-04-30 에릭슨엘지엔터프라이즈 주식회사 통화 장치 및 그 제어 장치
KR101641063B1 (ko) * 2009-03-26 2016-07-22 삼성전자주식회사 단말 제어 장치 및 방법
US8436887B2 (en) * 2009-11-13 2013-05-07 Samsung Electronics Co., Ltd. Mobile terminal, display apparatus and control method thereof
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
JP5534183B2 (ja) 2010-03-23 2014-06-25 ソニー株式会社 電子機器および情報処理プログラム
KR101156753B1 (ko) * 2010-04-26 2012-06-14 팬터로그인터액티브 주식회사 휴대용 단말 장치 및 이를 이용한 피사체 모션 검출 방법
KR101118010B1 (ko) * 2010-07-16 2012-06-12 텔코웨어 주식회사 증강 현실을 이용한 영상 통화 서비스 방법 및 그 시스템, 및 기록매체
US9727128B2 (en) 2010-09-02 2017-08-08 Nokia Technologies Oy Methods, apparatuses, and computer program products for enhancing activation of an augmented reality mode
KR101219933B1 (ko) 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
CN103221912A (zh) * 2010-10-05 2013-07-24 惠普发展公司,有限责任合伙企业 输入命令
KR101726224B1 (ko) * 2010-10-06 2017-04-12 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101282292B1 (ko) * 2011-01-24 2013-07-10 주식회사 코세이프 증강현실을 이용한 광고 서비스 시스템 및 그 방법
KR101235224B1 (ko) * 2011-01-28 2013-02-20 한림대학교 산학협력단 광학 펜을 이용한 입력을 제공하는 포터블 장치 및 그 방법
US8606645B1 (en) 2012-02-02 2013-12-10 SeeMore Interactive, Inc. Method, medium, and system for an augmented reality retail application
US9921648B2 (en) * 2013-02-22 2018-03-20 University Of Seoul Industry Cooperation Foundation Apparatuses, methods and recording medium for control portable communication terminal and its smart watch
CN103294347B (zh) * 2013-06-24 2016-09-07 贝壳网际(北京)安全技术有限公司 移动终端浏览器视频播放的操作控制方法、装置及浏览器
CN103777753A (zh) * 2013-11-12 2014-05-07 广州新节奏智能科技有限公司 新型便携式肢体感应操控装置及其应用方法
WO2016080572A1 (ko) * 2014-11-20 2016-05-26 엘지전자 주식회사 단말 장치, 영상 제어 시스템 및 단말 장치의 제어 방법
CN108075940A (zh) * 2016-11-18 2018-05-25 天津嘉深保科技发展有限公司 一种会议服务用网络通信联通测试仪
CN107124658B (zh) * 2017-05-02 2019-10-11 北京小米移动软件有限公司 视频直播方法及装置
US11275945B2 (en) * 2020-03-26 2022-03-15 Varjo Technologies Oy Imaging system and method for producing images with virtually-superimposed functional elements
US11638872B1 (en) * 2021-10-18 2023-05-02 Electronic Arts Inc. Videographer mode in online games

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903668A (en) * 1992-05-27 1999-05-11 Apple Computer, Inc. Method and apparatus for recognizing handwritten words
DE4408737A1 (de) * 1994-03-15 1995-09-21 Sel Alcatel Ag Telekommunikationsendgerät
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
WO1999007153A1 (en) 1997-07-31 1999-02-11 Reality Fusion, Inc. Systems and methods for software control through analysis and interpretation of video information
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
JP2002290529A (ja) 2001-03-28 2002-10-04 Matsushita Electric Ind Co Ltd 携帯通信端末、情報表示装置、制御入力装置および制御入力方法
US6943774B2 (en) 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
US7064742B2 (en) * 2001-05-31 2006-06-20 Siemens Corporate Research Inc Input devices using infrared trackers
WO2003077553A1 (fr) * 2002-03-08 2003-09-18 Mitsubishi Denki Kabushiki Kaisha Dispositif de communication mobile, procede de commande d'affichage pour un dispositif de communication mobile et programme correspondant
US7301547B2 (en) 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
RU2227930C2 (ru) 2002-07-04 2004-04-27 Межрегиональная благотворительная общественная организация инвалидов "ГЕРОНТ" Способ бесконтактного ввода информации в компьютер и система для его осуществления
KR100651508B1 (ko) 2004-01-30 2006-11-29 삼성전자주식회사 증강현실을 이용한 지역 정보 제공 방법 및 이를 위한지역 정보 서비스 시스템
US7692627B2 (en) * 2004-08-10 2010-04-06 Microsoft Corporation Systems and methods using computer vision and capacitive sensing for cursor control

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100963238B1 (ko) 2008-02-12 2010-06-10 광주과학기술원 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
US8823697B2 (en) 2008-02-12 2014-09-02 Gwangju Institute Of Science And Technology Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality
WO2010061850A1 (ja) * 2008-11-26 2010-06-03 京セラ株式会社 カメラ付き機器
JP2010130156A (ja) * 2008-11-26 2010-06-10 Kyocera Corp カメラ付き機器
KR101248721B1 (ko) * 2008-11-26 2013-04-01 쿄세라 코포레이션 카메라 부착 기기
US8803997B2 (en) 2008-11-26 2014-08-12 Kyocera Corporation Method and device for controlling remote capturing of an image based on detection of a predetermined change in the image
US8947552B2 (en) 2008-11-26 2015-02-03 Kyocera Corporation Method and device with camera for capturing an image based on detection of the image
JPWO2021038786A1 (ja) * 2019-08-29 2021-03-04

Also Published As

Publication number Publication date
RU2008104856A (ru) 2009-08-20
US7898563B2 (en) 2011-03-01
KR20070019849A (ko) 2007-02-15
CN1913545A (zh) 2007-02-14
US20070064091A1 (en) 2007-03-22
WO2007018416A1 (en) 2007-02-15
KR100987248B1 (ko) 2010-10-12
EP1752861A1 (en) 2007-02-14
RU2381544C2 (ru) 2010-02-10

Similar Documents

Publication Publication Date Title
JP2007052780A (ja) 移動通信端末のユーザー入力方法及び装置
JP5358733B2 (ja) タッチスクリーン機能を変更するためのシステム及び方法
WO2020238380A1 (zh) 全景拍摄方法及终端设备
EP2627073B1 (en) Terminal apparatus
CN111541845A (zh) 图像处理方法、装置及电子设备
JP4464382B2 (ja) 写真撮影遊戯機及び写真撮影遊戯システム
KR20180095331A (ko) 이동단말기 및 그 제어 방법
CN111010610B (zh) 一种视频截图方法及电子设备
CN110300274B (zh) 视频文件的录制方法、装置及存储介质
EP3979621A1 (en) Photographing method and terminal
CN109474787B (zh) 一种拍照方法、终端设备及存储介质
CN112286362A (zh) 真实环境画面中虚拟道具的显示方法、***及存储介质
CN109634688B (zh) 会话界面的显示方法、装置、终端及存储介质
CN113157172A (zh) 弹幕信息显示方法、发送方法、装置、终端及存储介质
CN113936699B (zh) 音频处理方法、装置、设备及存储介质
CN111601174A (zh) 一种字幕添加方法及装置
CN111083374B (zh) 滤镜添加方法及电子设备
KR101662740B1 (ko) 사용자 손가락들의 모션에 기반한 한글 입력 방법 및 장치
WO2021197260A1 (zh) 便签创建方法及电子设备
CN108983971A (zh) 基于增强现实的标记方法及装置
JP5802977B2 (ja) 写真撮影遊戯機及び写真撮影遊戯システム
JP7155242B2 (ja) 携帯情報端末
CN109559280B (zh) 一种图像处理方法及终端
US20200257396A1 (en) Electronic device and control method therefor
CN112121409A (zh) 一种游戏交互方法、柔性屏终端及计算机可读存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090421