JP6816858B2 - 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末 - Google Patents

携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末 Download PDF

Info

Publication number
JP6816858B2
JP6816858B2 JP2019007979A JP2019007979A JP6816858B2 JP 6816858 B2 JP6816858 B2 JP 6816858B2 JP 2019007979 A JP2019007979 A JP 2019007979A JP 2019007979 A JP2019007979 A JP 2019007979A JP 6816858 B2 JP6816858 B2 JP 6816858B2
Authority
JP
Japan
Prior art keywords
mobile terminal
objects
layout
area
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019007979A
Other languages
English (en)
Other versions
JP2019083048A (ja
Inventor
ホ−ユン・イ
ミン−ジュ・キム
ジ−ユン・ムン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019083048A publication Critical patent/JP2019083048A/ja
Application granted granted Critical
Publication of JP6816858B2 publication Critical patent/JP6816858B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、タッチスクリーン上に表示される複数のオブジェクトを管理する方法及び装置に関し、特に、タッチスクリーン上で複数のオブジェクトの表示を携帯端末のモーション(motion)により容易に変更できる方法及び装置に関する。
タッチスクリーンは、映像を表示するためのディスプレイ装置にタッチパネルが結合され形成されるもので、ユーザにとってキーボードやマウスがなくても命令を容易に入力可能とする。上記タッチスクリーンは、携帯端末、ナビゲーション装置、TV、ATM(Automated Teller Machines)、商店のPOS(Point-Of-Sale)装置など、多様な電子装置に広く使われている。
例えば、最近、携帯端末で提供する多様なサービス及び付加機能が順次拡大されるにつれて、多くの携帯端末がタッチスクリーンを用いたグラフィカル ユーザインターフェース(Graphical User Interface)を提供している。
このような携帯端末の効用価値を高めてユーザの多様な要求を満足させるために、携帯端末で実行可能な多様なアプリケーションが開発されている。
携帯端末には、上記装置の製造社により製作されて上記装置に設置される基本アプリケーションと、インターネットを通じてアプリケーション販売ウェブサイトからダウンロードされる追加アプリケーションなどが保存されて実行されることができる。
これによって、最近スマートフォン及びタブレットPCのような携帯端末内には、少なくとも数百個のアプリケーションが保存されており、上記アプリケーション各々を実行させるためのショートカットキー(shortcut keys)がアイコン形態で携帯端末のタッチスクリーン上に表示される。これによって、ユーザは、タッチスクリーン上に表示されたアイコンのうちいずれか一つをタッチすることによって、所望のアプリケーションを上記携帯端末で実行させることができる。また、携帯端末のタッチスクリーン上には、上記ショートカットキー以外にも、ウィジェット、写真及び文書などのような多様な形態のビジュアルオブジェクトが表示されている。
しかしながら、携帯端末でこのような多様な形態のビジュアルオブジェクトの増加によって、問題が発生している。携帯端末内には多くのビジュアルオブジェクトが保存されているが、携帯端末に備わった小型の画面上に表示可能なオブジェクトの個数は非常に限定される。
したがって、このように画面上に表示され得る空間の制約によって、上記画面を通じて表示される数多くのビジュアルオブジェクト(visual objects)を分類して整理することが要求される。しかしながら、レイアウトの構成要素を規則的に配置することだけでは不十分であり、例えば、携帯端末の画面上に表示される複数のビジュアルオブジェクトは、ユーザによって編集、位置移動、削除などのような管理が便利に実行されることが要求される。しかしながら、従来には、複数のオブジェクトの表示を変更しようとする場合、上記携帯端末の画面を編集(Edit)環境の画面に転換させた後、削除又は修正するための命令を反復して入力しなければならない面倒さ及び不便さがあり、このような編集過程に多くの時間が必要となる問題がある。
上記情報は、本発明の理解を助けるために背景情報のみとして開示される。これらが本発明に対して従来技術として適用できるか否かに関しては何の決定及び断言も下されていない。
特表2012−521595号公報 特開2012−138892号公報 特開2012−217677号公報 特開2011−028677号公報 特許第5107453号公報 国際公開第2012/083277号 特開2008−268689号公報 米国特許出願公開第2009/0046075号明細書
本発明の目的は、少なくとも上述した問題点及び/又は課題に取り組み、少なくとも以下の便宜を提供することにある。
本発明の目的は、複数のオブジェクトが配置されるレイアウトの構成要素をユーザの所望の形態で容易に変更するための装置及び方法を提供することにある。
また本発明の目的は、携帯端末のモーションを利用して複数のオブジェクトの配列及びそのオブジェクトが配置されるレイアウトの表示を容易に制御できる装置及び方法を提供することにある。
本発明の実施形態によれば、 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法を提供する。上記方法は、上記複数のオブジェクトが各々表示される複数の領域を含むレイアウトを表示するステップと、上記携帯端末に対する動作関連入力を受信するステップと、上記携帯端末の動作関連入力に対応する上記複数領域のうち一つ以上の領域を変更するステップと、上記変更された領域を含むレイアウトを表示するステップとを含む。
本発明の他の実施形態によれば、電子装置により表示された画面を修正するための方法を提供する。上記方法は、 複数の領域を含む画面を表示するステップと、各領域はそれぞれのグラフィックオブジェクトを含み、ユーザ入力を受信するステップと、一つ以上の領域に対する一つ以上の視覚的特徴(例えば、サイズ、形態及び/または位置)を修正するための画面を修正するステップと、上記修正された画面を表示するステップと、を含む。
本発明のさらに他の実施形態によれば、 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する携帯端末を提供する。上記携帯端末は、上記複数のオブジェクトが各々表示される複数の領域を含むレイアウトを表示する表示部と、上記携帯端末に対する動作関連入力を検出するセンサモジュールと、上記携帯端末の動作関連入力に対応する上記複数の領域のうち、一つ以上の領域を変更し、上記変更された領域を含むレイアウトを表示するように上記表示部を制御する制御部と、を含む。
本発明のまたさらに他の実施形態によれば、電子装置によって表示された画面を修正するための装置を提供する。上記装置は、複数の領域を含む画面を表示する表示部と、各領域はそれぞれのグラフィックオブジェクトを含み、ユーザ入力を受信する入力部と、一つ以上の領域に対する一つ以上の視覚的特徴(例えば、サイズ、形態及び/または位置)を修正するための画面を修正し、上記修正された画面を表示するように上記表示部を制御する制御部とを含む。
本発明のまたさらに他の実施形態によれば、本発明は、実行の際に、上述した側面のいずれか一つによる方法、システム及び/又は装置に具現されるために配列された命令を含むコンピュータプログラムを提供する。
本発明とそれによって存在するより完全な理解と、それに従う多くの利点のより完全な理解は容易に明らかになり、添付された図面との結合を考慮すれば、後述する詳細な説明を参照してよりよく理解できる。図面中、同一の参照符号は、同一であるか又は類似した構成要素を示す。
本発明の他の目的、利点、及び顕著な特徴は、添付の図面及び本発明の実施形態からなされた以下の詳細な説明から、この分野の当業者に明確になるはずである。
本発明の実施形態によれば、ユーザは、携帯端末を利用して彼/彼女が所望するパターンでレイアウトの構成要素(すなわち、領域/オブジェクト)を直観的に配列することができる。したがって、本発明の実施形態によれば、ユーザは携帯端末のモーションによってユーザが所望するパターンで携帯端末の画面に表示された複数のオブジェクトの配列を容易で迅速に変更することができる。またオブジェクトが携帯端末の簡単なモーション入力を介して配列されるレイアウトの構成を変更することができるので、ユーザの便利性が極大化されることができる。
さらに、所望のオブジェクトが含まれたレイアウトがオブジェクトの属性を構成して提供し得るので、統一された秩序感覚がある合わせ型レイアウトを提供することができる。
本発明の実施形態の上述した及び他の様相、特徴、及び利点は、以下の添付図面を併用した後述の詳細な説明から、より一層明らかになる。
本発明の一実施形態による携帯端末を示す概略的なブロック図である。 本発明の一実施形態による携帯端末の前面斜視図である。 本発明の一実施形態による携帯端末の後面斜視図である。 本発明の一実施形態による携帯端末におけるレイアウトを構成する領域を変更する方法を説明するための概略的な順序図である。 本発明の一実施形態による携帯端末の往復モーション方向によってレイアウトを構成する領域が変更される過程を示す例示図である。 本発明の一実施形態による携帯端末の往復モーション方向によってレイアウトを構成する領域が変更される過程を示す例示図である。 本発明の一実施形態による携帯端末の往復モーション方向によってレイアウトを構成する領域が変更される過程を示す例示図である。 本発明の一実施形態による携帯端末の往復モーション方向によってレイアウトを構成する領域が変更される過程を示す例示図である。 本発明の他の実施形態による息によってレイアウトを構成する領域が変更される過程を示す例示図である。 本発明の一実施形態によるレイアウトの配列規則を説明するための図である。 本発明の一実施形態によるレイアウトの配列規則を説明するための図である。 本発明の他の実施形態による携帯端末におけるレイアウトを構成する領域を変更する方法を説明するための概略的な順序図である。 本発明の他の実施形態によるタッチされたオブジェクトの属性によってレイアウトを構成する領域に表示されるオブジェクトが変更される過程を示す例示図である。 本発明の一実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する方法を説明するための概略的な順序図である。 本発明の一実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する方法を説明するための概略的な順序図である。 本発明の一実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する過程を示す例示図である。 本発明の他の実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する方法を説明するための概略的な順序図である。 本発明の他の実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する過程を示す例示図である。
以下、本発明の望ましい実施形態を添付の図面を参照して詳細に説明する。
添付の図面を参照した下記の説明は、特許請求の範囲の記載及びこれと均等なものの範囲内で定められるような本発明の実施形態の包括的な理解を助けるために提供するものであり、この理解を助けるための様々な特定の詳細を含むが、唯一つの実施形態に過ぎない。したがって、本発明の範囲及び精神を逸脱することなく、ここに説明する実施形態の様々な変更及び修正が可能であるということは、当該技術分野における通常の知識を有する者には明らかである。
本明細書では、同一又は類似した参照番号は、同一又は類似した要素、特性、又は構成要素を称するために使用される。公知の構造、構成、機能及び/又はプロセスの詳細な説明は、本発明の要旨を不明にすることを防ぐために、さらに明瞭性と簡潔性のために省略する。
以下の説明及び特許請求の範囲で使用する用語及び単語は、辞典的意味に限定されるものではなく、本発明の理解を明確且つ一貫性があるようにするために使用される。したがって、本発明の実施形態の説明が単に実例を提供するためのものであって、特許請求の範囲及びこれと均等なものに基づいて定義される発明をさらに限定する目的で提供されるものでないことは、本発明の技術分野における通常の知識を持つ者には明らかであろう。
本願明細書に記載の各要素は、文脈中に特に明示しない限り、複数形を含むことは、当業者には理解できるであろう。したがって、例えば、“コンポーネント表面(a component surface)”との記載は、1つ又は複数の表面を含む。
‘第1’、‘第2’、‘第3’のように序数を含む用語は多様なエレメント、構成要素、領域、階層及び/又はセクションを説明するために使用されるが、これらは、上記用語により限定されない。これらの用語は、一つのエレメント、構成要素、領域、階層及び/又はセクションを他の領域、階層、又はセクションから区別する目的のみで使われる。例えば、本発明の権利範囲を外れることなく、第1のエレメント、構成要素、領域、階層及び/又はセクションは第2のエレメント、構成要素、領域、階層及び/又はセクションと称され得る。説明において、‘及び/又は’という接続用語は、複数の関連した記載項目の組合せ又は複数の関連した記載項目のうちいずれか一つを含む。
ここで使用される用語は、特定の実施形態のみを説明するためのものであり、本発明を限定するのではない。本明細書で使用されている“具備する”又は“有する”などの用語は、明細書上に記載された特徴、数、ステップ、動作、構成要素、エレメント、又はこれらの組み合せの存在を指定するものであって、1つ又はそれ以上の他の特徴、数、ステップ、動作、構成要素、部品、又はこれらの組み合せの存在又は付加可能性を予め排除しないものと理解されるべきである。
“実質的に(substantially)”という用語は、提示された特徴、パラメータ、又は値が正確に設定される必要はないが、許容誤差、測定誤り、測定精度限界及び当業者に知られているか、あるいは当業者によって実験なしに得られる要素を含む偏差又は変化が、これら特性が提供しようとする効果を排除しない範囲内で発生することを意味する。
特徴、数字、段階、動作、エレメント、構成要素、特性、及び/又はこれらの組合せが存在することを指定しようとするものであって、一つ又はそれ以上の他の特徴、数字、段階、動作、構成要素、部品、あるいはこれらの組合せが、存在するあるいは付加される可能性を予め排除しないことが理解されなければならない。
用語が異なって定義されない限り、技術的な又は科学的な用語を含めてここで使用されるすべての用語は、本発明が属する技術分野における通常の知識を有する者により一般的に理解されるものと同一の意味を有している。一般的に使用される予め定義されているもののような用語は、関連技術の文脈上有する意味と一致する意味を有するものと解釈されなければならず、本出願で明白に定義しない限り、理想的であるか又は過度に形式的な意味であると解釈されない。
この明細書の説明及び請求項を通じて“YのためのX”の一般的な言語形式がYを行うために具体的であるが(ここで、Yは行動、行為、又はステップであり、Xはこれら行動、行為、又はステップを実行するための手段である)、制限されずに適用され、構成され、あるいは配列される意味を含むことが理解され得る。
以下で説明される実施形態は、携帯用(hand-held)端末を例として説明されるが、本発明によるタッチスクリーン上に表示される複数のオブジェクトを管理する装置及び方法は、携帯電話、スマートフォン、タブレットPCなどのような携帯端末だけでなく、ナビゲーション装置、テレビ(TV)、ATM、商店のPOS装置など、タッチスクリーンを具備した多様な電子装置に適用され得る。
また、本発明における携帯端末は、フレキシブル装置又はフレキシブルディスプレイ装置であり得る。このような携帯端末の代表的な構成は、携帯電話に関するものであり、このような携帯端末の代表的な構成で一部構成素子は必要によって省略又は変更され得る。
本発明は、携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法を提供する。このために本発明は、複数個のオブジェクトが各々表示される領域で構成されたレイアウトが表示される状態で、上記携帯端末に対する動作関連入力が受信されると、上記レイアウトを構成する領域のうち上記動作関連入力に対応する領域を変更するステップと、上記変更された領域で構成されたレイアウトを表示するステップと、からなる。このような動作関連入力には、携帯端末自体の動き、ユーザの息、ジェスチャなどが該当することができる。また、本発明は、レイアウトを構成する領域のうちいずれか一つがタッチされた状態で動作関連入力が検出される場合には、タッチされた領域を除外した残りの領域のみが再配列される。この時、残りの領域に表示されるオブジェクトは、タッチされた領域に表示されるオブジェクトの属性に対応して検索されたオブジェクトであり得る。これによって、ユーザはレイアウトの領域だけでなく、その領域の構成要素を容易に変更できる効果がある。
図1は、本発明の一実施形態による携帯端末を示す概略的なブロック図である。
図1を参照すると、携帯端末100は、通信モジュール120、コネクタ165、及びイヤホン接続ジャック167のうち少なくとも一つを利用して外部電子装置(図示せず)と接続される。このような電子装置は、携帯端末100に脱着され有線で接続可能なイヤホン(Ear phone)、外部スピーカ(External speaker)、USB(Universal Serial Bus)メモリ、充電器、クレードル/ドッグ(Cradle/Dock)、DMBアンテナ、モバイル決済関連装置、健康管理装置(血糖計など)、ゲーム機、自動車ナビゲーション装置など多様な装置のうち一つを含み得る。また、電子装置は、無線で接続可能なブルートゥース(登録商標)通信装置、NFC(Near Field Communication)装置、ワイファイダイレクト(WiFi Direct)通信装置、無線アクセスポイント(Access Point;AP)を含み得る。
携帯端末100は、有線又は無線を利用して他の携帯端末又は電子装置、例えば、携帯電話、スマートフォン、タブレットPC、デスクトップPC及びサーバのうち一つと接続され得る。
図1を参照すると、携帯端末100は、一つのタッチスクリーン190及び少なくとも一つのタッチスクリーンコントローラ195を含む。また、携帯端末100は、制御部110、通信モジュール120、マルチメディアモジュール140、カメラモジュール150、入/出力モジュール160、センサモジュール170、保存部175及び電源供給部180を含む。
通信モジュール120は、移動通信モジュール121、サブ通信モジュール130及び放送通信モジュール141を含む。
サブ通信モジュール130は、無線ランモジュール131及び近距離通信モジュール132のうち少なくとも一つを含み、マルチメディアモジュール140は、オーディオ再生モジュール142及び動画再生モジュール143のうち少なくとも一つを含む。カメラモジュール150は、第1のカメラ151及び第2のカメラ152のうち少なくとも一つを含む。また、本発明の携帯端末100のカメラモジュール150は、携帯端末100の主用途によって第1及び/又は第2のカメラ151、152のズームイン/ズームアウトのための鏡筒部(body tube)155、鏡筒部155のズームイン/ズームアウトのために鏡筒部155の動きを制御するモーター部154、撮影のために光源を提供するフラッシュ153のうち少なくとも一つを含む。そして、入/出力モジュール160は、ボタン161、マイク162、スピーカ163、振動素子164、コネクタ165及びキーパッド166のうち少なくとも一つを含む。
制御部110は、CPU111、携帯端末100の制御のための制御プログラムが保存されたROM112及び携帯端末100の外部から入力される信号又はデータを記憶するか、携帯端末100で実行されるタスクのための記憶領域として使用されるRAM113を含むことができる。CPU111は、シングルコア、デュアルコア、トリプルコア又はクアッドコアを含むことができる。CPU111、ROM112及びRAM113は、内部バス(bus)を介して相互接続することができる。
制御部110は、通信モジュール120、マルチメディアモジュール140、カメラモジュール150、入/出力モジュール160、センサモジュール170、保存部175、電源供給部180、タッチスクリーン190及びタッチスクリーンコントローラ195を制御することができる。
制御部110は、タッチスクリーン190上に複数のオブジェクト又はアイテムが表示された状態で、入力ユニット168、ユーザの指などのタッチ可能なユーザ入力手段がいずれか一つのオブジェクトをタッチするか、それに接近するか、それに近接するように位置することによるユーザ入力を感知し、ユーザ入力が発生したタッチスクリーン190上の位置に対応するオブジェクトを識別する。タッチスクリーン190を介したユーザ入力は、オブジェクトを直接タッチする直接タッチ入力と、予め設定された認識距離以内にオブジェクトに接近するが、オブジェクトを直接タッチしない間接タッチ入力であるホバリング入力のうち一つを含む。例えば、入力ユニット168をタッチスクリーン190に近く位置させると、入力ユニット168の直下方に位置するオブジェクトが選択され得る。
本発明におけるユーザ入力は、タッチスクリーン190を介したユーザ入力他に、カメラモジュール150を通したジェスチャ入力、ボタン161又はキーパッド166を通したスイッチ/ボタン入力、マイク162を通した音声入力などを含む。
オブジェクト又はアイテム(又は機能アイテム)は、携帯端末100のタッチスクリーン190上に表示されるか、表示され得るものとして、例えば、アプリケーション、メニュー、文書、ウィジェット、写真、動画、Eメール、SMSメッセージ及びMMSメッセージのうち少なくとも一つを示し、ユーザ入力手段により選択、実行、削除、取消、保存及び変更され得る。このようなアイテムは、ボタン、アイコン(又は短縮アイコン)、サムネイル映像又は携帯端末で少なくとも一つのオブジェクトを保存しているフォルダーを包括する意味としても使用され得る。また、このようなアイテムは、映像(image)、テキストなどの形態で表示され得る。
短縮アイコンは、それぞれのアプリケーション又は携帯端末100で基本的に提供される通話、連絡先、メニューなどの速い実行のために、携帯端末100のタッチスクリーン190上に表示されるイメージとして、これを実行するための命令又は選択が入力されると、該当アプリケーションを実行する。
制御部110は、入力ユニット168がタッチスクリーン190に接近するか、それに近接するように位置することによるホバリングイベントのようなユーザ入力イベントを感知することができる。
制御部110は、予め設定されたアイテムに対して、又は予め設定された方式によってユーザ入力イベントが発生されると、ユーザ入力イベントに対応する予め設定されたプログラム動作を遂行する。
制御部110は、制御信号を入力ユニット168又は振動素子164に出力することができる。このような制御信号は、振動パターンに対する情報を含むことができ、入力ユニット168又は振動素子164は、このような振動パターンに従う振動を生成する。このような振動パターンに対する情報は、振動パターン自体、振動パターンの識別子などを示すことができる。又はこのような制御信号は、単純に振動生成の要請のみを含むこともできる。
携帯端末100は、性能によって移動通信モジュール121、無線ランモジュール131、及び近距離通信モジュール132のうち少なくとも一つを含むことができる。
移動通信モジュール121は、制御部110の制御によって少なくとも一つ(一つ又は複数)のアンテナ(図示せず)を利用して移動通信を通じて携帯端末100が外部電子装置と接続されるようにすることができる。移動通信モジュール121は、携帯端末100に入力される電話番号を有する携帯電話(図示せず)、スマートフォン(図示せず)、タブレットPC又は他の電子装置(図示せず)と音声通話、画像通話、文字メッセージ(SMS)又はマルチメディアメッセージ(MMS)のための無線信号を送受信する。
サブ通信モジュール130は、無線ランモジュール131と近距離通信モジュール132のうち少なくとも一つを含むことができる。例えば、無線ランモジュール131だけを含むか、近距離通信モジュール132だけを含むか、又は無線ランモジュール131と近距離通信モジュール132の両方ともを含むことができる。
無線ランモジュール131は、制御部110の制御によって無線アクセスポイント(AP)(図示せず)が設置された場所でインターネットに接続することができる。無線ランモジュール131は、米国電気電子学会(IEEE)の無線ラン規格(IEEE802.11x)をサポートする。近距離通信モジュール132は、制御部110の制御によって携帯端末100と外部電子装置との間に無線で近距離通信が可能である。近距離通信方式は、ブルートゥース(登録商標)、赤外線通信(IrDA、infrared data association)、ワイファイダイレクト(WiFi−Direct)通信、NFCなどを含む。
このようなサブ通信モジュール130を通じて、制御部110は、ハブテックスパターンに従う制御信号を入力ユニット168に伝送することができる。
放送通信モジュール141は、制御部110の制御によって放送通信アンテナ(図示せず)を通じて放送局から送出される放送信号(例、TV放送信号、ラジオ放送信号又はデータ放送信号)及び放送付加情報(例、EPS(Electric Program Guide)又はESG(Electric Service Guide))を受信することができる。
マルチメディアモジュール140は、オーディオ再生モジュール142又は動画再生モジュール143を含むことができる。オーディオ再生モジュール142は、制御部110の制御によって保存部175に保存されるか又は受信されるデジタルオーディオファイル(例、ファイル拡張子がmp3、wma、ogg又はwavであるファイル)を再生することができる。動画再生モジュール143は、制御部110の制御によって保存されるか又は受信されるデジタル動画ファイル(例、ファイル拡張子がmpeg、mpg、mp4、avi、mov、又はmkvであるファイル)を再生することができる。
マルチメディアモジュール140は、制御部110に統合されることができる。
カメラモジュール150は、制御部110の制御によって静止画又は動画を撮影する第1のカメラ151及び第2のカメラ152のうち少なくとも一つを含むことができる。また、カメラモジュール150は、被写体を撮影するためにズームイン/ズームアウトを遂行する鏡筒部155、鏡筒部155の動きを制御するモーター部154、被写体を撮影するために必要な補助光源を提供するフラッシュ153のうち少なくとも一つを含むことができる。第1のカメラ151は、携帯端末100の前面に配置され、第2のカメラ152は、携帯端末100の後面に配置される。
第1及び第2のカメラ151、152は、各々レンズシステム、イメージセンサなどを含むことができる。第1及び第2のカメラ151、152は、各々レンズシステムを通じて入力される(又は撮影される)光信号を電気的なイメージ信号に変換して制御部110に出力し、ユーザは、このような第1及び第2のカメラ151、152を通じて動画又は静止画を撮影することができる。
入/出力モジュール160は、少なくとも一つのボタン161、少なくとも一つのマイク162、少なくとも一つのスピーカ163、少なくとも一つの振動素子164、コネクタ165、キーパッド166、イヤホン接続ジャック167及び入力ユニット168のうち少なくとも一つを含むことができる。そして、このような入/出力モジュール160は、これに限定されず、マウス、トラックボール、ジョイスチック又はカーソル方向キーなどのようなカーソルコントロール(cursor control)がタッチスクリーン190上のカーソルの動きを制御するために提供されることができる。
ボタン161は、携帯端末100のハウジング(又はケース)の前面、側面又は後面に形成されることができ、電源/ロックボタン、ボリュームボタン、メニューボタン、ホームボタン、戻るボタン(back button)及び検索ボタンのうち少なくとも一つを含むことができる。
マイク162は、制御部110の制御によって音声(voice)又はサウンド(sound)を受信して電気的な信号を生成する。
スピーカ163は、制御部110の制御によって多様な信号又はデータ(例えば、無線データ、放送データ、デジタルオーディオデータ、デジタル動画データなど)に対応するサウンドを携帯端末100の外部に出力することができる。スピーカ163は、携帯端末100が遂行する機能に対応するサウンド(例えば、電話通話に対応するボタン操作音、通話連結音、相手方ユーザの音声など)を出力することができる。スピーカ163は、携帯端末100のハウジングの適切な位置又は複数の位置に一つ又は複数で形成されることができる。
振動素子164は、制御部110の制御によって電気的信号を機械的振動に変換することができる。例えば、振動モードにある携帯端末100は、他の装置(図示せず)から音声又は画像通話が受信される場合、振動素子164が動作する。振動素子164は、携帯端末100のハウジング内に一つ又は複数で形成されることができる。振動素子164は、タッチスクリーン190を介したユーザ入力に対応して動作する。
コネクタ165は、携帯端末100と外部電子装置、又は電源ソース(図示せず)を接続するためのインターフェースとして利用されることができる。制御部110は、コネクタ165に接続した有線ケーブルを介して携帯端末100の保存部175に保存されたデータを外部電子装置に伝送するか、外部電子装置からデータを受信することができる。携帯端末100は、コネクタ165に接続した有線ケーブルを介して電源ソースから電力を受信するか、電源ソースを用いてバッテリー(図示せず)を充電することができる。
キーパッド166は、携帯端末100の制御のためにユーザからキー入力を受信することができる。キーパッド166は、携帯端末100に形成される物理的なキーパッド(図示せず)、又はタッチスクリーン190に表示される仮想のキーパッド(図示せず)を含む。携帯端末100に形成される物理的なキーパッドは、携帯端末100の性能又は構造によって除外されることができる。
イヤホン接続ジャック(Earphone Connecting Jack)167にはイヤホン(図示せず)が挿入されて携帯端末100に接続することができる。
入力ユニット168は、携帯端末100内部に挿入されて保管され得、使用時には、携帯端末100から引出し又は分離され得る。このような入力ユニット168が挿入される携帯端末100内部の一領域には、入力ユニット168の装着及び脱着に対応して動作する脱/付着認識スイッチ169が備わっており、脱/付着認識スイッチ169は、入力ユニット168の装着及び分離に対応する信号を制御部110に出力する。脱/付着認識スイッチ169は、入力ユニット168の装着時、直・間接的に接触されるように構成される。これによって、脱/付着認識スイッチ169は、入力ユニット168との接触可否に基づいて、入力ユニット168の装着又は分離に対応する信号(すなわち、入力ユニット168の装着又は分離を通知する信号)を生成して制御部110に出力する。
センサモジュール170は、携帯端末100の状態を検出する少なくとも一つのセンサを含む。例えば、センサモジュール170は、ユーザの携帯端末100に対する接近可否を検出する近接センサ、携帯端末100周辺の光量を検出する照度センサ(図示せず)、又は携帯端末100の動作(例えば、携帯端末100の回転、携帯端末100の加速又は振動など)を検出するモーションセンサ(図示せず)、地球磁場を利用して携帯端末100の方位(point of the compass)を検出する地磁気センサ(Geo-magnetic Sensor)、重力の作用方向を検出する重力センサ(Gravity Sensor)、大気の圧力を測定して高度を検出する高度計(Altimeter)、GPSモジュール157のうち、少なくとも一つのセンサを含むことができる。また、ユーザのジェスチャを感知するためにカメラセンサもセンサモジュール170に含まれることができる。
その中でも、モーションセンサは、加速度センサ、ジャイロセンサ、チルトセンサ(tilt sensor)又はこれらの組合せを利用して携帯端末100の位置や動きなどを感知する。もちろん、本発明がこれに限定されるものではなく、携帯端末100の往復モーション、動き方向などを感知できる他の類型のセンサでも具現され得ることはもちろんである。
このようなモーションセンサを通じて出力されるセンシングデータすなわち、モーション情報は、方向及びサイズを有することができる。例えば、携帯端末100の加速度を感知する加速度センサの場合、少なくとも一つから多くは3個の方向(x、y、z軸)を基準として各基準軸方向に対する加速度を感知してその情報を出力することができる。上記の基準軸は、携帯端末100に対する方向に従う軸(例えば、携帯端末100の上下(z軸)、左右(x軸)、前後方向(y軸))であるか、重力方向に対する方向に従う軸(重力方向(z軸)及びそれに垂直である方向(x、y軸))であり得る。
このようなセンサモジュール170は、感知される角速度、速度などを時間によって積分して携帯端末100の動きに従う回転角、方向、速度、移動距離、位置、軌跡などを演算する演算部(図示せず)をさらに含み、計算された情報を出力することができる。演算部は、制御部110に含まれることもできる。また演算部は、軌跡などを計算するか、モーション方向を効果的に分析するために、感知された加速度などの特定帯域の信号を阻止又は通過させる周波数フィルター(filter)を含むことができる。
このようなセンサモジュール170は、演算部を含む場合、携帯端末100が動く方向又は角度を計算してこれを制御部110に伝達できるが、動き方向又は角度の計算は制御部110で実行される。携帯端末100が動く方向は、基本的に上下又は左右であり得る。また、携帯端末100を使用するユーザを中心として携帯端末100がユーザ方向に水平に引っ張られる前方向と水平に押される後方向に動くこともできる。また、携帯端末100が基準軸を中心としていずれか一方向に傾けることによる傾き方向もモーション方向に含まれる。携帯端末100が動く角度は、現在の位置を0度と仮定し、携帯端末100が傾ける方向に角度を計算する場合、携帯端末100が動く対角線方向に対してもモーション方向に含めることができる。
センサモジュール170は、本発明の実施形態によってユーザの息によってレイアウトの構成を変更するための制御命令としてユーザの息を利用できるように息検出センサを含む。このような息検出センサは、携帯端末100の外観に付着され、その位置での吸入口を通じて引入されるユーザの息又は風を検出する。このような息検出センサは、ユーザの息による電気的信号を出力する風速センサであり得、この風速センサは、ユーザの息強さによって一定に上昇する出力値を制御部110に伝達する。他には、息検出センサは、ユーザの息を感知できる温度センサ又は湿度センサ場合でもあり、このようなセンサの場合にも、その息によって多様なレベルの出力値を制御部110に伝達することができる。
GPSモジュール157は、地球軌道上にある複数のGPS衛星(図示せず)から電波を受信し、GPS衛星から携帯端末100までの電波到達時間(Time of Arrival)を用いて携帯端末100の位置を算出することができる。
保存部175は、制御部110の制御によって通信モジュール120、マルチメディアモジュール140、カメラモジュール150、入/出力モジュール160、センサモジュール170又はタッチスクリーン190の動作によって入/出力される信号又はデータを保存することができる。保存部175は、携帯端末100又は制御部110の制御のための制御プログラム及びアプリケーションを保存することができる。
“保存部”という用語は、保存部175、制御部110内のROM112、RAM113又は携帯端末100に装着されるメモリカード(例えば、SDカード、メモリスティック)などの任意のデータ保存装置を示す用語として使われる。保存部175は、不揮発性メモリ、揮発性メモリ、ハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD)を含むこともできる。
また、保存部175は、ナビゲーション、画像通話、ゲーム、ユーザに時間を基盤とするアラームアプリケーションなどのような多様な機能のアプリケーションそれと関連したグラフィカルユーザインターフェース(graphical user interface:GUI)を提供するためのイメージ、ユーザ情報、文書、タッチ入力を処理する方法と関連したデータベース又はデータ、携帯端末100を駆動するのに必要な背景イメージ(メニュー画面、待機画面など)又はオペレーティングプログラム、カメラモジュール150により撮影された映像などを保存することができる。
また、保存部175は、合成映像提供方法と関連したデータを保存することができる。
保存部175は、機械(例えば、コンピュータ)可読媒体であり、機械可読媒体という用語は、機械が特定機能を遂行できるように上記機械にデータを提供する媒体として定義されることができる。機械可読媒体は保存媒体であり得る。保存部175は、不揮発性媒体(non-volatile media)及び揮発性媒体を含むことができる。このような全ての媒体は、上記媒体により伝えられる命令が、上記命令を上記機械で読み込む物理的機構により検出されることができるタイプでなければならない。
上記機械可読媒体は、これに限定されないが、フロッピー(登録商標)ディスク(floppy disk)、フレキシブルディスク(flexible disk)、ハードディスク、磁気テープ、CD−ROM(compact disc read-only memory)、光学ディスク、パンチカード(punch card)、ペーパーテープ(paper tape)、RAM、PROM(Programmable Read-Only Memory)、EPROM(Erasable PROM)及びフラッシュEPROM(Flash-EPROM)のうち少なくとも一つを含む。
電源供給部180は、制御部110の制御によって携帯端末100のハウジングに配置される一つ又は複数のバッテリーに電力を供給することができる。一つ又は複数のバッテリーは、携帯端末100に電力を供給する。また、電源供給部180は、コネクタ165と接続した有線ケーブルを介して外部の電源ソースから入力される電源を携帯端末100に供給することができる。また、電源供給部180は、無線充電技数を通じて外部の電源ソースから無線で入力される電源を携帯端末100に供給することができる。
そして、携帯端末100は、ユーザに多様なサービス(例えば、通話、データ伝送、放送、写真撮影)に対応するユーザグラフィックインターフェースを提供する少なくとも一つのタッチスクリーン190を含むことができる。
タッチスクリーン190は、ユーザグラフィックインターフェースに入力される少なくとも一つのユーザ入力に対応するアナログ信号をタッチスクリーンコントローラ195に出力することができる。
タッチスクリーン190は、ユーザの身体(例えば、親指を含む指)又は入力ユニット168(例えば、スタイラスペン、電子ペン)を通じて少なくとも一つのユーザ入力を受信することができる。
タッチスクリーン190は、一つのタッチの連続的な動き(すなわち、ドラッグ入力)を受信することもできる。タッチスクリーン190は、入力されるタッチの連続的な動きに対応するアナログ信号をタッチスクリーンコントローラ195に出力することができる。
本発明でのタッチは、タッチスクリーン190と指又は入力ユニット168との接触に限定されるものでなく、非接触(例えば、タッチスクリーン190と直接接触することなく、ユーザ入力手段を検出できる認識距離(例えば、1cm)以内にユーザ入力手段が位置する場合)を含むことができる。タッチスクリーン190におけるユーザ入力手段を認識できる距離又は間隔は、携帯端末100の性能又は構造によって変更されることができ、特にタッチスクリーン190は、ユーザ入力手段との接触による直接タッチイベントと、間接タッチイベント(すなわち、ホバリングイベント)を区分して検出可能であるように、上記直接タッチイベントとホバリングイベントにより検出される値(例えば、アナログ値で電圧値又は電流値を含む)が異なるように出力されるように構成され得る。
このようなタッチスクリーン190は、例えば、抵抗膜(resistive)方式、 静電容量方式(capacitive)方式、赤外線(infrared)方式、超音波(acoustic wave)方式、又はこれらの組み合わせで実現される。
また、タッチスクリーン190は、指及び入力ユニット168による入力を各々受信することができるように、指及び入力ユニット168のタッチや接近を各々感知できる少なくとも二つのタッチパネルを含むことができる。少なくとも二つのタッチパネルは、相異なる出力値をタッチスクリーンコントローラ195に提供し、タッチスクリーンコントローラ195は、上記少なくとも二つのタッチスクリーンパネルで入力される値を相異なるように認識し、タッチスクリーン190からの入力が指による入力であるか、入力ユニット168による入力であるかを区分することができる。
タッチスクリーンコントローラ195は、タッチスクリーン190から受信されたアナログ信号をデジタル信号に変換して制御部110に伝送する。制御部110は、タッチスクリーンコントローラ195から受信されたデジタル信号を用いてタッチスクリーン190を制御することができる。例えば、制御部110は、直接タッチイベント又はホバリングイベントに応答してタッチスクリーン190に表示された短縮アイコン(図示せず)又はオブジェクトが選択又は実行されるようにすることができる。また、タッチスクリーンコントローラ195は、制御部110に含まれることもできる。
タッチスクリーンコントローラ195は、タッチスクリーン190から出力される値(例えば、電流値など)を検出して、ユーザ入力位置だけでなく、ホバリング間隔又は距離を確認することができ、確認された距離値をデジタル信号(例えば、Z座標)に変換して制御部110に提供することもできる。また、タッチスクリーンコントローラ195は、タッチスクリーン190を通じて出力される値(例えば、電流値など)を検出してユーザ入力手段がタッチスクリーン190を押さえる圧力を検出することができ、確認された圧力値をデジタル信号に変換して制御部110に提供することもできる。
図2は、本発明の実施形態による携帯端末の前面斜視図を示した図であり、図3は、本発明の実施形態による携帯端末の後面斜視図を示した図である。
図1乃至図3を参照すると、携帯端末100の前面101の中央にはタッチスクリーン190が配置される。タッチスクリーン190は、携帯端末100の前面101の大部分を占めるように大きく形成される。図2では、タッチスクリーン190にメインホーム画面が表示された例を示す。メインホーム画面は、携帯端末100の電源をつけた時にタッチスクリーン190上に表示される最初の画面である。また、携帯端末100が複数のページの相異なるホーム画面を有している場合、メインホーム画面は、上記複数のページのホーム画面のうち、最初のホーム画面であり得る。ホーム画面には頻繁に使われるアプリケーションを実行するための短縮アイコン191−1、191−2、191−3、メインメニュー転換キー191−4、時間、天気などが表示されることができる。ユーザがメインメニュー転換キー191−4を選択すると、タッチスクリーン190にメニュー画面が表示される。また、タッチスクリーン190の上段には、バッテリー充電状態、受信信号の強さ、現在時刻のような携帯端末100の状態を表示する状態バー(Status Bar)192が形成されることもできる。
タッチスクリーン190の下部には、ホームボタン161a、メニューボタン161b、及び戻るボタン161cが形成されることができる。
ホームボタン161aは、タッチスクリーン190にメインホーム画面(main Home screen)を表示する。例えば、タッチスクリーン190に上記メインホーム画面と他のホーム画面(any Home screen)又はメニュー画面が表示された状態で、ホームボタン161aが選択されると、タッチスクリーン190にメインホーム画面が表示されることができる。また、タッチスクリーン190上でアプリケーションが実行されている間に、ホームボタン161aが選択されると、タッチスクリーン190上には、図2に示されたメインホーム画面がディスプレイされることができる。またホームボタン161aは、タッチスクリーン190上に最近(recently)使われたアプリケーションを表示するようにするか、タスクマネジャー(Task Manager)を表示するために使われることもできる。
メニューボタン161bは、タッチスクリーン190上に表示されることができる接続メニューを提供する。上記接続メニューには、ウィジェット追加メニュー、背景画面変更メニュー、検索メニュー、編集メニュー、環境設定メニューなどが含まれることができる。
戻るボタン161cは、現在実行されている画面の直前に実行された画面を表示するか、最も最近使われたアプリケーションを終了させることができる。
携帯端末100の前面101の縁には、第1のカメラ151と照度センサ170a及び近接センサ170bが配置されることができる。携帯端末100の後面103には、第2のカメラ152、フラッシュ(flash)153、スピーカ163が配置されることができる。
携帯端末100の側面102には、例えば電源/ロックボタン161d、ボリューム増加ボタン161f及びボリューム減少ボタン161gを有するボリュームボタン161e、放送受信のための地上波DMBアンテナ141a、一つ又は複数のマイク162などが配置されることができる。DMBアンテナ141aは、携帯端末100に固定されるか、着脱可能に形成されることもできる。
また、携帯端末100の下段側面にはコネクタ165が形成される。コネクタ165には、複数の電極が形成されており、外部装置と有線で接続することができる。携帯端末100の上段側面には、イヤホン接続ジャック167が形成されることができる。イヤホン接続ジャック167には、イヤホンが挿入されることができる。
また、携帯端末100の下段側面には入力ユニット168が装着され得る。入力ユニット168は、携帯端末100内部に挿入されて保管できて、使用時には、携帯端末100から引出し及び分離されることができる。
上記のような構成を有する携帯端末100で、複数のビジュアルオブジェクトを多様な方式で表示しようとするユーザ欲求が増大することによって、例えば、フォトアルバムアプリケーションの場合、レイアウトの一定個数の領域ごとに写真が配置される画面で、ユーザはタッチスクリーン190上をフリッキング(flicking)又はドラッグ(drag)するジェスチャにより、その画面のページを捲りながら数多くの写真を見ることができる。しかしながら、ユーザがその写真の配置及びその写真が表示される領域を変更するためには、ユーザが直接編集画面上でレイアウトを編集しなければならないために多くの時間が必要となる問題がある。その上、ユーザは、相互関連している写真は、特定フォルダーに集めることによって、ユーザの望む写真又は相互関連した写真を容易で、かつ迅速に検索しようとする。
従いまして、本発明の実施形態によれば、以下で説明されるように、タッチスクリーン190上でビジュアルオブジェクトが表示される領域で構成されるレイアウトを入力(例えば、携帯端末のモーション)によって容易で迅速に変更し、ユーザによりいずれか一つのオブジェクトが選択されると、そのオブジェクトの属性を考慮して関連オブジェクトが表示されるレイアウトを提供できる方法及び装置を提供する。
図4は、本発明の一実施形態による携帯端末におけるレイアウトを構成する領域を変更する方法を説明するための概略的な順序図である。以下の説明で、図5乃至図8を例示して説明するが、本発明によるレイアウトを構成する領域を変更する方法がこれに限定されるものではない。また、本発明の実施形態では、例えば、ストーリーアルバムアプリケーションが実行される場合に、一定個数の領域に区分されるレイアウトを表示した後、そのレイアウトの構成要素を変更する方法を例に挙げて説明したが、本発明の入力(例えば、携帯端末のモーション)に従うレイアウトの構成要素を変更する方法は、多様な表示画面に適用可能であることはもちろんである。
図4を参照すると、制御部110は、ステップ400で、タッチスクリーン190上にオブジェクトが表示される領域を含むレイアウトを表示する。本発明でレイアウトを構成する領域は、例えば、グリッド(grid)、フレーム、区域などの形態で提供され得る。
図5A乃至図8Bは、本発明の一実施形態による携帯端末の往復モーション方向によってレイアウトを構成する領域が変更される過程を示す例示図である。
図5A乃至図8Bによれば、図5Aは、オブジェクトがA、B、C、D領域で構成されるレイアウトを有するタッチスクリーン190上に表示される場合を例示している。ここで、各領域に表示可能なオブジェクトは、写真、イラストレーション、文字(レタリング、活字)、記号などの構成要素を意味し、それ以外にも多様なコンテンツ、例えば、テキスト、アプリケーションを実行するための短縮アイコン、ウィジェット、多様なファイル形式の文書を表すアイコン、及びフォルダーなどのような多様なビジュアルオブジェクト(visual objects)を含むか、それから選択された一部ビジュアルオブジェクトを含むことができる。
図5Aでのような表示画面が表示されると、ユーザは、携帯端末100を手に握ったままで振る場合、レイアウトの領域構造を変更することができる。このために、制御部110は、ステップ405でセンサモジュール170を通じて携帯端末100のモーション(例えば、往復モーション)が検出されるかを判定する。本発明の実施形態によれば、モーションは、例えば、所定パターンのモーション(例えば、正確な又はほぼ正確なパターン)又は周期的な、反復的な又は反復されるモーション(例えば、2回以上反復された所定パターンのモーション)を含み得る。上記モーションは、所定方向に大部分又は相当部分発生されたモーション(例えば、上下、左右、対角線又は所定の他の座標によって)を含み得る。例えば、モーションは所定方向に大部分又は相当なシェイクタイプモーションを含み得る。携帯端末100の往復モーションが検出される場合、ステップ410で、上記検出された往復モーションの方向を検出する。本発明の実施形態によれば、モーションの方向は、最終構成要素(例えば、移動、速度及び加速度)が発生した方向を含み得る。制御部110は、センサモジュール170を通じて収集されるセンサ信号に基づいて携帯端末100の往復モーション方向が上下、左右、対角線のうちいずれの方向に該当するかを判定する。次に、ステップ415で、制御部110は、検出された往復モーションの方向によってレイアウトを構成する領域を変更し、ステップ420で変更された領域で再構成されたレイアウトを表示する。
図5Bでは、左右方向に携帯端末100を振る場合、左右方向に対応する領域の間の配列が変更される場合を例示している。具体的に、図5Bによれば、図5Aでのような画面が表示される状態で、ユーザが携帯端末100を手に握ったままで左右方向に一定回数、例えば、1〜2回程度振る場合、レイアウトの領域のうち、左右に各々位置した領域の間の配列が変更される。図5AではA、B、C、D領域のうち、左右方向500への往復モーションによって変更可能な領域は、B、C領域が該当し、左右方向500への往復モーションが実行された以後には、図5Bに示されたようにB、C領域の配置が相互置換されるようになる。すなわち、図5AのB領域に表示されていたオブジェクトは図5BのB領域へ移動され表示され、図5AのC領域に表示されていたオブジェクトは図5BのC領域へ移動され表示される。
図6A及び図6Bでは、上下方向に携帯端末100を振る場合、上下方向に対応する領域の間の配列が変更される場合を例示している。図6A及び図6Bによれば、図6AでのようにA、B、C、D領域で構成されたレイアウト画面が表示される状態で、上下方向600への往復モーションが実行されると、図6Bに示されたように上下方向に領域の間に配列が変更される。上下方向600への往復モーションが実行されると、図6AのB、C領域が図6Bの上段領域へ移動し、図6Aの下段領域に該当するD領域も図6Bの中央領域、すなわち、D領域へ移動するようになって、図6AのA領域は図6Bの下段領域、すなわち、A領域へ移動するようになる。この時、領域の配列規則は、図10及び図11で詳細に説明する。
図7A及び図7Bでは、対角線方向に携帯端末100を振る場合、対角線方向に対応する領域の間の配列が変更される場合を例示している。図7A及び図7Bによれば、図7Aでのような画面が表示される状態で、対角線方向700への往復モーションが実行された以後には、図7AのA領域は図7BのA領域へ移動され、図7AのD領域は図7BのD領域へ移動される。
一方、図8A及び図8Bでは、携帯端末100を振る場合、タッチされた領域を除外した残りの領域の間の配列が変更される場合を例示している。図8AではA領域に対してユーザがタッチを維持した状態で、対角線方向805に携帯端末100を振る場合を例示している。すると、図8Aでタッチが維持されたA領域を除外した残りのB、C、D領域は、その配列が図8Bに示されたように変更されるようになる。
この時、ユーザが所望領域(800)にタッチを維持した状態で、携帯端末100を振ることによって、そのタッチされた領域のみが固定されるようになるが、二以上の領域に対するタッチが維持された場合にも対応する領域が維持され得る。例えば、ユーザが両手で携帯端末100を握る場合には、携帯端末100を特定方向に振るのに不都合であるので、このような場合には、ユーザが携帯端末100をユーザ方向に水平に引っ張るか水平に押すモーション、傾きモーションなどを利用してレアアウトの構成を変更するように具現されることもできる。
一方、上述した本発明の一実施形態による図5乃至図7では、左右、上下、対角線方向に携帯端末100を振る往復モーションによってレイアウトの構成が変更される場合を例に挙げて説明したが、水平に引っ張るか水平に押すモーション、傾きモーション、回転モーションなど、多様なモーションを利用してレアアウトの構成を変更するように具現されることができる。また図5乃至8では、本発明によるモーションを使用してレイアウトの構成を変更する方法を説明したが、レイアウトの構成を変更する方法がこれに限定されるものではない。例えば、息を使用してレイアウトの構成を変更することができる。
図9A乃至図9Dは、本発明の他の実施形態による息によってレイアウトを構成する領域が変更される過程を示す例示図である。
図9A乃至図9Dによれば、図9Aでのように、A、B、C、D領域で構成されたレイアウトが表示される画面で、ユーザが息を画面方向900に向けて吹くと、図9Bでのようにまるで紙が飛ばされるようにその息に反応してA、B、C、D領域が飛ばされる画面が出力される。次に、その息に反応して図9Cでは、A、B、C、D領域の配列が変更される画面を例示し、図9Dでは配列が変更されたA、B、C、D領域で構成されたレイアウトが表示される画面を例示している。上記したように図9A乃至図9Dでは、ユーザが息を吹きかける行為の中、単純で直接的な“紙をふく”という点を考慮した応用例を示しており、ユーザが息を吹いた時、その息に反応して紙が飛ばされるように各領域が飛ばされるインターアクティブ映像が表示される場合を例示している。このようにすることによって、ユーザはまるで実際に紙を口に吹きかけて飛ばされるように画面の領域を制御するような経験ができるようになる。また、本発明の実施形態では、ユーザが息を力強く吹きかけるか又は弱く吹きかけるかによって、画面出力内容が決定されるように具現されることもできる。
また、本発明の他の実施形態によれば、ユーザがページを渡すような手ジェスチャなど、予め設定されたジェスチャ検出によってもレイアウトを構成する領域が変更されることができる。このようなジェスチャの検出は、カメラセンサ、照度センサなどにより実行できる。上記したように図5乃至図9の実施形態では、モーション又は息を利用してレイアウトを再構成する場合を例に挙げて説明したが、カメラセンサ、照度センサなど多様な動作関連入力を受信することによってレイアウトの再構成が可能である。
上記の本発明によれば、ユーザが携帯端末100を振るか画面に息を吹きさえすると、その携帯端末100のモーション又は息によって画面に表示されていた映像が変わるようになって、これによって、ボタンを操作しなくても容易で迅速にオブジェクトを整列できるだけでなく、躍動感ある映像の変化を感じることができる効果を有する。
一方、本発明では、レイアウトの構成要素を再配列するときに、次のような配列規則を使用する。
図10A乃至図10Dは、本発明の一実施形態による領域サイズによってその領域に表示されるオブジェクトが変更される方式を例示している。図10A乃至図10Dによれば、領域サイズにともなう配列規則は、大きな領域に表示されていたオブジェクトは小さな領域へ移動され、小さな領域に表示されていたオブジェクトは大きな領域へ移動され表示される方式である。図10Aでのように、A領域のサイズが最も大きく、B、C領域はA領域に比べてサイズが小さい場合を例示している。図10Aの画面が表示される状態で、携帯端末100のモーション、例えば、上下方向への往復モーションが検出されると、図10Aの大きなサイズのA領域に表示されていたオブジェクトは、図10Bの小さなサイズのA領域へ移動(1000)され、これと反対に、図10Aの小さなサイズのC領域に表示されていたオブジェクトは図10Bの小さなサイズのC領域へ移動(1005)され表示される。このような配列規則によって、図10Aの画面が表示される状態で、携帯端末100のモーションが検出されるごとに、図10Bから図10Dでのような順序でレイアウトの構成が変更される。
図11A乃至図11Dは、本発明の実施形態によるオブジェクト属性によってその領域に表示されるオブジェクトが変更される方式を例示している。図11A乃至図11Dによれば、横で撮影した写真と縦で撮影した写真の場合、各々横形態の領域及び縦形態の領域に配置されることが望ましい。図11Aでは、横形態のA領域、縦形態のB、C領域を例示しているが、A領域には横オブジェクト1100が割り当てられて表示され、B、C領域には各々縦オブジェクト1102、1105が割り当てられて表示されることが望ましい。本発明の実施形態によれば、横形態であるか縦形態であるかなどに対するオブジェクトの属性は、そのオブジェクトの固有な属性として、予め分り得る事項である。これによって、制御部110は、そのオブジェクト属性を考慮して、そのオブジェクト属性に対応する領域に該当オブジェクトを配置する。また、制御部110は、スマートアルバムアプリケーションを実行するとき、表示しなければならないオブジェクトの数を判定し、ページごとに多様な形態の領域を有する複数個のレイアウトのうち、そのオブジェクトの数及びそのオブジェクトの属性に対応するレイアウトを選択して提供することができる。
図11Aの画面が表示される状態で、モーションが検出されると、図11Bでのように領域の配置が変更されたレイアウトが表示されることができる。この時、図11AのC領域に表示されていたオブジェクトが縦オブジェクトの場合には、図11BのC領域へ移動されても、その縦オブジェクトを表示することが可能である。すなわち、図11Bで縦オブジェクト1105の一部分1110だけが切られて見えないだけで、その縦オブジェクト1105はC領域に表示され得る。
次に、再度モーションが検出されると、図11Bにおけるレイアウトは、図11Cでのような配置を有するレイアウトに変更され表示されることができる。すなわち、図11BのB領域に表示されるオブジェクトは、以前の図11AのB領域に表示されていた縦オブジェクト1105に該当することであるから、図11CのB領域へ移動され表示されることが可能である。しかしながら、図11BのA領域に表示されるオブジェクトは、図11AのA領域に表示されていた横オブジェクト1100に該当することであるから、上記オブジェクトは図11DのA領域へ移動され表示されることができない。すなわち、図11DのA領域に横オブジェクト1100を配置する場合には、その横オブジェクト110の一部分115が切られてもその横オブジェクト1100が配置された部分を除いては、A領域には余白が存在するようになる。このように一定レベル以上に比率が合わない領域は、オブジェクト配置時に除外されることが望ましい。したがって、図11Dのレイアウトは、レイアウトの変更のための選択対象から除外される。このようにオブジェクトの属性を考慮したレイアウトの変更により、例えば、人物写真(portrait)、風景(landscape)などの構成要素は各構成要素の比率を最大限維持する間に、画面の領域に効果的に配置され得る。
図12は、本発明の他の実施形態による携帯端末におけるレイアウトを構成する領域を変更する方法を説明するための概略的な順序図である。以下の説明で図12を例示して説明するが、本発明によるタッチされたオブジェクトの属性によってレイアウトを構成する領域に表示されるオブジェクトを変更する方法がこれに限定されるものではない。
図1及び図12を参照すると、制御部110は、ステップ1200で携帯端末100のタッチスクリーン190上にオブジェクトが表示される領域で構成されたレイアウトを表示する。ステップ1205で制御部110は、入力手段により上記領域のうち少なくとも一つがタッチされたかを判定する。少なくとも一つの領域がタッチされた場合、 制御部110は、ステップ1210で携帯端末100の往復モーションが検出されるかを判定する。往復モーションが検出されると、制御部110は、ステップ1215で上記タッチされた領域に属したオブジェクトの属性に対応するオブジェクトを検索する。ステップ1205で、少なくとも一つの領域がタッチされないか、ステップ1210でタッチされた状態で往復モーションが検出されないと、ステップ1200に戻って上記レイアウトの表示状態を維持する。
制御部110は、ステップ1220で上記タッチされたオブジェクトが表示される領域のみを固定したまま、残りの領域に検索されたオブジェクトを配置し、ステップ1225で検索されたオブジェクトが配置された領域で再構成されたレイアウトを表示する。一方、往復モーションが検出されないと、ステップ1200に戻って上記レイアウトの表示状態を維持する。上述した内容では、関連オブジェクトを検索するステップ1215はタッチが維持された状態で往復モーションが検出された以後、すなわち、ステップ1210以後に実行される場合を例に挙げて説明したが、いずれか一つの領域上にタッチが発生すれば、その領域に属したオブジェクトと関連したオブジェクトを検索することも可能である。
図13A及び図13Bは、本発明の他の実施形態によってタッチされたオブジェクトの属性によってレイアウトのそれぞれに相異なるオブジェクトを表示する過程を示す例示図である。
図13A及び図13Bによれば、位置ベースにオブジェクトを整列する方式以外に、オブジェクトの属性によってオブジェクトを整列する多様な方法が利用され得る。このような方式は、人物を基準として整列する方式、ソーシャルネットワークベースにオブジェクトを整列する方式などを含む。
人物を基準として整列する方式の場合、例えば、人物が表示される写真の場合、その人物をタッチした状態で携帯端末100を振ると、そのタッチされた人物と関連した写真が現在ページのレイアウトを構成するように再配列され得る。この時、複数の人物写真の場合には、所定の一つの人物のみを特定でき、その特定された人物をタッチした状態で携帯端末100を振ると、その特定人物関連写真が検索され再配列された領域各々に表示されることができる。また、ソーシャルネットワークベースにオブジェクトを整列する方式の場合、例えば、フェイスブック(登録商標)フィード(facebook feed)機能を選択した場合、該当フェイスブックフィードが該当ページのレイアウトの領域に合うように再配列され得る。
図13Aでは、地図領域、A、B、C領域で構成されたレイアウトを例示している。ユーザが地図領域をタッチした後、そのタッチを維持した状態で、携帯端末100を振ると、地図領域に属するオブジェクトに関連されたオブジェクトがそのタッチされた領域に属したオブジェクトの属性を基準にして検索され、検索されたオブジェクトが図13Bでのように各領域に配置されて表示されることができる。例えば、地図領域で、‘ニューヨークタイムスクエア広場’をユーザがタッチした状態で携帯端末100を振る場合、‘ニューヨークタイムスクエア広場’と関連したオブジェクト、例えば、その場所で撮影した写真、その場所関連ニュース、その場所で推薦するアプリケーション項目などが図13Bでのように各領域に配置され得る。
図14A及び図14Bは、本発明の一実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する方法を説明するための概略的な順序図である。図15A乃至図15Iは、本発明の一実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する過程を示す例示図である。
図14A及び図14B、図15A乃至図15Iによれば、図14Bは、図14Aにつながる図面である。以下、領域の数を調節する方法の説明において、その理解を助けるために図15A乃至図15Iを例示して説明するが、その領域の数を調節する方式はこれに限定されるものではない。
制御部110は、ステップ1400で携帯端末100のタッチスクリーン190上にオブジェクトが表示される領域で構成されたレイアウトを表示する。ステップ1405で領域個数の変更要請が受信されるかを判定する。ユーザは、ボリュームキーのような特定キーを押すか画面上段に位置したアクションバーに表示されるオプション機能を通じて領域個数の変更を要請することができる。領域個数の変更要請が受信されると、制御部は、ステップ1410で領域個数調節のためのアイコンを表示する。領域個数の変更要請がなければ、ステップ1400に戻る。ステップ1415で、制御部110は、上記アイコンのうちいずれか一つがタッチされるかを判定する。
ステップ1415でタッチ入力が検出されない場合、ステップ1410に戻る。領域追加のためのアイコンが選択されると、制御部110は、図14Bのステップ1420で領域追加アイコンがタッチされた状態で往復モーションが検出されるかを判定する。往復モーションが検出されると、制御部110は、ステップ1425で現在ページのレイアウトを構成する領域に次のページのレイアウトの領域を追加し、ステップ1440で追加された領域を含んで再構成されたレイアウトを表示する。領域追加アイコンがタッチされた状態で往復モーションが反復的に検出される場合、制御部110は、往復モーションの検出によって、段階的に一つずつ領域を追加する。
図15A乃至図15Iでは、携帯端末100のモーションによってレイアウトの領域の間に配列が変更されるだけでなく、その領域の数も調節される場合を例示している。図15Aのように画面が表示される場合、領域個数の調節要請が受信されると、図15Bでのように領域追加アイコン1510及び領域減少アイコン1500が表示される。ユーザが領域追加アイコン1510をタッチした状態で携帯端末100を振ると、図15CでのようにD領域が追加されながらA、B、C領域が再配列される。ユーザがさらに携帯端末100を振ると、図15DでのようにE領域が追加され、残りの領域が再配列される。以後、一定時間の間にモーションが検出されない場合、図15Eのようにレイアウトが維持される。このように1ページに表示されるレイアウトを構成する領域の数が増加すると、表示するオブジェクトの数は予め決定されているので、全体ページの数は減少するようになる。
領域追加アイコンがタッチされない場合、制御部110は、ステップ1430で領域減少アイコンがタッチされた状態で往復モーションが検出されるかを判定する。領域減少アイコンがタッチされた状態で往復モーションが検出されると、制御部110は、ステップ1435で現在ページのレイアウトを構成する領域から一つの領域を除去した後、ステップ1440で上記除去された領域を除外した残りの領域で再構成されたレイアウトを表示する。この時、領域減少アイコン1500がタッチされた状態で往復モーションが反復的に検出される場合、往復モーションが発生することによって段階的に一つずつ領域が除去される。
図15Fでのようにユーザが領域減少アイコン1500をタッチした状態で携帯端末100を振ると、図15GでのようにD領域が除去されながらA、B、C領域が再配列される。領域減少アイコン1500をタッチした状態でユーザがさらに携帯端末100を振ると、最小領域の個数が決定されているので、図15Hでのように領域の数は変更されないことがあり、このような場合には、その領域の配列のみが変更される。以後、一定時間の間にモーションが検出されない場合には、図15Iのようにレイアウトが維持される。このように、1ページに表示されるレイアウトを構成する領域の数が減少すると、一定個数のオブジェクトを表示するためには、全体ページの数は増加するようになる。
ステップ1430で領域追加/減少アイコンがタッチされない状態で往復モーションが検出される場合、制御部110は、ステップ1445で図5乃至図7でのように往復モーションの方向によってレイアウトを構成する領域を変更し、ステップ1450で変更された領域で再構成されたレイアウトを表示する。
上述した内容では、該当ページの領域の数を、アイコンを利用して追加又は削除する場合を例に挙げて説明したが、アップ/ダウンボリュームキーを利用して領域追加又は削除する方法など、多様な方法が存在する。例えば、ユーザがボリュームアップキーを押した状態で携帯端末100を振る場合、領域が追加され、ボリュームダウンキーを押した状態で携帯端末100を振る場合、領域が除去される方式がある。
図16は、本発明の他の実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する方法を説明するための概略的な順序図である。図17A乃至図17Cは、本発明の実施形態による携帯端末におけるレイアウトを構成する領域の数を調節する過程を示す例示図である。
図16及び図17A乃至図17Cを参照すると、ステップ1600及びステップ1605は、図4のステップ400及びステップ405と同一であるので、その具体的な説明は省略する。ステップ1610で制御部110は、往復モーションの回数が一定個数以上であるかを判定する。一定個数以上である場合、ステップ1615で現在ページのレイアウトを構成する領域に次のページのレイアウトの一定個数の領域を追加する。ステップ1620で制御部110は、上記追加された領域を含んで再構成されたレイアウトを表示する。追加される領域の個数は、往復モーションの回数によって定められることができる。
図17Aは、現在ページのレイアウトがA、B、C、D領域で構成された場合を例示しており、図17Bは、次のページのレイアウトがE、F、G、H、I領域で構成された場合を例示している。現在ページはタッチスクリーン190上に表示されるページを意味し、次のページは、ユーザからタッチスクリーン190上をフリッキング又はドラッグするジェスチャにより表示されるページである。したがって、図17Aでのような現在ページが表示される状態で、一つ以上の往復モーションが検出されると、その往復モーションの回数によって図17Bの次のページのE、F領域が図17Cでのように現在ページの領域に追加されると同時に、その往復モーションの方向によってA、B、C、D領域が再配列される。この時、領域は一つずつ又は予め定められた個数単位で追加されることができる。このように現在ページに領域が追加されることによって、図17Bのように次のページのE、F領域に表示されていたオブジェクトは、図17Cに示されたようにE、F領域へ移動され表示される。上記したように本発明によれば、携帯端末100のモーションを利用することによって、ユーザは直観的にレイアウトの構成要素、すなわち、領域/オブジェクトを所望の方式で整列することが容易な利点がある。
本発明によれば、携帯端末でその携帯端末のモーションにより複数のオブジェクトの配置を迅速に変更できるだけでなく、ユーザの所望の形態で容易に変更することができる。
また本発明は、単純な携帯端末のモーション入力を通じてオブジェクトが配置されるレイアウトの構造を変更できてユーザ便宜が極大化できる。
さらに、本発明は、オブジェクトの属性を考慮してその属性に対応するオブジェクトで構成されたレイアウト、すなわち、目的に符合するレイアウトを提供することができ、全体としての統一された秩序感覚がある合わせ型レイアウトを提供できる効果を有する。
本発明の一実施形態は、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合せの形態で実現することができる。このような任意のソフトウェアは、例えば、削除又は再記録が可能な読み出し専用メモリ(ROM)のような揮発性又は不揮発性記憶装置、又は、例えば、ランダムアクセスメモリ(RAM)、メモリチップ、メモリ装置、又はメモリ集積回路(IC)、又は、例えば、コンパクトディスク(CD)、ディジタル多用途ディスク(DVD)、磁気ディスク、又は磁気テープなどの光学的又は磁気的に読み取り可能な非一時的な機械可読(例えば、コンピュータ可読)記憶媒体に記憶することができる。本発明の一実施形態によるサービス適用方法は、制御器及びメモリを含むコンピュータ又は、携帯端末により具現されることができ、このメモリは、本発明の様々な実施形態を具現する指示を含むプログラム又はプログラムを格納するのに適合した機械可読(例えば、コンピュータ可読)記憶装置の一例である。
したがって、本発明は、本願明細書の任意の請求項に記載された装置又は方法を実現するためのコードを含むプログラム及びこのようなプログラムを格納する機械可読(例えば、コンピュータ可読)記憶装置を含む。また、このようなプログラムは、有線又は無線接続を通じて送信される通信信号のような任意の媒体を通じて電子的に移送され、本発明は、これと均等なことを適切に含む。
また上記携帯端末は、有線又は無線で連結されるプログラム提供装置から上記プログラムを受信して保存することができる。上記プログラム提供装置は、上記プログラム処理装置が既設定されたコンテンツ保護方法を実行するようにする指示を含むプログラム、コンテンツ保護方法に必要な情報などを保存するためのメモリと、上記グラフィック処理装置との有線又は無線通信を実行するための通信部と、上記グラフィック処理装置の要請又は自動に該当プログラムを上記送受信装置に送信する制御部を含み得る。
以上、本発明を具体的な実施形態を参照して詳細に説明してきたが、本発明の範囲及び趣旨を逸脱することなく様々な変更が可能であるということは、当業者には明らかであり、本発明の範囲は、上述の実施形態に限定されるべきではなく、特許請求の範囲の記載及びこれと均等なものの範囲内で定められるべきものである。
100 携帯端末
101 前面
102 側面
103 後面
110 制御部
111 CPU
112 ROM
113 RAM
120 通信モジュール
121 移動通信モジュール
130 サブ通信モジュール
131 無線ランモジュール
132 近距離通信モジュール
140 マルチメディアモジュール
141 放送受信のための地上波DMBアンテナ
141 放送通信モジュール
142 オーディオ再生モジュール
143 動画再生モジュール
150 カメラモジュール
151 第1のカメラ
152 第2のカメラ
153 フラッシュ
154 モーター部
155 鏡筒部
157 GPSモジュール
160 出力モジュール
161 ボタン
162 マイク
163 スピーカ
164 振動素子
165 コネクタ
166 キーパッド
167 イヤホン接続ジャック
168 入力ユニット
169 脱/付着認識スイッチ
170 センサモジュール
175 保存部
180 電源供給部
190 タッチスクリーン
195 タッチスクリーンコントローラ

Claims (9)

  1. 携帯端末のモーションによって複数のオブジェクトの表示を制御する方法であって、
    複数のオブジェクトが各々表示される複数の領域を含むレイアウトを表示するステップと、前記複数のオブジェクトは、アプリケーションを実行するための短縮アイコンを含み、
    前記携帯端末のシェイキングモーションを識別するステップと、
    前記携帯端末のシェイキングモーションの識別に対応して、予め設定された整列規則によって、前記複数のオブジェクトのうちの少なくとも一つのオブジェクトを同一位置に維持し、前記複数のオブジェクトのうちの前記少なくとも一つのオブジェクトを除外した残りのオブジェクトを他の位置に移動させるステップと、前記複数のオブジェクトの数は、シェイキングモーションの前後時にも変更されず、
    前記レイアウトで複数の領域の数を調節するための少なくとも一つのアイコンを表示するステップと、
    前記少なくとも一つのアイコンに対するタッチが維持された状態で、前記携帯端末のシェイキングモーションの回数に応じて一つ以上の領域が追加されるか、または、削除されると、前記複数の領域を再配置するステップと、を含むことを特徴とする方法。
  2. 前記携帯端末の上下、左右、対角線方向のうちの少なくとも一つに対応するシェイキングモーション方向を検出するステップをさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記携帯端末のシェイキングモーションに対応して、前記予め設定された整列規則に前記複数のオブジェクトのうちの一つを適用するか否かを判定するステップをさらに含むことを特徴とする 請求項1記載の方法。
  4. 前記複数のオブジェクトのうちの何れか一つのオブジェクトがタッチされるかを判定するステップと、
    前記タッチが維持された状態で、前記携帯端末の動きに基づいた入力が受信されるかを判定するステップと、
    前記タッチが維持された状態で、前記携帯端末の動きに基づいた入力が受信されると、
    前記タッチされたオブジェクトを除外した残りのオブジェクトを再配列するステップをさらに含むことを特徴とする請求項1に記載の方法。
  5. 携帯端末の往復モーションによって複数のオブジェクトの表示を制御するための携帯端末であって、
    複数のオブジェクトの各々が表示される複数の領域を含むレイアウトを表示するように構成されたディスプレイと、前記複数のオブジェクトは、アプリケーションを実行するための短縮アイコンを含み、
    前記携帯端末のシェイキングモーションを検出するように構成されたセンサデバイスと、を含み、
    少なくとも一つのプロセッサは、
    前記センサデバイスを使用することによって前記携帯端末のシェイキングモーションを識別し、
    前記携帯端末のシェイキングモーションの識別に対応して、予め設定された整列規則によって、
    前記複数のオブジェクトのうちの少なくとも一つのオブジェクトを同一位置に維持し、
    前記複数のオブジェクトのうちの前記少なくとも一つのオブジェクトを除外した残りのオブジェクトを他の位置に移動させるように構成され、前記複数のオブジェクトの数は、シェイキングモーションの前後時にも変更されないことであり、
    前記レイアウトで複数の領域の数を調節するための少なくとも一つのアイコンを表示し、
    前記少なくとも一つのアイコンに対するタッチが維持された状態で、前記携帯端末のシェイキングモーションの回数に応じて一つ以上の領域が追加されるか、または、削除されると、前記複数の領域を再配置することを特徴とする携帯端末。
  6. 前記センサデバイスは、前記携帯端末のシェイキングモーションを検出するためのモーションセンサを含むことを特徴とする請求項に記載の携帯端末。
  7. 前記センサデバイスは、前記携帯端末の上下、左右、対角線方向のうちの少なくとも一つに対応するシェイキングモーション方向を検出するように構成されたことを特徴とする請求項に記載の携帯端末。
  8. 前記少なくとも一つのプロセッサは、前記携帯端末のシェイキングモーションに対応して前記レイアウトの予め設定された整列規則に前記複数のオブジェクトのうちの一つを適用するか否かを判定するように構成されたことを特徴とする請求項に記載の携帯端末。
  9. 前記少なくとも一つのプロセッサは、
    前記複数の領域のうちの何れか一つが選択されるかを判定し、
    前記選択が維持された間、前記センサデバイスを通して前記携帯端末のシェイキングモーションの検出に対応して、前記選択された領域を除外した、残っている領域の位置を再配列するように構成されることを特徴とする請求項に記載の携帯端末。
JP2019007979A 2013-02-22 2019-01-21 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末 Active JP6816858B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130019508A KR102146244B1 (ko) 2013-02-22 2013-02-22 휴대 단말에 대한 동작 관련 입력에 따라 복수개의 객체들의 표시를 제어하는 방법 및 이를 위한 휴대 단말
KR10-2013-0019508 2013-02-22

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015559191A Division JP2016511471A (ja) 2013-02-22 2014-02-24 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末

Publications (2)

Publication Number Publication Date
JP2019083048A JP2019083048A (ja) 2019-05-30
JP6816858B2 true JP6816858B2 (ja) 2021-01-20

Family

ID=50159070

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015559191A Pending JP2016511471A (ja) 2013-02-22 2014-02-24 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末
JP2019007979A Active JP6816858B2 (ja) 2013-02-22 2019-01-21 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015559191A Pending JP2016511471A (ja) 2013-02-22 2014-02-24 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末

Country Status (10)

Country Link
US (2) US20140245234A1 (ja)
EP (2) EP2770424B1 (ja)
JP (2) JP2016511471A (ja)
KR (1) KR102146244B1 (ja)
CN (2) CN110333758B (ja)
AU (1) AU2014219558B2 (ja)
BR (1) BR112015020243B1 (ja)
MX (1) MX353242B (ja)
RU (1) RU2667496C2 (ja)
WO (1) WO2014129862A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD744508S1 (en) * 2013-01-25 2015-12-01 Htc Corporation Display screen with a graphical user interface
CN104850332B (zh) * 2015-03-19 2018-10-09 惠州Tcl移动通信有限公司 智能终端控制方法以及智能终端
JP6609971B2 (ja) * 2015-04-06 2019-11-27 コニカミノルタ株式会社 データフォーマット変換プログラム、方法、装置
CN104850341B (zh) * 2015-04-24 2019-02-26 惠州Tcl移动通信有限公司 一种移动终端及移动终端的应用图标显示方法
CN105843497A (zh) * 2015-06-29 2016-08-10 维沃移动通信有限公司 一种桌面图标批量处理的方法和一种移动终端
CN105183338B (zh) * 2015-07-20 2019-02-01 西安拾忆信息科技有限公司 对象处理方法
CN105069217A (zh) * 2015-07-31 2015-11-18 南京邮电大学 一种基于道路动态分区模型的城市救援仿真方法
JP2017102618A (ja) * 2015-11-30 2017-06-08 株式会社ニコン 表示装置および表示プログラム
CN114019990A (zh) * 2016-02-24 2022-02-08 深圳市大疆创新科技有限公司 用于控制可移动物体的***和方法
CN105892648B (zh) * 2016-03-24 2018-03-27 广东欧珀移动通信有限公司 一种界面图标的显示方法及用户终端
KR101673536B1 (ko) * 2016-04-08 2016-11-07 (주)버즈빌 잠금 화면을 이용한 메시지 기반 광고 제공 시스템 및 방법
CN107291364B (zh) * 2016-04-13 2020-10-02 腾讯科技(北京)有限公司 信息展示方法和终端设备
CN107817941B (zh) * 2016-09-14 2022-12-02 中兴通讯股份有限公司 信息保存方法和装置
CN106569549B (zh) * 2016-10-17 2023-04-07 广州第贰人类科技有限公司 一种基于液晶触摸屏的显示方法及装置
CN107015721A (zh) * 2016-10-20 2017-08-04 阿里巴巴集团控股有限公司 一种应用界面的管理方法和装置
CN107291277B (zh) * 2017-08-14 2019-09-03 广州视源电子科技股份有限公司 一种防误触的方法、装置、设备及存储介质
JP6295363B1 (ja) 2017-08-22 2018-03-14 京セラ株式会社 電子機器、プログラムおよび制御方法
CN108089730B (zh) * 2017-12-18 2021-06-11 腾讯科技(深圳)有限公司 交互页面的实现方法及装置、终端、存储介质
JP7013859B2 (ja) * 2017-12-27 2022-02-01 大日本印刷株式会社 操作表示装置及びプログラム
CN108646931B (zh) * 2018-03-21 2022-10-14 深圳市创梦天地科技有限公司 一种终端控制方法及终端
JP6585234B2 (ja) * 2018-05-30 2019-10-02 京セラ株式会社 電子機器、プログラムおよび制御方法
KR102469722B1 (ko) * 2018-09-21 2022-11-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN109492346B (zh) * 2019-01-21 2020-07-07 中南大学 一种轨道列车碰撞仿真简化模型的构建方法
CN109976689B (zh) * 2019-03-05 2022-03-04 河南泰德信息技术有限公司 一种利用智能手机对分布式拼接处理器进行快速配置的方法与装置
US11023124B1 (en) * 2019-12-18 2021-06-01 Motorola Mobility Llc Processing user input received during a display orientation change of a mobile device
CN111641797B (zh) * 2020-05-25 2022-02-18 北京字节跳动网络技术有限公司 视频通话界面显示控制方法、装置、存储介质及设备
KR102435695B1 (ko) * 2021-08-18 2022-08-24 정진현 스마트 피트니스 장치 및 방법

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345492A (ja) * 2002-05-27 2003-12-05 Sony Corp 携帯電子機器
AU2003288667A1 (en) * 2003-01-14 2004-08-10 Koninklijke Philips Electronics N.V. Rearranging views on a computer screen
US20060053385A1 (en) * 2003-01-15 2006-03-09 Koninklijke Philips Electronics N.V. Rearranging views on a computer screen
JP2004240757A (ja) * 2003-02-06 2004-08-26 Nec Corp 名刺作成管理システム
US7370284B2 (en) 2003-11-18 2008-05-06 Laszlo Systems, Inc. User interface for displaying multiple applications
JP2007094378A (ja) 2005-08-31 2007-04-12 Seiko Epson Corp 携帯型表示装置、携帯型表示装置の表示方法及び表示制御プログラム
JP5614037B2 (ja) 2007-03-26 2014-10-29 株式会社ニコン 画像表示装置、および画像表示用プログラム
US8112720B2 (en) * 2007-04-05 2012-02-07 Napo Enterprises, Llc System and method for automatically and graphically associating programmatically-generated media item recommendations related to a user's socially recommended media items
JP5097435B2 (ja) * 2007-04-24 2012-12-12 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
US7979809B2 (en) * 2007-05-11 2011-07-12 Microsoft Corporation Gestured movement of object to display edge
KR101403839B1 (ko) * 2007-08-16 2014-06-03 엘지전자 주식회사 터치 스크린을 구비한 이동통신 단말기 및 그 디스플레이제어방법
US9261979B2 (en) * 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
US8312373B2 (en) 2007-10-18 2012-11-13 Nokia Corporation Apparatus, method, and computer program product for affecting an arrangement of selectable items
US8423076B2 (en) * 2008-02-01 2013-04-16 Lg Electronics Inc. User interface for a mobile device
US20090327272A1 (en) * 2008-06-30 2009-12-31 Rami Koivunen Method and System for Searching Multiple Data Types
KR101524616B1 (ko) * 2008-07-07 2015-06-02 엘지전자 주식회사 자이로센서를 구비한 휴대 단말기 및 그 제어방법
KR101570116B1 (ko) 2008-09-09 2015-11-19 삼성전자주식회사 터치스크린을 이용한 컨텐츠 탐색 및 실행방법과 이를 이용한 장치
US8191011B2 (en) * 2008-09-18 2012-05-29 Microsoft Corporation Motion activated content control for media system
US8584031B2 (en) * 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8558803B2 (en) * 2008-11-28 2013-10-15 Samsung Electronics Co., Ltd. Input device for portable terminal and method thereof
US9424578B2 (en) * 2009-02-24 2016-08-23 Ebay Inc. System and method to provide gesture functions at a device
KR101640460B1 (ko) * 2009-03-25 2016-07-18 삼성전자 주식회사 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기
US8601389B2 (en) * 2009-04-30 2013-12-03 Apple Inc. Scrollable menus and toolbars
JP4757933B2 (ja) * 2009-06-26 2011-08-24 京セラ株式会社 携帯型電子機器、および携帯型電子機器の動作方法
US20110016423A1 (en) 2009-07-16 2011-01-20 Synopsys, Inc. Generating widgets for use in a graphical user interface
JP5626749B2 (ja) * 2009-07-29 2014-11-19 京セラ株式会社 携帯電子機器及び文字情報変換システム
KR101657117B1 (ko) * 2009-08-11 2016-09-13 엘지전자 주식회사 이동단말기 및 그 제어방법
EP2354914A1 (en) * 2010-01-19 2011-08-10 LG Electronics Inc. Mobile terminal and control method thereof
KR20110125870A (ko) * 2010-05-14 2011-11-22 삼성전자주식회사 휴대 단말기 및 그의 게임 제공 방법 및 시스템
US8954099B2 (en) 2010-06-16 2015-02-10 Qualcomm Incorporated Layout design of proximity sensors to enable shortcuts
US8972879B2 (en) * 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
KR20120013727A (ko) 2010-08-06 2012-02-15 삼성전자주식회사 디스플레이장치 및 그 제어방법
WO2012061917A1 (en) * 2010-11-12 2012-05-18 Research In Motion Limited Motion gestures interface for portable electronic device
WO2012066591A1 (ja) 2010-11-15 2012-05-24 株式会社ソニー・コンピュータエンタテインメント 電子機器、メニュー表示方法、コンテンツ画像表示方法、機能実行方法
JP2012118652A (ja) * 2010-11-30 2012-06-21 Sharp Corp メニュー表示制御装置
JP4972712B1 (ja) * 2010-12-07 2012-07-11 株式会社 資生堂 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム
US8982045B2 (en) * 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
US9178981B2 (en) * 2010-12-22 2015-11-03 Lg Electronics Inc. Mobile terminal and method of sharing information therein
KR101740439B1 (ko) * 2010-12-23 2017-05-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2676178B1 (en) * 2011-01-26 2020-04-22 Novodigit Sarl Breath-sensitive digital interface
KR101691478B1 (ko) * 2011-02-09 2016-12-30 삼성전자주식회사 통합 입력에 따른 단말기 운용 방법 및 이를 지원하는 휴대 단말기
KR101864333B1 (ko) * 2011-03-21 2018-07-05 삼성전자 주식회사 아이콘 변경 기능 지원 방법 및 이를 지원하는 휴대 단말기
JP5844999B2 (ja) * 2011-05-19 2016-01-20 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5829040B2 (ja) * 2011-04-11 2015-12-09 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および画像生成方法
JP5815275B2 (ja) 2011-04-26 2015-11-17 京セラ株式会社 携帯端末装置およびプログラム
KR20120129697A (ko) 2011-05-20 2012-11-28 엘지전자 주식회사 이동 단말기 및 이의 문자메시지 관리 방법
US20140101610A1 (en) 2011-05-25 2014-04-10 Nokia Corporation Apparatus, method, comptuer program and user interface
KR101844222B1 (ko) * 2011-05-27 2018-04-02 엘지전자 주식회사 이동 단말기 및 이것의 모드 제어 방법
WO2012169190A1 (ja) * 2011-06-08 2012-12-13 パナソニック株式会社 文字入力装置及び表示変更方法
JP5107453B1 (ja) * 2011-08-11 2012-12-26 シャープ株式会社 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
US20130125069A1 (en) 2011-09-06 2013-05-16 Lubomir D. Bourdev System and Method for Interactive Labeling of a Collection of Images
KR101888457B1 (ko) * 2011-11-16 2018-08-16 삼성전자주식회사 복수 개의 어플리케이션을 실행하는 터치스크린을 가지는 장치 및 그 제어 방법
KR20130054071A (ko) * 2011-11-16 2013-05-24 삼성전자주식회사 다중 어플리케이션을 실행하는 모바일 장치 및 그 방법
US20130154951A1 (en) * 2011-12-15 2013-06-20 Nokia Corporation Performing a Function
AU2011265428B2 (en) * 2011-12-21 2014-08-14 Canon Kabushiki Kaisha Method, apparatus and system for selecting a user interface object
US20130219277A1 (en) * 2012-02-21 2013-08-22 Mobotap Inc. Gesture and Voice Controlled Browser
CN102736849B (zh) * 2012-04-20 2015-01-28 中兴通讯股份有限公司 菜单布局处理方法及装置
KR101952682B1 (ko) * 2012-04-23 2019-02-27 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102092234B1 (ko) * 2012-08-03 2020-03-23 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20140059472A1 (en) * 2012-08-24 2014-02-27 Recon Instruments Inc. Methods and systems for controlling electronic devices
KR20140051012A (ko) * 2012-10-22 2014-04-30 삼성전자주식회사 디바이스 및 그 전자 키 전송 방법
US8994827B2 (en) * 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US11372536B2 (en) * 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
KR20140068410A (ko) * 2012-11-28 2014-06-09 삼성전자주식회사 물리 엔진 기반의 사용자 인터페이스를 제공하는 방법 및 그 전자 장치
KR20140070040A (ko) * 2012-11-30 2014-06-10 삼성전자주식회사 터치스크린 상에 표시되는 복수의 객체들을 관리하는 장치 및 방법
KR20140082000A (ko) * 2012-12-21 2014-07-02 주식회사 팬택 관련 어플리케이션 제공 단말 및 방법
KR20140085061A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR20140097820A (ko) * 2013-01-30 2014-08-07 삼성전자주식회사 전자장치에서 웹페이지 내의 특정 객체의 속성을 조절하기 위한 방법 및 장치
JP6132644B2 (ja) * 2013-04-24 2017-05-24 キヤノン株式会社 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体

Also Published As

Publication number Publication date
RU2667496C2 (ru) 2018-09-21
CN110333758A (zh) 2019-10-15
US20190121443A1 (en) 2019-04-25
KR102146244B1 (ko) 2020-08-21
CN104007892A (zh) 2014-08-27
KR20140105344A (ko) 2014-09-01
MX2015010598A (es) 2015-12-16
AU2014219558A1 (en) 2015-07-30
BR112015020243A2 (pt) 2017-07-18
US10775896B2 (en) 2020-09-15
CN110333758B (zh) 2024-02-13
EP2770424A3 (en) 2017-01-25
US20140245234A1 (en) 2014-08-28
BR112015020243B1 (pt) 2022-11-29
EP2770424A2 (en) 2014-08-27
EP3696653B1 (en) 2022-04-06
WO2014129862A1 (en) 2014-08-28
JP2019083048A (ja) 2019-05-30
AU2014219558B2 (en) 2017-04-27
JP2016511471A (ja) 2016-04-14
RU2015140072A (ru) 2017-03-28
EP2770424B1 (en) 2020-04-01
MX353242B (es) 2018-01-05
CN104007892B (zh) 2019-08-09
EP3696653A1 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
JP6816858B2 (ja) 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末
US11086479B2 (en) Display device and method of controlling the same
US9582168B2 (en) Apparatus, method and computer readable recording medium for displaying thumbnail image of panoramic photo
US9261995B2 (en) Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
KR102113683B1 (ko) 문지르기 제스처를 검출하여 미리보기를 제공하는 모바일 장치 및 그 제어 방법
US10635295B2 (en) Device including plurality of touch screens and screen change method for the device
KR102035305B1 (ko) 휴대 단말에서 햅틱 효과를 제공하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US11604580B2 (en) Configuration of application execution spaces and sub-spaces for sharing data on a mobile touch screen device
US20180329598A1 (en) Method and apparatus for dynamic display box management
KR102102438B1 (ko) 디스플레이 장치 및 그 제어 방법
EP2753065A2 (en) Method and apparatus for laying out image using image recognition
KR102118091B1 (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
US20150009162A1 (en) Mobile terminal including touch screen supporting multi-touch input and method of controlling the same
KR20140092106A (ko) 터치 스크린 상의 사용자 입력을 처리하는 방법 및 단말과 저장 매체
KR102146832B1 (ko) 스타일러스 펜의 입력 지점을 측정하는 전자 장치 및 그 제어 방법
KR102231888B1 (ko) 컨텐츠의 스크롤 시 대표 정보를 표시하는 전자 장치 및 그 제어 방법
EP2843527A1 (en) Mobile terminal supporting note function and method for controlling the mobile terminal
KR20150025655A (ko) 객체 디스플레이 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201015

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201023

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R150 Certificate of patent or registration of utility model

Ref document number: 6816858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250