JP2015026297A - 携帯端末ならびに表示方向制御プログラムおよび方法 - Google Patents

携帯端末ならびに表示方向制御プログラムおよび方法 Download PDF

Info

Publication number
JP2015026297A
JP2015026297A JP2013156245A JP2013156245A JP2015026297A JP 2015026297 A JP2015026297 A JP 2015026297A JP 2013156245 A JP2013156245 A JP 2013156245A JP 2013156245 A JP2013156245 A JP 2013156245A JP 2015026297 A JP2015026297 A JP 2015026297A
Authority
JP
Japan
Prior art keywords
image
mobile terminal
touch operation
orientation
display direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013156245A
Other languages
English (en)
Inventor
貴司 東谷
Takashi Higashitani
貴司 東谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013156245A priority Critical patent/JP2015026297A/ja
Priority to PCT/JP2014/069930 priority patent/WO2015016214A1/ja
Publication of JP2015026297A publication Critical patent/JP2015026297A/ja
Priority to US15/010,294 priority patent/US20160147313A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】横たわって画像を見る場合の視認性および操作性に優れた携帯端末を提供する。【解決手段】携帯端末は、タッチ画面と、この携帯端末の向きの変化を感知するセンサとを有する。この携帯端末のCPUは、センサで携帯端末の向きの変化が感知されたとき、タッチ画面に対して2点ロングタッチ操作が行われている状態か否かを判別し(S1)、2点ロングタッチ操作が行われている状態ではないと判別された場合に、画像の表示方向をセンサの感知結果に基づき回転させ(S1:NO→S3)、2点ロングタッチ操作が行われている状態であると判別された場合には、このような回転を、次回、携帯端末の向きが変化するまでの間禁止する(S1:YES→S5)。【選択図】図8

Description

この発明は、画面の向きをセンサで感知して、画面に対する画像の表示方向を回転させる、携帯端末ならびに表示方向制御プログラムおよび方法に関する。
一般に、縦持ちおよび横持ちが可能な携帯端末では、いずれの持ち方でも画像がユーザから正立して見えるように、携帯端末の向きを加速度センサ等のセンサで検知して、画像の表示方向を回転させる、表示方向制御が行われる。
ところが、ユーザが横たわった状態で携帯端末の画像を見る場合、携帯端末の向きは、センサで横向きと検知される一方、ユーザに対しては縦向きのままなので、表示方向制御により却って、画像がユーザの意図しない方向にて表示されることとなる。
この点、特許文献1には、待受けモードとホールドモードとを加速度センサの検出結果に基づき切り替える、携帯型電子機器が開示されている。
特開2010−257189号公報[G06F 3/038]
上記の背景技術によれば、ユーザは、横たわって画像を見たい場合、携帯型電子機器を振って待ち受けモードからホールドモードに移行させ、表示方向制御を止めることで、画像がユーザの意図しない方向にて表示されることを防止できる可能性がある。
しかし、ユーザは横たわる前に、モード切り替えのための操作が必要なので、操作性がよくない。
それゆえに、この発明の主たる目的は、新規な、携帯端末ならびに表示方向制御プログラムおよび方法を提供することである。
この発明の他の目的は、横たわって画像を見る場合の視認性および操作性に優れた、携帯端末ならびに表示方向制御プログラムおよび方法を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために後述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
この発明の第1の態様は、携帯端末において、画像を表示し、かつ、当該画像に関連するタッチ操作を受け付け可能なタッチ画面、携帯端末の向きの変化を感知するセンサ、センサで携帯端末の向きの変化が感知されたとき、タッチ画面に対して特定タッチ操作が行われている状態か否かを判別する状態判別部、および、状態判別部によって特定タッチ操作が行われている状態であると判別された場合に、回転部による画像の表示方向の回転を禁止する、回転禁止部を備える、携帯端末である。
第1の態様では、携帯端末(10)は、画像(I)を表示し、かつ、当該画像に関連するタッチ操作を受け付け可能なタッチ画面(TS:30,32)と、当該携帯端末の向き(DrS)の変化を感知するセンサ(38)とを有する。なお、「携帯端末の向き」とは、たとえば、タッチ画面の下辺の中心点(P0)から上辺の中心点(P1)への向きをいう。
このような携帯端末において、たとえばコンピュータ(24)がメモリ(34)に記憶された表示方向制御プログラム(54)を実行することによって、状態判別部,回転部および回転禁止部が実現される。状態判別部は、センサで携帯端末の向きの変化が感知されたとき、タッチ画面に対して特定タッチ操作が行われている状態か否かを判別する(S1)。回転部は、状態判別部によって特定タッチ操作が行われている状態ではないと判別された場合に、画像の表示方向をセンサの感知結果に基づき回転させる(S1:NO→S3)。したがって、ユーザが特定タッチ操作なしで携帯端末の姿勢(横持ち/縦持ち)を変化させた場合には、画像の表示方向が回転するので、画像がユーザから正立して見える状態を維持できる。
他方、回転禁止部は、状態判別部によって特定タッチ操作が行われている状態であると判別された場合に、回転部による画像の表示方向の回転を禁止する(S1:YES→S5)。したがって、ユーザ(Ur)は、横たわった状態で画像を見たい場合、特定タッチ操作を行いながら横たわれば、センサの感知結果に基づく画像の表示方向の回転は禁止され、画像がユーザから倒れて見える視認性の悪さを解消できる。
第1の態様によれば、ユーザは、特定タッチ操作を行いながら横たわるだけで、画像の表示方向の回転を禁止できるので、横たわる前にモード切り替え等の操作を行う必要がなく、横たわって画像を見る場合の視認性および操作性が向上する。
第2の態様は、第1の態様に従属し、回転禁止部は、状態判別部によって特定タッチ操作が行われている状態であると判別された場合に、回転部による回転を、次回、携帯端末の向きが変化するまでの間禁止する。
第2の態様によれば、回転部による回転は、次回、携帯端末の向きが変化するまでの間禁止されるので、ユーザが横たわった後に特定タッチ操作を解除しても、起き上がったり携帯端末の姿勢(横持ち/縦持ち)を変えたりしない限りは、画像の表示方向が回転することはない。このため、横たわる動作が完了した後は、特定タッチ操作を継続する必要がないため、特定タッチ操作を行っていた指で特定タッチ操作以外のタッチ操作(たとえばタップ操作,フリック操作,スライド操作,ピンチ操作など)を行うことができる。
第3の態様は、第1または2の態様に従属し、携帯端末の向きの変化が横向きから縦向きへの変化である場合に、画像の表示方向が当該携帯端末の向きに沿っているか交差しているかを判別する、表示方向判別部をさらに備え、回転禁止部は、表示方向判別部によって画像の表示方向が携帯端末の向きに沿っていると判別された場合には、タッチ画面に対して特定タッチ操作が行われている状態であるか否かに関わらず、回転部による回転を禁止する。
第3の態様では、さらに表示方向判別部が実現され、表示方向判別部は、携帯端末の向きの変化が横向きから縦向きへの変化である場合に、画像の表示方向が当該携帯端末の向きに沿っているか交差しているかを判別する(S1a:YES→S1b)。回転禁止部は、表示方向判別部によって画像の表示方向が携帯端末の向きに沿っていると判別された場合には、タッチ画面に対して特定タッチ操作が行われている状態であるか否かに関わらず、回転部による回転を禁止する(S1b:YES→S5)。なお、ここで、画像の表示方向が携帯端末の向きに「沿っている」とは、画像の表示方向と携帯端末の向きとが同じまたは略同じ(平行または略平行)である状態をいい、「交差している」とは、両者が直交または略直交している状態をいう。
第1または2の態様では、ユーザが特定タッチ操作を行いながら横たわった後に起き上がる場合、もし特定タッチ操作なしで起き上がったとすると、画像の表示方向が回転して、画像がユーザから倒れて見える(図6(A)→図6(B))可能性があるが、第3の態様によれば、特定タッチ操作を行いながら起き上っても(図5(D)→図5(E))、特定タッチ操作なしで起き上がっても(図10(A)→図10(B))、画像の表示方向の回転禁止が働くので、画像がユーザから倒れて見えることがなくなる。したがってまた、第1または2の態様では、特定タッチ操作なしで起き上がった場合に必要となる、画面の向きと画像の表示方向とを揃えるためのリセット操作等も、第3の態様では無用であるため、視認性および操作性が一層向上する。
第4の態様は、第3の態様に従属し、状態判別部は、携帯端末の向きの変化が縦向きから横向きへの変化である場合には、画像の表示方向が携帯端末の向きに沿っているか交差しているかに関わらず、タッチ画面に対して特定タッチ操作が行われている状態か否かの判別を行う(S1a:NO→S1)。
第5の態様では、ユーザが横たわる際、画像の表示方向が携帯端末の向きに沿っているか交差しているかに関わらず、特定タッチ操作が行われている状態か否かの判別を行うので、縦持ち表示態様から横持ち表示態様に変化させたり(図4(A)→図4(B))、特定タッチ操作なしで起き上がった後の表示態様から、特定タッチ操作なしで起き上がる前の表示態様に戻したり(図6(B)→図6(A))できる。
第5の態様は、第3の態様に従属し、状態判別部は、携帯端末の向きの変化が横向きから縦向きへの変化であり、かつ表示方向判別部によって画像の表示方向が携帯端末の向きと交差していると判別された場合に、タッチ画面に対して特定タッチ操作が行われている状態か否かの判別を行う(S1a:YES→S1b:NO→S1)。
第5の態様では、ユーザが起き上がる際、画像の表示方向が携帯端末の向きと交差している場合に、タッチ画面に対して特定タッチ操作が行われている状態か否かの判別を行うので、特定タッチ操作の有無によって、横持ち表示態様を縦持ち表示態様に変化させたり(図4(B)→図4(A))、縦持ちになっても横持ち表示態様を維持したり(図4(B)→図6(B))できる。
第4,5の態様によれば、横たわったり起き上がったりする際に、特定タッチ操作を利用して多様な表示方向制御を行える。
第6の態様は、第1ないし5のいずれかの態様に従属し、特定タッチ操作は、タップ操作,ダブルタップ操作,1点へのロングタッチ操作,スライド操作,フリック操作およびピンチ操作のいずれとも区別可能な操作である。
第6の態様によれば、特定タッチ操作を一般的なタッチ操作と併用できる。
第7の態様は、第1ないし6のいずれかの態様に従属し、特定タッチ操作は、少なくとも2点へのロングタッチ操作である。
第7の態様によれば、あたかも画像を2本の指で押さえて回転を止めるかのような、直感的なタッチ操作が可能になる。
第8の態様は、画像を表示し、かつ、当該画像に関連するタッチ操作を受け付け可能なタッチ画面と、当該携帯端末の向きの変化を感知するセンサとを有する携帯端末のコンピュータを、センサで携帯端末の向きの変化が感知されたとき、タッチ画面に対して特定タッチ操作が行われている状態か否かを判別する状態判別部、状態判別部によって特定タッチ操作が行われている状態ではないと判別された場合に、画像の表示方向をセンサの感知結果に基づき回転させる回転部、および、状態判別部によって特定タッチ操作が行われている状態であると判別された場合に、回転部による画像の表示方向の回転を禁止する、回転禁止部として機能させる、表示方向制御プログラムである。
第9の態様は、画像を表示し、かつ、当該画像に関連するタッチ操作を受け付け可能なタッチ画面と、当該携帯端末の向きの変化を感知するセンサとを有する携帯端末によって行われる表示方向制御方法であって、センサで携帯端末の向きの変化が感知されたとき、タッチ画面に対して特定タッチ操作が行われている状態か否かを判別する状態判別ステップ、状態判別ステップによって特定タッチ操作が行われている状態ではないと判別された場合に、画像の表示方向をセンサの感知結果に基づき回転させる回転ステップ、および、状態判別ステップによって特定タッチ操作が行われている状態であると判別された場合に、回転ステップによる画像の表示方向の回転を禁止する、回転禁止ステップを含む、表示方向制御方法である。
第8および第9の各態様によっても、第1の態様と同様に、横たわって画像を見る場合の視認性および操作性が向上する。
この発明によれば、ユーザが横たわって画像を見る場合の画像の視認性および操作性に優れた携帯端末ならびに表示方向制御プログラムおよび方法が実現される。
この発明の一実施例である携帯端末の電気的な構成を示すブロック図である。 携帯端末の外観(ユーザによって操作されるタッチ画面およびキー)を示す図解図である。 ユーザによる携帯端末の使用例を示す図解図であり、(A)はユーザが立った状態で携帯端末を縦持ち使用している様子を示し、(B)はユーザが床に横たわった状態で携帯端末を縦持ち使用している様子を示す。 ユーザが2点ロングタッチ操作なしで横たわる場合(または立ったまま縦持ち使用から横持ち使用に変更する場合)の表示方向制御の一例を示す図解図であり、(A)は横たわる前(または縦持ち使用時)のタッチ画面の表示態様を、(B)は横たわった後(または横持ち使用時)のタッチ画面の表示態様を、それぞれ示す。 ユーザが2点ロングタッチしながら横たわった後、2点ロングタッチを解除し、そして再び2点ロングタッチしながら起き上る場合の表示方向制御の一例を示す図解図であり、(A)は横たわる前のタッチ画面の表示態様を、(B)は横たわった後のタッチ画面の表示態様を、(C)は横たわった状態で2点ロングタッチを解除するときのタッチ画面の表示態様を、(D)は再び2点ロングタッチしながら起き上る前のタッチ画面の表示態様を、(E)は起き上った後のタッチ画面の表示態様を、それぞれ示す。 ユーザが2点ロングタッチしながら横たわった後、起き上がる際に2点ロングタッチを行わなかった場合の表示制御の一例を示す図解図であり、(A)は2点ロングタッチ操作なしで起き上る前のタッチ画面の表示態様を、(B)は2点ロングタッチ操作なしで起き上った後のタッチ画面の表示態様を、それぞれ示す。 携帯端末のメインメモリの内容を示すメモリマップ図である。 携帯端末のCPUによる表示方向制御処理の一例を示すフロー図であり、図4−図6に対応する。 メインメモリに記憶された各種フラグの遷移を示す図解図であり、図4−図6に対応する。 ユーザが2点ロングタッチしながら横たわった後、起き上がる際に2点ロングタッチを行わなかった場合の表示方向制御(図6)の変形例を示す図解図であり、(A)は2点ロングタッチ操作なしで起き上る前のタッチ画面の状態を、(B)は2点ロングタッチ操作なしで起き上った後のタッチ画面の状態を、それぞれ示す。 変形例での表示方向選択処理を示すフロー図であり、図4−図5および図10に対応する。 変形例でのフラグ遷移を示す図解図であり、図4−図5および図10対応する。
図1には、この発明の一実施例である携帯端末10のハードウエア構成が示される。図2には、携帯端末10の外観が示される。図3には、ユーザUrによる携帯端末10の使用例が示される。
図1−図3を参照して、携帯端末10はCPU24を含む。CPU24には、キー入力装置26、タッチパネル32、メインメモリ34、フラッシュメモリ36および慣性センサ38が接続され、さらに、無線通信回路14を介してアンテナ12が、A/Dコンバータ16を介してマイク18が、D/Aコンバータ20を介してスピーカ22が、そしてドライバ28を介してディスプレイ30が、それぞれ接続される。
アンテナ12は、図示しない基地局からの無線信号を捕捉(受信)し、また、無線通信回路14からの無線信号を放出(送信)する。無線通信回路14は、アンテナ12で受信された無線信号を復調および復号化し、また、CPU24からの信号を符号化および変調する。マイク18は、音波をアナログの音声信号に変換し、A/Dコンバータ16は、マイク18からの音声信号をディジタルの音声データに変換する。D/Aコンバータ20は、CPU24からの音声データをアナログの音声信号に変換し、スピーカ22は、D/Aコンバータ20からの音声信号を音波に変換する。
キー入力装置26は、ユーザによって操作される各種のキー(Ky:図2),ボタン(図示せず)などで構成され、操作に応じた信号(コマンド)をCPU24に入力する。キーKyには、「ホーム(待ち受け)画像を表示する」,「メニュー画像を表示する」,「戻る」といった使用頻度の高い機能が割り当てられる。
ドライバ28は、CPU24からの信号に応じた画像をディスプレイ30に表示する。タッチパネル32は、ディスプレイ30の表示面に設けられ、タッチ点の位置を示す信号(X,Y座標)をCPU24に入力する。たとえば、ディスプレイ30に待ち受け画像(図示せず)が表示された状態で、ユーザが待ち受け画像のいずれかの項目(アイコン)にタッチする操作を行うと、そのタッチ点の座標がタッチパネル32によって検出され、CPU24は、ユーザによってどの項目が選択されたかを判別することができる。
なお、以下では、上記のような、画像を表示してそれに向けられたタッチ操作を受け付ける機能を有するタッチパネル32付きのディスプレイ30を、適宜「タッチ画面」(TS:図2)と呼ぶ。また、タッチ画面TSの下辺(キーKy側の辺)の中心点P0から上辺の中心点P1への向きを「携帯端末10の向きDrS」と定義する。
メインメモリ34は、たとえばSDRAMなどで構成され、CPU24に各種の処理を実行させるためのプログラム,データなど(図7参照)を記憶する共に、CPU24に必要な作業領域を提供する。フラッシュメモリ36は、たとえばNAND型のフラッシュメモリで構成され、プログラム,データなどの保存領域として利用される。
慣性センサ38は、たとえば加速度センサ,ジャイロスコープなど(好ましくは3軸の加速度センサおよびジャイロスコープの組み合わせ)で構成され、携帯端末10の向き(DrS:図4参照)とその変化を感知する。
CPU24は、メインメモリ34に記憶されたプログラム(52〜56)に従って、他のハードウエア(12〜22,26〜38)を利用しつつ、各種の処理を実行する。
以上のように構成された携帯端末10では、タッチ画面TSに表示される図示しないアイコンやメニュー項目の1つにタッチすることで、通話を行う通話モード、データ通信を行うデータ通信モード、アプリケーション処理を実行するアプリケーション処理モードなどを選択することができる。
通話モードが選択されると、携帯端末10は、通話装置として機能する。詳しくは、タッチ画面TSに表示されるテンキー等によって発呼操作が行われると、CPU24は、無線通信回路14を制御して発呼信号を出力する。出力された発呼信号は、アンテナ12を介して出力され、図示しない移動通信網を経て相手の電話機に伝達される。電話機は、着信音などによる呼び出しを開始する。相手が着呼操作を行うと、CPU24は通話処理を開始する。一方、相手からの発呼信号がアンテナ12によって捕捉されると、無線通信回路14は着信をCPU24に通知し、CPU24は、スピーカ22からの着信音や図示しないバイブレータの振動などによる呼び出しを開始する。タッチ画面TSに表示される着信ボタン等によって着呼操作が行われると、CPU24は通話処理を開始する。
通話処理は、たとえば、次のように行われる。相手から送られてきた受話音声信号は、アンテナ12によって捕捉され、無線通信回路14によって復調および復号化を施された後、D/Aコンバータ20を経てスピーカ22に与えられる。これにより、スピーカ22から受話音声が出力される。一方、マイク18によって取り込まれた送話音声信号は、A/Dコンバータ16を経て無線通信回路14に送られ、無線通信回路14によって符号化および変調を施された後、アンテナ12を通して相手に送信される。相手の電話機でも、送話音声信号の復調および復号化が行われ、送話音声が出力される。
データ通信モードが選択されると、携帯端末10はデータ通信装置として機能する。詳しくは、初期表示すべきホームページのアドレス情報がフラッシュメモリ36に記憶されており、CPU24は、無線通信回路14を介してインターネット上のサーバ(図示せず)とデータ通信を行うことでハイパーテキストデータを取得し、これに基づくホームページ(HTML文書)を、ドライバ28を介してディスプレイ30に表示させる。表示されたホームページに含まれるいずれかのハイパーリンクがタッチ操作により選択されると、これに関連付けられた別のホームページが表示される。
アプリケーション処理モードが選択されると、携帯端末10は、たとえば画像閲覧などのアプリケーションを実行する情報処理装置として機能する。詳しくは、上述のホームページから抽出した画像データや、図示しないカメラで撮像された画像データなどがフラッシュメモリ36に保存されており、CPU24は、フラッシュメモリ36から画像データを取得して、タッチ画面TSに対し、それらのサムネイル画像を一覧表示させたり、選択されたサムネイル画像に対応する拡大画像を表示させたりする。
また、CPU24は、こうしてタッチ画面TSにアプリケーションの画像(I:図4参照)が表示された状態で、タッチ画面TSに対する画像Iの表示方向(DrI:図4参照)を慣性センサ38の感知結果に基づき回転させる制御を行う。
具体的には、携帯端末10が図4(A)に示されるように縦持ちされた状態から、図4(B)に示されるように横持ちされた状態に変化すると、CPU24は、慣性センサ38の感知結果に基づき携帯端末10の向きDrSが縦向きから横向きに変化したと判定して、画像Iの表示方向DrIを携帯端末10の向きDrSと交差(典型的には直交または略直交)する方向に回転させる。このような表示方向制御によって、ユーザUrが携帯端末10を横持ちしても、画像IはユーザUrから正立して見えるようになる。
ところが、図3(A)に示されるように携帯端末10を縦持ちししたユーザUrが、図3(B)に示されるように携帯端末10を縦持ちしたまま床Frの上に横たわると、慣性センサ38の感知結果に基づいて、携帯端末10の向きDrSが縦向きから横向きに変化したと判定され、それに応じて、画像Iの表示方向DrIは、図4(B)のように、携帯端末10の向きDrSと交差する方向に回転される。
しかし、このときユーザUrの体もタッチ画面TSと同じく横向きになっているので、画像IはユーザUrから倒れて見える結果となる。そして、携帯端末10を横持ちししたユーザUrが寝転んでも、これと同種の不都合が起こる。つまり、ユーザUrが寝転ぶと、それまで正立して見えていた画像Iが、表示方向制御により倒れて見える結果となり、却って視認性が悪化する可能性がある。
そこで、この実施例では、ユーザUrが横たわって携帯端末10を使いたい場合には、横たわる前に、2本の指先で同時または略同時にタッチ画面TSにタッチし、横たわる動作中その2点タッチ状態を維持して、横たわった後に2点タッチ状態を解除するようなタッチ操作(これを「2点ロングタッチ操作」と呼ぶ)を行うことで、画像Iのタッチ画面TSに対する回転が禁止されるように制御している。
つまり、この実施例の表示方向制御は、携帯端末10の向きDrSが変化したとき、タッチ画面TSが2点ロングタッチ以外の状態であれば、画像IをユーザUrから正立して見えるように回転させるが、タッチ画面TSが2点ロングタッチ状態であれば、このような携帯端末10の向きDrSの変化(つまり携帯端末10の姿勢変化)に応じた画像Iの回転を禁止(固定)することで、ユーザUrが寝転んでも画像Iは正立して見える点に特徴がある。
図5には、ユーザUrが2点ロングタッチ操作を行いながら横たわった後、2点ロングタッチ操作を解除し、そして再び2点ロングタッチ操作を行いながら起き上る場合の、表示方向制御の一例が示される。図5(A)は2点ロングタッチしながら横たわる前のタッチ画面TSの表示態様を、図5(B)は2点ロングタッチしながら横たわった後のタッチ画面TSの表示態様を、図5(C)は2点ロングタッチしながら横たわった後に(横たわった状態で)2点ロングタッチを解除するときのタッチ画面TSの状態を、図5(D)は再び2点ロングタッチしながら起き上る前のタッチ画面TSの表示態様を、そして図5(E)は2点ロングタッチしながら起き上った後のタッチ画面TSの表示態様を、それぞれ示す。
まず、図5(A)を参照して、最初、ユーザUrは、図3(A)に示されるように、床Frに立っており(または座っており)、右手で携帯端末10を縦持ちしている。慣性センサ38の感知結果から、携帯端末10の向きDrSは縦向きと判定され、画像Iの表示方向DrIは携帯端末10の向きDrSに沿っている(一致している)。ユーザUrは、横たわる前、左手の人差し指と中指で同時または略同時に、タッチ画面TSにタッチする。
次に、図5(B)を参照して、その後、ユーザUrが、縦持ちかつ2点同時タッチ状態を維持したまま横たわると、慣性センサ38の感知結果から、携帯端末10の向きDrSが縦向きから横向きに変化したと判定される。しかし、このとき、タッチ画面TSは2点ロングタッチ状態を検知しているので、画像Iの表示方向DrIは、携帯端末10の向きDrSに沿ったままに維持される。したがって、画像Iは、タッチ画面TSと同じく横向きになったユーザUrから正立して見える。
次に、図5(C)を参照して、ユーザUrが横たわった後、2点ロングタッチを解除しても、画像Iの表示方向DrIは携帯端末10の向きDrSに沿ったままに維持される。つまり、ユーザUrが横たわった後、慣性センサ38の感知結果は、携帯端末10の向きDrSが縦向きであることを持続的に示すが、画像Iの回転は、携帯端末10の向きDrSのリアルタイムな変化をトリガとして実行されるので、携帯端末10の向きDrSが縦向きに維持されている限り、画像Iが回転することはない。
次に、図5(D)を参照して、その後、ユーザUrは、起き上がろうとするとき、つまり横向きから縦向きに戻る前、再び人差し指と中指で同時または略同時に、タッチ画面TSにタッチする。
次に、図5(E)を参照して、その後、ユーザUrが、2点同時タッチ状態を維持したまま起き上がると、慣性センサ38の感知結果から、携帯端末10の向きDrSが横向きから縦向きに変化したと判定される。しかし、このとき、タッチ画面TSは2点ロングタッチ状態を検知しているので、画像Iの表示方向DrIは、携帯端末10の向きDrSに維持される。したがって、画像Iは、タッチ画面TSと同じく縦向きに戻ったユーザUrから正立して見える。
なお、図5(C)の後、ユーザUrが起き上がるとき、図6(A)のように、もし2点ロングタッチを行わなかったとすると、画像Iの表示方向DrIは、たとえば図6(B)のように、携帯端末10の向きDrSと交差する向きに回転される。したがって、画像Iは、タッチ画面TSと同じく縦向きに戻ったユーザUrから倒れて見える結果となる。
以上のようなアプリケーション処理モードにおける表示方向制御は、たとえば、メインメモリ34に記憶された図7に示す各種のプログラム(52〜56)およびデータ(62〜74)に基づいて、CPU24が図8に示すフローに従う処理を実行することにより実現される。
詳しくは、まず図7を参照して、メインメモリ34はプログラム領域50およびデータ領域60を含み、プログラム領域50にはアプリケーションプログラム52,表示方向制御プログラム54および入出力制御プログラム56などが、データ領域60には画面の向きフラグ62,タッチ状態フラグ64,画像の表示方向フラグ66および画像データ68などが、それぞれ記憶される。
なお、図示は省略するが、プログラム領域50には、先述した通話モードやデータ通信モードなどを実現するための各種制御プログラムも記憶される。
アプリケーションプログラム52は、画像閲覧などのアプリケーション処理をCPU24に実行させるためのプログラムである。表示方向制御プログラム54は、アプリケーションプログラム52によるアプリケーション処理を通じてタッチ画面TSに表示された画像Iの表示方向DrIを、慣性センサ38の感知結果とタッチパネル32の検知結果に基づき制御するためのプログラムであり、図8のフローチャートに対応する。
入出力制御プログラム56は、主としてタッチ画面TSに対する入出力、つまりタッチパネル32からの入力およびディスプレイ30への出力を制御するためのプログラムであり、より具体的には、タッチパネル32からの信号に基づいて、タッチパネル32に指などがタッチしている状態(タッチ状態)か何もタッチしていない状態(非タッチ状態)かを判別したり、タッチ位置つまりタッチ点Pの座標(図4参照)を検出したりする。また、アプリケーションプログラム52と共働して、ディスプレイ30にアプリケーションの画像を表示したり、慣性センサ38の感知結果に基づき携帯端末10の向きDrSを判別したりもする。
そして特に、この実施例のタッチパネル32は、少なくとも2点への同時タッチの検出が可能であり、入出力制御プログラム56は、タッチパネル32で検出される1点または同時に検出される2点のタッチ座標もしくはそれらの変化に基づいて、タップ操作,ダブルタップ操作,1点へのロングタッチ操作,スライド操作,フリック操作およびピンチ操作の判別が行える。また、こうした既存のタッチ操作と、先述したような携帯端末10の向きDrSの変化に応じた回転を禁止するための2点へのロングタッチ操作との区別も行える。
画面の向きフラグ62は、携帯端末10の向きDrSを示すフラグであり、入出力制御プログラム56によって、慣性センサ38の感知結果に基づき、縦向き(重力方向の反対の向き)を示す“1”と、横向き(重力方向と直交する向き)を示す“0”との間で制御される。
タッチ状態フラグ64は、タッチ画面TSへのタッチ状態を示すフラグであり、入出力制御プログラム56によって、タッチパネル32の出力に基づき、2点ロングタッチ状態を示す“1”と、2点ロングタッチ以外の状態(無タッチ状態や1点ロングタッチなど通常のタッチ状態)を示す“0”との間で制御される。
画像の表示方向フラグ66は、タッチ画面TSに対する画像Iの表示方向DrIを示すフラグであり、表示方向制御プログラム54によって、タッチ画面TSに沿う(タッチ画面TSと平行または略平行な)方向を示す“1”と、タッチ画面TSと交差(直交または略直交)する方向を示す“0”との間で制御される。
画像データ68は、アプリケーション処理の対象または結果を示す画像Iの画像データであり、アプリケーションプログラム52によってデータ領域60に書き込まれた後、表示方向制御プログラム54の制御下で入出力制御プログラム56によってデータ領域60から読み出されてドライバ28に与えられることで、ディスプレイ30に画像Iが図4(A),図4(B),図5(A)−図5(E)に示すような態様で表示される。
たとえば、図4(B)では、画像Iは、タッチ画面TSに対して90度回転され、かつタッチ画面TSの横幅に合うようにリサイズされているが、このような表示態様(横持ち表示態様)は、たとえば、データ領域60から画像データ68を読み出してドライバ28に与える際に、読出し方向を変更し、かつ間引き読み出しを行うことで実現される。
図8には、CPU24による表示方向制御処理のフローが示される。図9には、メインメモリ34に記憶された各種フラグ(62−66)の遷移が示される。なお、図8のフローと図9のフラグ遷移は、図4(A),図4(B),図5(A)−図5(E),図6(A),図6(B)に示す表示態様間の変化に対応している。
携帯端末10の姿勢変化が慣性センサ38で感知されると、図8のフローがスタートする。最初、CPU24は、ステップS1で、タッチ画面TSの状態が2点ロングタッチ状態であるか否かをタッチ状態フラグ64に基づき判別する。タッチ状態フラグ64が“0”であれば、ステップS1でNO(2点ロングタッチ以外の状態である)と判別され、ステップS3に進む。タッチ状態フラグ64が“1”であれば、ステップS1でYES(2点ロングタッチ状態である)と判別され、ステップS5に進む。
ステップS3では、CPU24は、画像の表示方向フラグ66の値を変更することで、タッチ画面TSに対する画像Iの表示方向DrIを切り替える。その後、このフローを終了する。ステップS5では、こうした表示方向の切り替えを実行することなく、このフローを終了する。
したがって、姿勢変化が感知された時点で2点ロングタッチ操作中でなければ、表示方向の切り替えが実行される。しかし、姿勢変化が感知された時点で2点ロングタッチ操作中であれば、(言い換えると、2点ロングタッチ操作中にタッチ画面TSを横向きにしても、)表示方向の切り替えは実行されないし、姿勢変化後に2点ロングタッチ操作が解除されても、次回の姿勢変化が感知されるまでは表示方向が切り替わることはない。
具体的には、図9も参照して、図4(A)のような縦持ち表示態様は、画面の向きフラグ62が“1”(携帯端末10の向きDrSが縦向きの状態),タッチ状態フラグ64が“0”(タッチ画面TSが2点ロングタッチ以外の状態),そして画像の表示方向フラグ66が“1”(画像Iの表示方向DrIが携帯端末10の向きDrSに沿っている状態)で表現される。
縦持ち使用から横持ち使用に変化すると、(または、ユーザUrが2点ロングタッチ操作なしで横たわると、)画面の向きフラグ62が“1”から“0”(携帯端末10の向きDrSが横向きの状態)に変化し、これをトリガに図8のフローがスタートするが、タッチ状態フラグ64は“0”のままなので、CPU24は、ステップS1でNOと判別し、画像の表示方向フラグ66を“1”から“0”に切り替える。これにより、図4(B)のような横持ち表示態様への切り替えが実現される。
他方、図5(A)のような、縦持ちで2点ロングタッチしながら横たわる前の表示態様は、画面の向きフラグ62が“1”,タッチ状態フラグ64が“1”(タッチ画面TSが2点ロングタッチの状態),そして画像の表示方向フラグ66が“1”で表現される。
ユーザUrが横たわると、画面の向きフラグ62が“1”から“0”に変化し、これをトリガに図8のフローがスタートするが、タッチ状態フラグ64は“1”のままなので、CPU24は、ステップS1でYESと判別し、ステップS5に進んで画像の表示方向フラグ66を“1”のまま維持する。これにより、画像Iの表示方向DrIの回転禁止が働き、図5(B)のような、ユーザUrが図3(B)のように寝転んで見るのに適した表示態様が実現される。
そして、横たわった後は(つまり横たわった状態では)、図5(C)に示されるように、2点ロングタッチを解除してよい。すなわち、横たわったまま2点ロングタッチが解除されると、タッチ状態フラグ64は“1”から“0”に変化するが、画面の向きフラグ62は“0”のままなので、図8のフローが再スタートすることはない。このため、画像の表示方向フラグ66は“1”のまま維持され、画像Iの向きDrIが変わることはない。
また、横たわった後に起き上がる際にも、図5(D),図5(E)に示すように2点ロングタッチ操作を行えば、姿勢変化に応じた画像Iの回転を止めることができる。すなわち、ユーザUrが2点ロングタッチを行いながら起き上ると、画面の向きフラグ62が“0”から“1”に変化し、図8のフローが再スタートする。この場合、タッチ状態フラグ64が“1”なので、ステップS1の判別結果はYESとなり、ステップS5に進んで、画像の表示方向フラグ66も“1”のまま維持される結果、画像Iの向きDrIが切り替わることはなく、画像IはユーザUrから正立して見える。
なお、起き上がる際に2点ロングタッチを行わなかったとすると、たとえば図6(A),図6(B)に示すような、姿勢変化に応じた画像Iの回転が起こる。具体的には、ユーザUrがタッチ画面TSに2点ロングタッチしていない状態で起き上ると、画面の向きフラグ62が“0”から“1”に変化し、図8のフローが再スタートする。この場合、タッチ状態フラグ64が“0”なので、ステップS1でNOとなり、ステップS3に進んで、画像の表示方向フラグ66が“0”から“1”に変化する結果、画像Iの表示方向DrIが切り替わり、画像IはユーザUrから倒れて見えるようになる。
以上から明らかなように、この実施例では、携帯端末10は、画像Iを表示し、かつ、当該画像Iに関連するタッチ操作を受け付け可能なタッチ画面TSと、携帯端末10の向きDrSの変化を感知する慣性センサ38とを有する。
このような携帯端末10のCPU24は、メインメモリ34に記憶された表示方向制御プログラム54の制御下で、以下の処理を行う。すなわち、携帯端末10の向きDrSが変化したとき、タッチ画面TSに対して2点ロングタッチ操作が行われている状態か否かを判別し(S1)、2点ロングタッチ操作が行われている状態ではないと判別された場合に、慣性センサ38の感知結果に基づく画像Iの表示方向DrIの回転を行う(S1:NO→S3)。したがって、ユーザUrが携帯端末10の姿勢(横持ち/縦持ち)を変化させた場合には、画像Iの表示方向DrIが回転するので、画像IがユーザUrから正立して見える状態を維持できる。
他方、2点ロングタッチ操作が行われている状態であると判別された場合には、慣性センサ38の感知結果に基づく画像Iの表示方向DrIの回転を禁止する(S1:YES→S5)。したがって、ユーザUrは、横たわった状態で画像Iを見たい場合、2点ロングタッチ操作を行いながら横たわれば、慣性センサ38の感知結果に基づく画像Iの表示方向DrIの回転は禁止され、画像IがユーザUrから倒れて見える視認性の悪さを解消できる。
すなわち、この実施例によれば、ユーザUrは、2点ロングタッチ操作を行いながら横たわると、画像Iの表示方向DrIの回転を禁止できるので、横たわる前にモード切り替え等の操作を行う必要がない。このため、横たわって画像を見る場合の視認性および操作性が向上する。
好ましくは、CPU24は、2点ロングタッチ操作が行われている状態であると判別された場合に、慣性センサ38の感知結果に基づく画像Iの表示方向DrIの回転を、次回、携帯端末10の向きDrSが変化するまでの間禁止する。したがって、慣性センサ38の感知結果に基づく画像Iの表示方向DrIの回転は、次回、携帯端末10の向きDrSが変化するまでの間禁止されるので、ユーザUrが横たわった後に2点ロングタッチ操作を解除しても、起き上がったり、携帯端末10の姿勢(横持ち/縦持ち)を変えたりしない限りは、画像Iの表示方向DrIが回転することはない。このため、横たわる動作が完了した後は、2点ロングタッチ操作を継続する必要がないため、2点ロングタッチ操作を行っていた指で2点ロングタッチ操作以外のタッチ操作(たとえばタップ操作,フリック操作,スライド操作,ピンチ操作など)を行うことができる。
ところで、上記の実施例では、ユーザUrが2点ロングタッチ操作なしで起き上がって、図6(A),図6(B)に示すような画像Iの回転が起こった場合には、図6(B)の表示態様を図4(A)の表示態様に戻す(つまり画像Iの表示方向DrIを携帯端末10の向きDrSと揃える)ためのリセット操作等が必要となる可能性があり、面倒である。
この点、次に説明する変形例では、図10(A),図10(B)に示すように、ユーザUrが2点ロングタッチ操作なしで起き上がっても、画像Iの回転を止めるように制御している。
図11には、この変形例での表示方向制御処理のフローが示される。図12には、この変形例での各種フラグ(62−66)の遷移が示される。なお、図11のフローと図12のフラグ遷移は、図4(A),図4(B),図5(A)−図5(E),図10(A),図10(B)に示す表示態様間の変化に対応している。
図11のフローは、図8のフローにステップS1aおよびS1bを追加したものであり、図8のフローと同様、姿勢変化の感知をトリガとしてスタートする。姿勢変化が感知されると、最初、CPU24は、ステップS1aで、当該姿勢変化が横向きから縦向きへの変化であるか否かを判別する。そして、ステップS1aでYES(横向きから縦向きへの変化)であればステップS1bに進み、ステップS1aでNO(縦向きから横向きへの変化)であればステップS1に進む。
ステップS1bでは、画像Iの表示方向DrIが携帯端末10の向きDrSに沿っている(典型的には互いに同じまたは略同じ向きである)か否かを判別する。そして、ステップS1bでYES(携帯端末10の向きDrSと画像Iの表示方向DrIとが対応している)と判別された場合はステップS5に進み、ステップS1bでNO(画像Iの表示方向DrIが携帯端末10の向きDrSと交差している)と判別された場合はステップS1に進む。なお、ステップS3,S5で実行される処理自体は、前述のものと同様であり、説明を省略する。
したがって、まず、ユーザUrが寝転んだ場合は、ステップS1aでNOと判別されて、ステップS1に進むので、図8のフローと同様の処理が実行されることになる。
次に、ユーザUrが起き上がった場合は、ステップS1aでYESと判別されてステップS1bに進み、画像Iの表示方向DrIが携帯端末10の向きDrSに沿っているか否か(交差しているか)が判別される。そして、画像Iの表示方向DrIが携帯端末10の向きDrSに沿っている場合は、ステップS1(2点ロングタッチ状態か否かの判別)をスキップしてステップS5が実行されるので、図5(D),図5(E)のように2点ロングタッチしながら起き上がっても、図10(A),図10(B)のように2点ロングタッチ操作なしで起き上がっても、画像Iの表示方向DrIの回転は禁止され、画像IがユーザUrから正立して見える状態を維持することができる。
他方、画像Iの表示方向DrIが携帯端末10の向きDrSと交差(典型的には直交または略直交)している場合は、ステップS1に進んで、図8のフローと同様の処理が実行されるので、ユーザUrが立ったまま、図4(B)のような横持ち使用から、図4(A)のような縦持ち使用へ復帰する際にも、画像IがユーザUrから正立して見えている状態を維持することができる。
なお、もし横持ち使用から縦持ち使用へ復帰する際に2点ロングタッチ操作を行ったとすると、姿勢変化に応じた画像Iの回転が禁止される結果、図4(B)から図6(B)のように変化する。この場合もリセット操作が必要になる可能性があるが、横持ち使用から縦持ち使用へ復帰する際に、誤って2点ロングタッチ操作を行うことは通常考え難いので、特に問題とはならない。
以上から明らかなように、この変形例では、CPU24は、携帯端末10の向きDrSの変化が横向きから縦向きへの変化である場合に、画像Iの表示方向DrIが当該携帯端末10の向きDrSに沿っているか交差しているかを判別する(S1a:YES→S1b)。そして、画像Iの表示方向DrIが携帯端末10の向きDrSに沿っていると判別された場合には、当該タッチ画面TSに対して2点ロングタッチ操作が行われている状態であるか否かに関わらず、画像Iの表示方向DrIの回転を禁止する(S1b:YES→S5)。なお、ここで画像Iの表示方向DrIが携帯端末10の向きDrSに「沿っている」とは、画像Iの表示方向DrIと携帯端末10の向きDrSとが同じまたは略同じ(平行または略平行)である状態をいい、「交差している」とは、両者が直交または略直交している状態をいう。
先述の実施例では、ユーザUrが2点ロングタッチ操作を行いながら横たわった後に起き上がる場合、もし2点ロングタッチ操作なしで起き上がったとすると、画像Iの表示方向DrIが回転して、画像IがユーザUrから倒れて見える(図6(A)→図6(B))可能性があったが、この変形例では、2点ロングタッチ操作を行いながら起き上っても(図5(D)→図5(E))、2点ロングタッチ操作なしで起き上がっても(図10(A)→図10(B))、画像Iの表示方向DrIの回転が禁止されるので、画像IがユーザUrから倒れて見えることがなくなる。したがってまた、実施例では、2点ロングタッチ操作なしで起き上がった場合に必要となるであろう、画像Iの表示方向DrIを携帯端末10の向きDrSと揃えるためのリセット操作等も、変形例では無用であるため、視認性および操作性が一層向上する。
好ましくは、CPU24は、携帯端末10の向きの変化が縦向きから横向きへの変化である場合には、画像Iの表示方向DrIが携帯端末10の向きDrSに沿っているか交差しているかに関わらず、タッチ画面TSに対して2点ロングタッチ操作が行われている状態か否かの判別を行う(S1a:NO→S1)。したがって、ユーザUrが横たわる際、画像Iの表示方向DrIが携帯端末10の向きに沿っているか交差しているかに関わらず、2点ロングタッチ操作が行われている状態か否かの判別を行うので、縦持ち表示態様から横持ち表示態様に変化させたり(図4(A)→図4(B))、2点ロングタッチ操作なしで起き上がった後の表示態様から、2点ロングタッチ操作なしで起き上がる前の表示態様に戻したり(図6(B)→図6(A))できる。
より好ましくは、CPU24は、携帯端末10の向きDrSの変化が横向きから縦向きへの変化であり、かつ画像Iの表示方向DrIが携帯端末10の向きDrSと交差していると判別された場合に、タッチ画面TSに対して2点ロングタッチ操作が行われている状態か否かの判別を行う(S1a:YES→S1b:NO→S1)。したがって、ユーザUrが起き上がる際、画像Iの表示方向DrIが携帯端末10の向きDrSと交差している場合に、タッチ画面TSに対して2点ロングタッチ操作が行われている状態か否かの判別を行うので、2点ロングタッチ操作の有無によって、横持ち表示態様を縦持ち表示態様に変化させたり(図4(B)→図4(A))、縦持ちになっても横持ち表示態様を維持したり(図4(B)→図6(B))できる。
これにより、ユーザUrが横たわったり起き上がったりする際に、2点ロングタッチ操作を利用して、多様な表示方向制御を行えるようになる。
なお、実施例や変形例では、2点ロングタッチ操作によって画像Iの回転を禁止したが、画像Iの回転を禁止するためのタッチ操作は、携帯端末10で通常用いられるタッチ操作(たとえばタップ操作,ダブルタップ操作,1点へのロングタッチ操作,スライド操作,フリック操作およびピンチ操作など)のいずれとも区別可能な操作であれば、どのようなタッチ操作でもよい。
なお、以上では、一例としてアプリケーション処理モードでの表示方向制御を説明したが、データ通信モードやその他のモードでも同種の表示方向制御が行われてよい。
なお、実施例および変形例の携帯端末10は、典型的にはスマートフォンであるが、慣性センサ(加速度センサ,ジャイロスコープなど)とタッチ画面(タッチパネル付きの液晶ディスプレイなど)とコンピュータ(CPU,メモリなど)を有するものであれば、とのような携帯端末でもよい(たとえばタブレットPC,携帯情報端末,携帯電話機など)。
10 …携帯端末
14 …無線通信回路
24 …CPU
30 …ディスプレイ
32 …タッチパネル
34 …メインメモリ
38 …慣性センサ
TS …タッチ画面
DrS …携帯端末の向き
I …画像
DrI …画像の表示方向

Claims (9)

  1. 携帯端末において、
    画像を表示し、かつ、当該画像に関連するタッチ操作を受け付け可能なタッチ画面、
    前記携帯端末の向きの変化を感知するセンサ、
    前記センサで前記携帯端末の向きの変化が感知されたとき、前記タッチ画面に対して特定タッチ操作が行われている状態か否かを判別する状態判別部、
    前記状態判別部によって特定タッチ操作が行われている状態ではないと判別された場合に、前記画像の表示方向を前記センサの感知結果に基づき回転させる回転部、および
    前記状態判別部によって特定タッチ操作が行われている状態であると判別された場合に、前記回転部による前記画像の表示方向の回転を禁止する、回転禁止部を備える、携帯端末。
  2. 前記回転禁止部は、前記状態判別部によって特定タッチ操作が行われている状態であると判別された場合に、前記回転部による回転を、次回、前記携帯端末の向きが変化するまでの間禁止する、請求項1記載の携帯端末。
  3. 前記携帯端末の向きの変化が横向きから縦向きへの変化である場合に、前記画像の表示方向が当該携帯端末の向きに沿っているか交差しているかを判別する、表示方向判別部をさらに備え、
    前記回転禁止部は、前記表示方向判別部によって前記画像の表示方向が前記携帯端末の向きに沿っていると判別された場合には、前記タッチ画面に対して特定タッチ操作が行われている状態であるか否かに関わらず、前記回転部による回転を禁止する、請求項1または2記載の携帯端末。
  4. 前記状態判別部は、前記携帯端末の向きの変化が縦向きから横向きへの変化である場合には、前記画像の表示方向が前記携帯端末の向きに沿っているか交差しているかに関わらず、前記タッチ画面に対して特定タッチ操作が行われている状態か否かの判別を行う、請求項3記載の携帯端末。
  5. 前記状態判別部は、前記携帯端末の向きの変化が横向きから縦向きへの変化であり、かつ前記表示方向判別部によって前記画像の表示方向が前記携帯端末の向きと交差していると判別された場合に、前記タッチ画面に対して特定タッチ操作が行われている状態か否かの判別を行う、請求項3記載の携帯端末。
  6. 前記特定タッチ操作は、タップ操作,ダブルタップ操作,1点へのロングタッチ操作,スライド操作,フリック操作およびピンチ操作のいずれとも区別可能な操作である、請求項1ないし5のいずれかに記載の携帯端末。
  7. 前記特定タッチ操作は、少なくとも2点へのロングタッチ操作である、請求項1ないし6のいずれかに記載の携帯端末。
  8. 画像を表示し、かつ、当該画像に関連するタッチ操作を受け付け可能なタッチ画面と、当該携帯端末の向きの変化を感知するセンサとを有する携帯端末のコンピュータを、
    前記センサで前記携帯端末の向きの変化が感知されたとき、前記タッチ画面に対して特定タッチ操作が行われている状態か否かを判別する状態判別部、
    前記状態判別部によって特定タッチ操作が行われている状態ではないと判別された場合に、前記画像の表示方向を前記センサの感知結果に基づき回転させる回転部、および
    前記状態判別部によって特定タッチ操作が行われている状態であると判別された場合に、前記回転部による前記画像の表示方向の回転を禁止する、回転禁止部として機能させる、表示方向制御プログラム。
  9. 画像を表示し、かつ、当該画像に関連するタッチ操作を受け付け可能なタッチ画面と、当該携帯端末の向きの変化を感知するセンサとを有する携帯端末によって行われる表示方向制御方法であって、
    前記センサで前記携帯端末の向きの変化が感知されたとき、前記タッチ画面に対して特定タッチ操作が行われている状態か否かを判別する状態判別ステップ、
    前記状態判別ステップによって特定タッチ操作が行われている状態ではないと判別された場合に、前記画像の表示方向を前記センサの感知結果に基づき回転させる回転ステップ、および
    前記状態判別ステップによって特定タッチ操作が行われている状態であると判別された場合に、前記回転ステップによる前記画像の表示方向の回転を禁止する、回転禁止ステップを含む、表示方向制御方法。
JP2013156245A 2013-07-29 2013-07-29 携帯端末ならびに表示方向制御プログラムおよび方法 Pending JP2015026297A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013156245A JP2015026297A (ja) 2013-07-29 2013-07-29 携帯端末ならびに表示方向制御プログラムおよび方法
PCT/JP2014/069930 WO2015016214A1 (ja) 2013-07-29 2014-07-29 携帯端末ならびに表示方向制御方法
US15/010,294 US20160147313A1 (en) 2013-07-29 2016-01-29 Mobile Terminal and Display Orientation Control Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013156245A JP2015026297A (ja) 2013-07-29 2013-07-29 携帯端末ならびに表示方向制御プログラムおよび方法

Publications (1)

Publication Number Publication Date
JP2015026297A true JP2015026297A (ja) 2015-02-05

Family

ID=52431746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013156245A Pending JP2015026297A (ja) 2013-07-29 2013-07-29 携帯端末ならびに表示方向制御プログラムおよび方法

Country Status (3)

Country Link
US (1) US20160147313A1 (ja)
JP (1) JP2015026297A (ja)
WO (1) WO2015016214A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073127A (ja) * 2015-10-05 2017-04-13 キヤノン株式会社 表示制御装置、その制御方法およびプログラム
JP2017162511A (ja) * 2017-06-02 2017-09-14 Necプラットフォームズ株式会社 表示端末、表示方法及び表示プログラム
JP2018160081A (ja) * 2017-03-22 2018-10-11 日本電気株式会社 画像表示制御装置、画像表示制御方法、及びプログラム
CN111459380A (zh) * 2020-03-30 2020-07-28 Oppo广东移动通信有限公司 一种画面旋转控制方法、装置、存储介质和显示设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007800B (zh) * 2019-04-10 2020-11-10 广州视源电子科技股份有限公司 一种触摸操作模式的控制方法、装置、设备及存储介质
US11023124B1 (en) * 2019-12-18 2021-06-01 Motorola Mobility Llc Processing user input received during a display orientation change of a mobile device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139711A (ja) * 2006-12-05 2008-06-19 Lenovo Singapore Pte Ltd 携帯式電子機器、画面の表示方向の変更方法、プログラムおよび記憶媒体
US20080266326A1 (en) * 2007-04-25 2008-10-30 Ati Technologies Ulc Automatic image reorientation
JP2010113503A (ja) * 2008-11-06 2010-05-20 Sharp Corp 携帯端末装置
JP2012070381A (ja) * 2010-09-08 2012-04-05 Apple Inc 肖像画から風景画へのカメラに基づく方向固定
JP2012093897A (ja) * 2010-10-26 2012-05-17 Kyocera Corp 携帯端末、画面方向制御プログラムおよび画面方向制御方法
US20120133678A1 (en) * 2010-11-30 2012-05-31 Samsung Electronics Co., Ltd. Apparatus and method for controlling screen conversion in portable terminal
WO2012114592A1 (ja) * 2011-02-21 2012-08-30 Necカシオモバイルコミュニケーションズ株式会社 表示装置、表示制御方法およびプログラム
US20120223892A1 (en) * 2011-03-03 2012-09-06 Lenovo (Singapore) Pte. Ltd. Display device for suspending automatic rotation and method to suspend automatic screen rotation
JP2013069297A (ja) * 2011-09-23 2013-04-18 Samsung Electronics Co Ltd 携帯端末で自動画面回転を防止するための装置及び方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052062A (ja) * 2006-08-24 2008-03-06 Ricoh Co Ltd 表示装置、表示装置の表示方法、プログラム及び記録媒体
US7978176B2 (en) * 2007-01-07 2011-07-12 Apple Inc. Portrait-landscape rotation heuristics for a portable multifunction device
US8068121B2 (en) * 2007-06-29 2011-11-29 Microsoft Corporation Manipulation of graphical objects on a display or a proxy device
JP5661267B2 (ja) * 2009-09-25 2015-01-28 キヤノン株式会社 放射線撮影装置、制御装置、制御方法及び記憶媒体
JP5189197B1 (ja) * 2011-10-27 2013-04-24 シャープ株式会社 携帯情報端末
US20130222247A1 (en) * 2012-02-29 2013-08-29 Eric Liu Virtual keyboard adjustment based on user input offset
JP5972629B2 (ja) * 2012-03-27 2016-08-17 京セラ株式会社 装置、方法、及びプログラム
JP6041575B2 (ja) * 2012-08-23 2016-12-14 キヤノン株式会社 画像表示装置、その制御方法、および制御プログラム
JP5842062B2 (ja) * 2012-08-24 2016-01-13 株式会社Nttドコモ 画像の表示方向を制御する装置およびプログラム
US8830206B2 (en) * 2012-10-05 2014-09-09 Dell Products, Lp Systems and methods for locking image orientation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139711A (ja) * 2006-12-05 2008-06-19 Lenovo Singapore Pte Ltd 携帯式電子機器、画面の表示方向の変更方法、プログラムおよび記憶媒体
US20080266326A1 (en) * 2007-04-25 2008-10-30 Ati Technologies Ulc Automatic image reorientation
JP2010113503A (ja) * 2008-11-06 2010-05-20 Sharp Corp 携帯端末装置
JP2012070381A (ja) * 2010-09-08 2012-04-05 Apple Inc 肖像画から風景画へのカメラに基づく方向固定
JP2012093897A (ja) * 2010-10-26 2012-05-17 Kyocera Corp 携帯端末、画面方向制御プログラムおよび画面方向制御方法
US20120133678A1 (en) * 2010-11-30 2012-05-31 Samsung Electronics Co., Ltd. Apparatus and method for controlling screen conversion in portable terminal
WO2012114592A1 (ja) * 2011-02-21 2012-08-30 Necカシオモバイルコミュニケーションズ株式会社 表示装置、表示制御方法およびプログラム
US20120223892A1 (en) * 2011-03-03 2012-09-06 Lenovo (Singapore) Pte. Ltd. Display device for suspending automatic rotation and method to suspend automatic screen rotation
JP2013069297A (ja) * 2011-09-23 2013-04-18 Samsung Electronics Co Ltd 携帯端末で自動画面回転を防止するための装置及び方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073127A (ja) * 2015-10-05 2017-04-13 キヤノン株式会社 表示制御装置、その制御方法およびプログラム
JP2018160081A (ja) * 2017-03-22 2018-10-11 日本電気株式会社 画像表示制御装置、画像表示制御方法、及びプログラム
JP2017162511A (ja) * 2017-06-02 2017-09-14 Necプラットフォームズ株式会社 表示端末、表示方法及び表示プログラム
CN111459380A (zh) * 2020-03-30 2020-07-28 Oppo广东移动通信有限公司 一种画面旋转控制方法、装置、存储介质和显示设备

Also Published As

Publication number Publication date
WO2015016214A1 (ja) 2015-02-05
US20160147313A1 (en) 2016-05-26

Similar Documents

Publication Publication Date Title
US9465454B2 (en) Mobile terminal device, storage medium, and method for display control of mobile terminal device
JP5922480B2 (ja) 表示機能を備える携帯機器、プログラムおよび表示機能を備える携帯機器の制御方法
JP6151157B2 (ja) 電子機器および制御プログラム並びに電子機器の動作方法
JP5983503B2 (ja) 情報処理装置及びプログラム
JP5174704B2 (ja) 画像処理装置および画像処理方法
WO2015016214A1 (ja) 携帯端末ならびに表示方向制御方法
JP5189197B1 (ja) 携帯情報端末
KR101020029B1 (ko) 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서터치를 이용한 키 입력 방법
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
WO2014104033A1 (ja) 携帯端末装置、画面制御方法およびプログラム
JP5371002B2 (ja) 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
JP2009284468A (ja) 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
US9542019B2 (en) Device, method, and storage medium storing program for displaying overlapped screens while performing multitasking function
CN103970443A (zh) 一种终端及终端显示控制方法
JP5854928B2 (ja) タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法
KR20150081657A (ko) 휴대 단말 및 그 제어 방법
JP2013041378A (ja) 携帯電子機器、制御方法、および、制御プログラム
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
WO2014192878A1 (ja) 携帯機器および携帯機器における制御方法
JP2014006799A (ja) 電子機器
JP6130922B2 (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
JP2013165334A (ja) 携帯端末装置
JP5993802B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP2014222379A (ja) 情報端末、タッチ操作処理方法及びプログラム
JP6408641B2 (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170926