JP6514061B2 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP6514061B2
JP6514061B2 JP2015148815A JP2015148815A JP6514061B2 JP 6514061 B2 JP6514061 B2 JP 6514061B2 JP 2015148815 A JP2015148815 A JP 2015148815A JP 2015148815 A JP2015148815 A JP 2015148815A JP 6514061 B2 JP6514061 B2 JP 6514061B2
Authority
JP
Japan
Prior art keywords
displayed
display
thumbnail
display screen
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015148815A
Other languages
English (en)
Other versions
JP2017027563A (ja
Inventor
佳奈 政木
佳奈 政木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2015148815A priority Critical patent/JP6514061B2/ja
Priority to US15/215,429 priority patent/US20170031580A1/en
Publication of JP2017027563A publication Critical patent/JP2017027563A/ja
Application granted granted Critical
Publication of JP6514061B2 publication Critical patent/JP6514061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本開示の複数の実施態様は、電子機器に関する。
近年、パーソナルコンピュータ、携帯端末(携帯電話機、タブレット端末、携帯ゲーム機など)などの電子機器は、例えば、サムネイル、アイコン、アプリケーション、画像などのオブジェクトを表示する機能を備えている。
例えば、特許文献1には、画像をタッチ操作により拡大操作可能である電子機器が記載されている。
特開2013−114558公報
オブジェクトを表示できる電子機器には、さらなる操作性の改善が要求されている。本開示は、表示されたオブジェクトに対して簡易な操作により特定の処理を実行可能な電子機器を提供することを目的とする。
本開示の一実施形態にかかる電子機器は、表示画面と、制御部と、を有する。前記表示画面は、第一のオブジェクトと第二のオブジェクトとを表示できる。制御部は、前記第一のオブジェクトと前記第二のオブジェクトと、前記表示画面に表示させる制御部と、を有する。前記制御部は、前記表示画面に前記第一のオブジェクトと前記第二のオブジェクトが表示された第一の状態において、前記第一のオブジェクトと前記第二のオブジェクトとを選択する第一の操作が検出された後、前記第一のオブジェクトの位置と前記第二のオブジェクトの位置とを離すための第二の操作が検出された場合、前記第一の状態よりも互いに位置が離れた前記第一のオブジェクトと前記第二のオブジェクトとを表示するとともに、前記第一のオブジェクトと前記第二のオブジェクトとの間に第三のオブジェクトが表示された第二の状態に、前記表示画面の表示を変化させる。
本開示の電子機器は、第一のオブジェクトおよび第二のオブジェクトに対して簡易な操作を行うことにより第三のオブジェクトを表示することが可能となる。
図1は、本開示の一実施形態を示す携帯電話機100の外観斜視図である。 図2は、携帯電話機100のブロック構成図である。 図3は、携帯電話機100の表示画面102の一例を示す図である。 図4(a)〜(d)は、携帯電話機100の表示画面102の画面遷移を示す図である。 図5(a)〜(d)は、図4の画面遷移後の表示画面102における画面遷移図である。 図6(a)〜(b)は、図5の画面遷移後の表示画面102における画面遷移図である。 図7(a)〜(b)は、携帯電話機100の表示画面102の画面遷移図である。 図8(a)〜(b)は、携帯電話機100の表示画面102の画面遷移図である。 図9は、携帯電話機100におけるプログラムのフローチャートの一部である。 図10は、携帯電話機100の表示画面102を示す図である。 図11(a)〜(d)は、図4〜図8における表示画面102とは異なる表示画面102に関する画面遷移図である。
本開示の一実施形態にかかる電子機器を説明する。
〔構成〕
本開示の一実施態様にかかる電子機器としては、パーソナルコンピュータ、携帯端末(携帯電話、タブレット端末、携帯ゲーム機、ウェアラブルデバイス(時計、メガネ、ベルト、服などであって表示画面を有するデバイス))などが挙げられる。
以下に、電子機器として携帯電話機を具体例として挙げるが、本開示の電子機器は携帯電話機に限定されない。
以下に、電子機器の一例である携帯電話機を用いて本開示を説明する。
図1は、携帯電話機100の外観斜視図である。なお、図1においては一例としてタッチ操作が可能なストレートタイプの携帯電話機100を示す。
なお、携帯電話機の具体例として、前述のようにストレートタイプの携帯電話機100を示しているが、他に、折り畳み型、スライド型などの携帯電話機であってもかまわない。
図1に示す携帯電話機100の外観には、ランプ101、表示画面102、光センサ103、スピーカ(レシーバー)104、マイク105、ボタン部106、カメラ窓107が備えられている。
ランプ101は、電話の着信中であること、不在着信が存在することなどの電話の着信情報、または、新着メールを受信したこと、未読メールが存在することなどのメールの受信情報を、外部に対して発光することによりユーザへ報知することができる。また、ランプ101は他に、アラーム日時到来などをユーザへ報知することもできる。ランプ101は、LEDなどの発光素子により構成されている。ランプ101としては、例えば、LEDランプなどが挙げられる。ランプ101は、点灯、点滅など光を発してユーザに報知する。
表示画面102は、各種情報を表示できる。各種情報としては、例えば、アプリケーションを示すアイコン、起動中のアプリケーション、電波状態表示、電池残量、日付表示、時刻表示などが挙げられる。表示画面102は、透明なカバーパネルと、その裏面側に設けられた表示部120と、を含む。表示部120は例えば、液晶表示部、有機EL(ELECTRO LUMINESCENCE)表示部、プラズマ表示部、電子ペーパーなどが挙げられる。表示部120が液晶表示部の場合、表示部120のバックライトを発光して各種情報を表示画面102に表示する。また、表示部120が有機EL表示部の場合、表示部120の発光体を発光して各種情報を表示画面102に表示する。
ユーザからの操作を受け付ける操作部の具体例として、例えば、タッチ操作部114が挙げられる。タッチ操作部114としては、タッチパネルなどが挙げられる。タッチパネルには、例えば、静電容量方式、抵抗膜方式、光学式、超音波表面弾性波方式、赤外線遮光方式、電磁誘導方式、画像認識方式など種々の方式がある。なお、前記操作部としては、タッチ操作部114の代わりに、近接を検出すると操作が可能な近接操作部であってもよい。近接操作部としては、近接センサなどにより、例えば、手の動きなどを検出して、操作するものが挙げられる。ほかに、操作部としては、例えば、カメラなどによりユーザの動きを検知して、ユーザからの操作を受け付けてもよい。
図1に示す具体例における表示画面102は、表示画面102を正面視したときに、カバーパネルと表示部120とタッチ操作部114とが重なっており、表示画面102に表示されたオブジェクトに対して、ユーザがカバーパネル上にてタッチ操作することで、前記オブジェクトに対して操作をすることができる。
光センサ103は、周囲の明るさを検出する明るさ検出部として機能する。光センサ103は、図1においては携帯電話機100の前面に設けられているが、その設置場所は限定されず、周囲の環境を精度よく検出される場所であればかまわない。光センサ103としては、フォトトランジスタ,フォトダイオードなどを適用したものが挙げられる。
スピーカ104は、後述する制御部108からの制御信号によって外部に音を出力する機能を有する。スピーカの位置は特に限定されず、例えば、携帯電話機100の表面、側面または裏面に設けられる。スピーカ104は例えば、通話相手からの音声の出力、メロディ、呼び出し音などの出力ができる。
マイク105は、集音した音声を音声信号に変換して後述する音声エンコーダ117へ出力する。
ボタン部106は、ユーザからの操作入力を受け付けるボタン状のハードキーである。ボタン部106が受け付けたユーザからの操作は、信号として制御部108に入力される。図1の場合、ボタン部106が押圧されることで操作がなされる。ボタン部106としては、例えば、電源キー、ボリュームキー、ホームキーなどが挙げられる。
カメラ窓107は、携帯電話機100の前面または背面に設けられる。カメラ窓107には透明なパネルまたはレンズが設けられており、被写体像を後述するカメラモジュール116に送る。
図2は、携帯電話機100のブロック構成図である。
制御部108は、携帯電話機100に備えられたソフトウェアおよびハードウェアを制御する。例えば、制御部108は、タッチ操作部114、ボタン部106、など、ユーザにより受け付けた入力操作を検知して、携帯電話機100に備えられた各種機能を実行する。また、制御部108は、ROM110またはRAM111と協働して携帯電話機100に記憶されたプログラムを実行する。制御部108としては、例えば、制御用CPUなどが挙げられる。
振動部109は、制御部108からの制御信号によって機械的振動を生じる。振動部109は、例えば、モーターなどから構成され、電話の着信情報、メールの受信情報、アラーム日時到来などを機械的振動としてユーザへ報知する。
ROM(READ ONLY MEMORY)110は、携帯電話機100に備えられた各種処理を実行するためのプログラムやデータなどを記憶する。
RAM(RANDOM ACCESS MEMORY)111は、制御部108からアクセス可能であり、制御部108が各種処理を実行するための一時記憶領域(バッファ領域とも呼ぶ)として利用される。RAM111は、他に、アドレス帳データ、メールデータ等、電話モードにて使用するデータ、カメラモードにて撮影された画像データ、動画データ等、機器内で生成される各種データを記憶することができる。RAM111に保存される画像には、静止画および動画がある。動画は複数のフレームで構成され、各フレームは静止画からなる。静止画は、アイコン、ボタン、写真、サムネイル画像およびテキストレイアウト領域を含む。テキストレイアウト領域は、テキスト情報が表示された領域である。また、後述する動画と動画のサムネイル画像とは、動画の識別情報により関連づけられてRAM111に記憶される。
無線回路112は、アンテナ113から入力された所定の高周波信号に復調処理及び復号処理を施してデジタルの音声信号へと変換する。また、制御部108から入力されたデジタルの音声信号には符号化処理及び変調処理を施して、高周波信号に変換する。そして、無線回路112は高周波信号をアンテナ113へ出力する。
アンテナ113は、所定の周波数帯域を受信して高周波信号として無線回路112に出力する。また無線回路112より出力された高周波信号を所定の周波数帯域の信号として出力する。
カメラモジュール116はCCD等の撮像素子を有する。カメラモジュール116は、撮像素子から出力された撮像信号をデジタル化し、その撮像信号にガンマ補正等の各種補正を施して映像エンコーダ115へ出力する。映像エンコーダ115は、カメラモジュール116からの撮像信号にエンコード処理を施して制御部108へ出力する。このカメラモジュール116は、カメラ窓107を通して被写体像を取り込む。
音声エンコーダ117は、マイク105からのアナログの音声信号をデジタルの音声信号に変換するとともに、デジタルの音声信号にエンコード処理を施して制御部108へ出力する。
映像デコーダ119は、制御部108からの画像情報を表示部120で表示できる画像信号に変換し、これらを表示部120に出力する。表示部120は、画像信号に応じた画像をその表示面に表示する。
音声デコーダ118は、CPU100からの音声信号と、着信音やアラーム音等の各種報知音の音信号とにデコード処理を施し、さらにアナログの音声信号に変換してスピーカ104に出力する。
クロック121は、時間を計測し、計測した時間を応じた信号を制御部108へ出力する。
〔動作処理〕
以下に、本開示の一実施態様である携帯電話機100の動作処理を示す。
図3は、携帯電話機100の表示画面102の一例を示す図である。図3には、動画編集画面が示されている。具体的に、表示画面102には、1つの動画を時間毎に分割したパート(図3の場合、5分毎に動画を分割)を示すサムネイル11a〜11c、動画のプ
レビュー画面10、動画の現在の進捗を示す進捗バー12が示されている(図3の場合、プレビュー画面10に表示されている動画の進捗は、8分57秒であることを示す)。サムネイル11a〜11cの下には、動画の時間(たとえば、5:00は5分0秒を示す)が表示されている。なお、図3に示す表示画面102の状態が、請求項における「第一の状態」に該当する。
なお、動画は、携帯電話機100が有するカメラにより撮影されてもよいし、インターネットにおけるサイトなどからダウンロードされてもよい。
図4〜図6には、一連の画面遷移が表示されている。
図4(a)では、表示画面102において、サムネイル11a(請求項における「第一のオブジェクト」に該当)にユーザの指F1がタッチし、隣接するサムネイル11b(請求項における「第二のオブジェクト」に該当)にユーザの指F2がタッチすることで、サムネイル11aおよびサムネイル11bが選択されている(請求項における「第一の操作」に該当)。図4(a)の状態から、図4(b)に示すように、指F1と指F2をサムネイル11aおよびサムネイル11bにタッチさせたままそれらの指を広げると(請求項における「第二の操作」に該当)、サムネイル11aとサムネイル11bとが指F1と指F2の移動に併せて移動して表示され、移動後のサムネイル11aと11bとの間に、操作メニュー13(請求項における「第三のオブジェクト」に該当)が表示される(請求項における「第二の状態」に該当)。図4(b)の場合、操作メニュー13には、コピー(copy)、貼り付け(paste)、切り取り(cut)が表示されているが、本開示はこれに限定されない。
図4(c)に示すように、指F1と指F2がサムネイル11aおよびサムネイル11bから離れた後、操作メニュー13の項目のうち「コピー」を選択するように指F1が操作メニュー13にタッチされる。そのあと、図4(d)に示すように、コピーしたいサムネイル(この場合はサムネイル11b)を選択するように指F1がサムネイル11bにタッチされる。
図5および図6では、コピーしたいサムネイルのコピー先を選択し、コピーを実行する際の表示画面102の画面遷移を示す。
図4(d)の後、図5(a)に示すように、サムネイル11bの右側から左向き(図5(a)におけるD方向)に指F1をスライドさせる。指F1をスライドさせることで、図5(b)に示すように、サムネイル11bよりも後ろに位置するサムネイル11c〜11eが表示される。
図5(c)に示すように、コピーしたサムネイル11bの貼り付け先を選択する。図5(c)の場合、ユーザは、サムネイル11dとサムネイルeとの間にサムネイル11bを貼り付けようとしている。図5(d)に示すように、指F1と指F2をサムネイル11dおよびサムネイル11eにタッチさせたままそれらの指を広げると、移動したサムネイル11dとサムネイル11eとの間に「貼り付けますか?」という表示14が示される。次に、図6(a)に示すように、「貼り付けますか?」の表示14を指F1でタッチすると、図6(b)に示すように、サムネイル11dおよびサムネイル11eとの間にサムネイル11bが貼り付けられる。これらの操作により、動画において、サムネイル11dで表される動画パートとサムネイル11eで表される動画パートの間に、サムネイル11bで表される動画パートが位置させることができた。
以上のように、図4から図6に示す操作を行うことにより、2つのオブジェクト(この
場合、オブジェクトは1つの動画をそれぞれ形成する複数のパートに関連するサムネイルに該当)の位置を離すために2つのオブジェクトを移動させたことにより、それらのオブジェクトの間から、別の表示(この場合、操作メニュー13)を表示させることができる。よって、通常時の表示画面(この場合、動画編集の際の通常時の表示画面)において、操作メニューなどの表示領域を別途設けずとも、操作メニューなどの表示を簡易な操作により呼び出すことができる。とくに電子機器が表示画面の小さい電子機器(特に携帯電話などの携帯通信端末装置)の場合に有用である。
なお、図5(c)および図5(d)に示したように、コピーしたいサムネイル11bの貼り付け先を選択する際に、サムネイル11dとサムネイル11eとが離れるように、指F1と指F2とをスワイプさせて貼り付け先を選択したが、本開示はこの内容に限定されない。例えば、図7(a)に示すように、サムネイル11dと11eとの間を指F1でタップすることで、図7(b)に示すように、サムネイル11dおよびサムネイル11eとの間に貼り付けたいサムネイル(この場合はサムネイル11b)が貼り付けられてもよい。
図8では、図4(a)から図4(b)の後の操作の一例を示す。例えば、図4(b)に示すような表示画面102に操作メニュー13を表示させたが、操作メニュー13の表示をキャンセルさせたい場合、指F1および指F2を、サムネイル11aおよびサムネイル11bにタッチさせたまま、サムネイル11aおよびサムネイル11bを近づけるような方向(図8(a)における方向D1および方向D2)に移動させると、図8(b)に示すように、操作メニュー13の表示が消え、サムネイル11aおよびサムネイル11bが元の表示に戻る。なお、図8の例では、指F1と指F2が、サムネイル11aおよびサムネイル11bにタッチさせた状態で指F1と指F2を閉じる操作を示したが、本開示はこれに限定されない。例えば、図4(b)の表示画面の状態から、指F1および指F2を一旦離れた後に、再度、指F1および指F2がサムネイル11aおよびサムネイル11bに触れてから、図8(a)に示すように、サムネイル11aおよびサムネイル11bを指F1および指F2で閉じるように操作してもよい。
以上、図3から図8にもとづいて、本開示の一実施形態である、携帯電話機での動画編集について説明してきたが、請求項の内容は図3から図8の具体例に限定されない。
次に、本開示の一実施形態を実行するプログラムについて図9を用いて説明する。なお、図3から図8にもとづいた例を示す。
ステップS01にて、2つのサムネイルに接触があったかを検出する。具体的には、図4(a)に示すように、サムネイル11aとサムネイル11bに対してタッチされたかどうかを検出する。タッチが検出されなかった場合(ステップS01:NO)、再びステップS01に戻る。タッチが検出された場合(ステップS01:YES)、2つのサムネイルの位置を離す操作があったかどうかを検出する(ステップS02)。具体的には、図4(b)に示すように、サムネイル11aとサムネイル11bに指等がタッチした状態から、タッチ位置が離れる移動があったかどうかを検出する。2つのサムネイルを離す操作がなかった場合(ステップS02:NO)、ステップS01に戻る。2つのサムネイルを離す操作があった場合(ステップS02:YES)、2つのサムネイルの位置を離し、操作メニューを表示させる(ステップS03)。具体的には図4(b)に示すように、サムネイル11aとサムネイル11bは、表示位置が離れるように移動し、移動後のサムネイル11aと11bとの間に、操作メニュー13が表示される。
2つのサムネイルに対して接触が解除されたか、つまり、検出されていたタッチが検出されなくなったかどうかを検出する(ステップS04)。2つのサムネイルへの接触が解
除されなかった場合(ステップS04:NO)、つまり、2つのサムネイルへの接触が維持されている場合は、後述するステップS08にフローを移行する。2つのサムネイルへの接触が解除された場合(ステップS04:YES)、操作メニューへの選択操作があったかどうかを検出する(ステップS05)。具体的には、図4(c)に示すように、操作メニュー13に記載の項目(COPY、PASTE、CUT)のいずれかの表示に対して選択のためにタッチが検出されたかどうか検出される。メニューへの選択操作がなかった場合(ステップS05:NO)、フローは後述するステップS09にフローを移行する。メニューへの選択操作があった場合(ステップS05:YES)、サムネイルが選択されたかどうかを検出する(ステップS06)。具体的には、図4(d)に示すように、メニュー13のうち選択されたコピーに関し、コピーしたいサムネイルが選択されたかどうかが検出される。サムネイルが選択されない場合(ステップS06:NO)、フローはステップS06に戻る。サムネイルが選択された場合(ステップS06:YES)、メニューが実行される(ステップS07)。具体的には、図6(b)に示すように、コピーされたサムネイル11bが、サムネイル11dとサムネイル11eとの間に貼り付けられ、フローを終了する。
ステップS04において2つのサムネイルの接触が解除されなかった場合(ステップS04:NO)、2つのサムネイルの位置を近づける操作があったかどうかを検出する(ステップS08)。具体的には、図8(a)に示すように、操作メニュー13を介して離れて表示されたサムネイル11aとサムネイル11bに対して指等がタッチした状態から、タッチ位置を近づける移動があったかどうかを検出する(ステップS08)。2つのサムネイルの位置を近づける操作がなかった場合(ステップS08:NO)、フローはステップS04に戻る。2つのサムネイルの位置を近づける操作があった場合(ステップS08:YES)、操作メニューの表示を消し、2つのサムネイルの表示位置を元に戻す(ステップS10)。
ステップS05においてメニューの選択がなされなかった場合(ステップS05:NO)、所定時間が経過したかどうかを検出する(ステップS09)。所定時間が経過していなければ(ステップS09:NO)、フローはステップS05に戻る。所定時間が経過していれば(ステップS09:YES)、操作メニューの表示を消し、2つのサムネイルの表示位置を元に戻す(ステップS10)。
図3〜図9において、電子機器(この場合携帯電話機)における、動画の編集時のサムネイルへのタッチ操作について説明してきたが、請求項は動画編集時のサムネイルへの操作に限定されない。たとえば、複数の異なる動画が表示画面にそれぞれサムネイル表示されている場合、2つのサムネイルが選択された後にそれらの表示位置が離れるように操作されることで、2つのサムネイルとは別の表示(例えば、図4に記載の操作メニュー)な
どを表示させてもよい。
図10および図11には、図3〜図9とは異なる実施形態として、2つのアプリケーションを起動中において、それらアプリケーションの表示に対するタッチ操作について示している。
図10において、携帯電話機100の表示画面102には、2つのアプリケーションが起動されている。1つのアプリケーションはアプリケーションAであり、他方のアプリケーションはアプリケーションBである。これらのアプリケーションは、表示画面102において、並んで表示されている。なお、携帯電話機100は、図3〜図8の場合、縦向き表示であったのに対して、図10および図11では横向き表示にしているが、表示の向きはいずれでもよい。なお、図10に示す表示画面102の状態が、請求項における「第一の状態」に該当する。
図11(a)に示すように、アプリケーションAとアプリケーションBが表示された表示画面102において、アプリケーションAに指F1がタッチし、隣接するアプリケーションBに指F2がタッチしている。図11(a)から、図11(b)に示すように、指F1と指F2をアプリケーションAおよびアプリケーションBにタッチさせたままそれらの指を広げると、アプリケーションAとアプリケーションBとが指F1と指F2の移動に併せて移動して表示される。そして、移動後のアプリケーションAとアプリケーションBとの間に、アプリケーションCの少なくとも一部が表示される。図11に表示されるアプリケーションCは、起動はしているが図11(a)の表示画面102には表示されていないアプリケーションを示している。図11(b)においては、ある程度までアプリケーションAとアプリケーションBとが離れて表示された状態を示しているが、アプリケーションAとアプリケーションBとが図11(b)に示した場合よりも離れていない状態でアプリケーションCの少なくとも一部が表示されていてもよい。このような表示を行うことにより、ユーザは、指F1と指F2をアプリケーションAおよびアプリケーションBに接触させてからそれらの指を少し広げるという簡単な操作をするだけで、表示されてはいないが起動中のアプリケーションCの存在を確認することが可能となる。確認が終わった後は、例えば、前の具体例で記載した図8の操作を適用して、アプリケーションAとアプリケーションBに指F1および指F2をそれぞれタッチさせ、アプリケーションAとアプリケーションBを近づけるような方向に移動させることで、アプリケーションCの表示を消し、図10に示すように、アプリケーションAとアプリケーションBを元の位置に戻しても良い。
図11(b)においては、アプリケーションAとアプリケーションBとの後ろ側にアプリケーションCが位置するように表示されているが、アプリケーションCの表示はこれに限定されない。
図11(c)では、図11(b)において指F1と指F2をアプリケーションAおよびアプリケーションBにタッチさせたままそれらの指を広げて指F1と指F2とを表示画面102から離した後、アプリケーションAとアプリケーションBの間に表示されたアプリケーションCをアプリケーションBの代わりに表示させようとしている。具体的には、アプリケーションCに指F1をタッチしてから、図11(c)に示すように左から右の方向(方向D)に沿って指を移動させて指F1をアプリケーションBに位置させている。これにより、アプリケーションCの表示がアプリケーションBの上側に位置するように移動している。
図11(d)に示すように、図11(a)から図11(c)における操作を経ることで、アプリケーションBからアプリケーションCに、表示画面102の右側の領域の表示を変更することができる。なお、図11(d)において、表示されなくなったアプリケーションBは起動している。
図10および図11の具体例では、請求項における第一のオブジェクトおよび第二のオブジェクトとして、起動中であり表示中のアプリケーション表示を示しており、第三のオブジェクトとして、起動中であるが表示されていなかったアプリケーション表示を示している。
以上のように、図面を用いて本開示を説明したが、本開示は図面に記載された具体例に限定されない。図3〜図11においては、第一のオブジェクトと第二のオブジェクトは、図3および図10に示す第一の状態では隙間なく隣接していたが、第一の状態において第一のオブジェクトと第二のオブジェクトとの間に隙間を有していてもよいし、第一のオブジェクトと第二のオブジェクトとの間に別のオブジェクトが位置していてもよい。
図面に記載された具体例において、請求項におけるオブジェクト(第一のオブジェクト、第二のオブジェクト、第三のオブジェクトを含む)としては、サムネイル、アプリケーション表示が示されたが、それらに限定されない。たとえば、オブジェクトとしては、アイコン(アプリケーションを示すアイコン、通知を示すアイコン)、文字、ソフトキーボードにおけるソフトキーなどが挙げられる。
図面に示された具体例において、タッチ操作による操作を示したが、本開示はこれに限定されない。たとえば、表示画面102に接触させずとも、近接させることで前記オブジェクトを操作できてもよいし、例えば、1m以上などユーザと電子機器との距離が離れていても前記オブジェクトを操作できてもよい。
また、ユーザによる操作は指による操作に限られず、視線による操作、声による操作、ジェスチャによる操作、スタイラスなどの操作器具を用いた操作であってもよい。
10 プレビュー画面
11 サムネイル
12 進捗バー
13 操作メニュー
14 貼り付け表示
100 携帯電話機
101 ランプ
102 表示部
103 光センサ
104 スピーカ
105 マイク
106 ボタン部
108 制御部
109 振動部
110 ROM
111 RAM
112 無線回路
113 アンテナ
F1,F2 指
D 方向

Claims (4)

  1. 動画に関するサムネイルである第一のオブジェクトと第二のオブジェクトとを表示できる、表示画面と、
    前記第一のオブジェクトと前記第二のオブジェクトとを、前記表示画面に表示させる制御部と、
    を有する電子機器であって、
    前記制御部は、
    前記表示画面に前記第一のオブジェクトと前記第二のオブジェクトが表示された第一の状態において、前記第一のオブジェクトと前記第二のオブジェクトとを選択する第一の操作が検出された後、前記第一のオブジェクトの位置と前記第二のオブジェクトの位置とを離すための第二の操作が検出された場合、
    前記第一の状態よりも互いに位置が離れた前記第一のオブジェクトと前記第二のオブジェクトとが表示され且つ前記第一のオブジェクトと前記第二のオブジェクトとの間に、前記動画に関する操作メニューである第三のオブジェクトが表示された第二の状態に、前記表示画面の表示を変化させる、電子機器。
  2. 起動中のアプリケーションである第一のオブジェクトと第二のオブジェクトとを表示できる、表示画面と、
    前記第一のオブジェクトと前記第二のオブジェクトとを、前記表示画面に表示させる制御部と、
    を有する電子機器であって、
    前記制御部は、
    前記表示画面に前記第一のオブジェクトと前記第二のオブジェクトが表示された第一の状態において、前記第一のオブジェクトと前記第二のオブジェクトとを選択する第一の操作が検出された後、前記第一のオブジェクトの位置と前記第二のオブジェクトの位置とを離すための第二の操作が検出された場合、
    前記第一の状態よりも互いに位置が離れた前記第一のオブジェクトと前記第二のオブジェクトとが表示され且つ前記第一のオブジェクトと前記第二のオブジェクトとの間に、前記第一の状態において表示されていない起動中のアプリケーションである第三のオブジェクトが表示された第二の状態に、前記表示画面の表示を変化させる、電子機器。
  3. 前記第一の操作および前記第二の操作は、タッチ操作である、請求項1又は2記載の電子機器。
  4. 前記第二の状態時に、前記第一のオブジェクトの位置と前記第二のオブジェクトの位置を前記第一の状態に戻す操作が行われると、前記第三のオブジェクトの表示を消す、請求項1乃至3のいずれか記載の電子機器。
JP2015148815A 2015-07-28 2015-07-28 電子機器 Active JP6514061B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015148815A JP6514061B2 (ja) 2015-07-28 2015-07-28 電子機器
US15/215,429 US20170031580A1 (en) 2015-07-28 2016-07-20 Electronic apparatus, non-transitory computer-readable recording medium, and display control method of electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015148815A JP6514061B2 (ja) 2015-07-28 2015-07-28 電子機器

Publications (2)

Publication Number Publication Date
JP2017027563A JP2017027563A (ja) 2017-02-02
JP6514061B2 true JP6514061B2 (ja) 2019-05-15

Family

ID=57883380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015148815A Active JP6514061B2 (ja) 2015-07-28 2015-07-28 電子機器

Country Status (2)

Country Link
US (1) US20170031580A1 (ja)
JP (1) JP6514061B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024073B (zh) * 2017-11-30 2020-09-04 广州市百果园信息技术有限公司 视频编辑方法、装置及智能移动终端
CN109327760B (zh) * 2018-08-13 2019-12-31 北京中科睿芯科技有限公司 一种智能音响及其播放控制方法
CN110175836B (zh) * 2019-05-10 2022-08-16 维沃移动通信有限公司 支付界面的显示控制方法和移动终端
US11741995B1 (en) * 2021-09-29 2023-08-29 Gopro, Inc. Systems and methods for switching between video views

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080090218A (ko) * 2007-04-04 2008-10-08 엔에이치엔(주) 편집 파일의 자동 업로딩 방법 및 그 장치
JP5770408B2 (ja) * 2007-10-24 2015-08-26 日立マクセル株式会社 映像コンテンツ視聴端末
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US20100162179A1 (en) * 2008-12-19 2010-06-24 Nokia Corporation Method and Apparatus for Adding or Deleting at Least One Item Based at Least in Part on a Movement
JP5206587B2 (ja) * 2009-05-26 2013-06-12 ソニー株式会社 編集装置、編集方法及び編集プログラム
JP5463739B2 (ja) * 2009-06-03 2014-04-09 ソニー株式会社 撮像装置、画像処理方法及びプログラム
KR101730422B1 (ko) * 2010-11-15 2017-04-26 엘지전자 주식회사 영상표시기기 및 그 동작 방법
JP2013033330A (ja) * 2011-08-01 2013-02-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5849502B2 (ja) * 2011-08-01 2016-01-27 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR102005315B1 (ko) * 2012-07-23 2019-07-30 삼성전자 주식회사 클라우드 서비스 지원 방법과 시스템 및 이를 지원하는 단말기
KR101978216B1 (ko) * 2013-01-04 2019-05-14 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP6098435B2 (ja) * 2013-08-22 2017-03-22 ソニー株式会社 情報処理装置、記憶媒体、および制御方法

Also Published As

Publication number Publication date
JP2017027563A (ja) 2017-02-02
US20170031580A1 (en) 2017-02-02

Similar Documents

Publication Publication Date Title
JP4824805B2 (ja) 携帯端末装置
JP5722642B2 (ja) 携帯端末装置
US9380433B2 (en) Mobile terminal and control method thereof
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
JP5743847B2 (ja) 携帯端末および低感度領域設定プログラム
WO2014065254A1 (ja) 携帯端末装置および入力操作受け付け方法
JP2012137821A (ja) 携帯端末装置
JP6514061B2 (ja) 電子機器
JP5629180B2 (ja) 携帯端末装置
JP5709603B2 (ja) 携帯端末装置、プログラムおよび表示方法
JP6078375B2 (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
US20160283182A1 (en) Display device and processor for display device
JP5306430B2 (ja) 携帯端末装置
JP5932563B2 (ja) 電子機器及び制御プログラム並びに電子機器での処理実行方法
JP2007202124A (ja) 入力装置およびこの入力装置を用いた携帯端末機器ならびに携帯端末機器におけるコンテンツデータの閲覧方法
JP2012175211A (ja) 携帯端末装置
JP5993802B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP5998105B2 (ja) 携帯機器、携帯機器の制御方法およびプログラム
JP6538785B2 (ja) 電子機器、電子機器の制御方法およびプログラム
JP6047066B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP6174956B2 (ja) 通話機能を有する機器、通話機能を有する機器の制御方法およびプログラム
JP6208082B2 (ja) 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP6155355B2 (ja) 電子機器
JP6046226B2 (ja) 携帯端末装置、プログラムおよび表示制御方法
JP2015026382A (ja) 携帯端末装置および表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190411

R150 Certificate of patent or registration of utility model

Ref document number: 6514061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150