JP7349441B2 - タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム - Google Patents
タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム Download PDFInfo
- Publication number
- JP7349441B2 JP7349441B2 JP2020548321A JP2020548321A JP7349441B2 JP 7349441 B2 JP7349441 B2 JP 7349441B2 JP 2020548321 A JP2020548321 A JP 2020548321A JP 2020548321 A JP2020548321 A JP 2020548321A JP 7349441 B2 JP7349441 B2 JP 7349441B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- pinch
- touch panel
- panel display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
- G06F3/04146—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using pressure sensitive conductive elements delivering a boolean signal and located between crossing sensing lines, e.g. located between X and Y sensing line layers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
図1は、本実施形態に係るタッチパネルディスプレイ付きデバイスの一例であるタブレット型コンピュータ端末10(以下、タブレットPC10と呼ぶ。PCはPersonal Computerの略)の正面斜視図であり、図2は背面斜視図である。図1及び図2に示すように、タブレットPC10は、矩形の輪郭を有する平板状の筐体12を備えている。筐体12は、タッチパネルディスプレイ14と、操作ボタン16と、スピーカ18と、内蔵カメラ20と、外部接続端子24と、を備えて構成される。
タブレットPC10は、ユーザの操作により画像内のオブジェクトについて所望の処理を行うことができる。図6は、タブレットPC10の制御方法を示すフローチャートである。図6に示すように、タブレットPC10の制御方法は、画像表示工程(ステップS1)と、ピンチイン動作認識工程(ステップS2)と、接触領域認識工程(ステップS3)と、オブジェクト領域決定工程(ステップS4)と、動作遷移認識工程(ステップS5)と、出力アクション工程(ステップS6)と、を含んでいる。
図7は、タッチパネルディスプレイ14に画像G1が表示された例を示す図である。画像G1は、昆虫と樹木が写った撮像画像である。画像G1は、画像内のセグメンテーションが行われていない画像である。
画像内のオブジェクトは、異なる画像にコピー又は移動することも可能である。
タブレットPC10は、所望のオブジェクトの向きを変更することが可能である。図15は、オブジェクトの回転について説明するための図である。
タブレットPC10は、所望のオブジェクトの拡大又は縮小を行うことも可能である。図17は、オブジェクトの拡大について説明するための図である。
タブレットPC10は、所望のオブジェクトを不揮発性メモリ36に保存することもできる。
どの「ピンチイン動作以外の動作」をどの「オブジェクト領域に関するアクション」に割り当てるかは、上記の例に限定されず、適宜決めればよい。1回のピンチイン動作というユーザの簡便な操作でオブジェクトを指定することができる点が重要である。
12…筐体
14…タッチパネルディスプレイ
14A…ディスプレイ部
14B…タッチパネル部
14C…押圧力センサ
16…操作ボタン
18…スピーカ
20…内蔵カメラ
20A…撮像レンズ
20B…撮像素子
24…外部接続端子
32…システムバス
34…メインメモリ
36…不揮発性メモリ
38…モバイル通信部
38A…アンテナ
40…無線LAN通信部
40A…アンテナ
42…近距離無線通信部
42A…アンテナ
44…有線通信部
50…キー入力部
52…音声処理部
54…撮像制御部
60…タッチパネルディスプレイ制御部
62…表示制御部
64…画像表示部
68…入力認識部
70…ピンチイン動作認識部
72…接触領域認識部
74…動作遷移認識部
76…画像処理部
78…オブジェクト領域決定部
80…出力アクション部
S1~S6…タブレットPCの制御方法の各ステップ
Claims (20)
- タッチパネルディスプレイと、
前記タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示部と、
前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、
前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、
前記接触領域認識部が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、
前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、
前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第1の画像又は前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション部と、
を備え、
前記第1の画像は少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
前記オブジェクト領域決定部は、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
前記出力アクション部は、前記ピンチイン動作以外の動作に遷移した位置が前記第1の画像の位置の場合は前記第1の画像に対して前記オブジェクト領域に関するアクションを行い、前記第2の画像の位置の場合は前記第2の画像に対して前記オブジェクト領域に関するアクションを行い、
前記ピンチイン動作以外の動作は前記タッチパネルディスプレイに対する押圧力を前記ピンチイン動作における押圧力より強くする動作であるタッチパネルディスプレイ付きデバイス。 - タッチパネルディスプレイと、
前記タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示部と、
前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、
前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、
前記接触領域認識部が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、
前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、
前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション部と、
を備え、
前記第1の画像は少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
前記オブジェクト領域決定部は、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
前記ピンチイン動作以外の動作は前記タッチパネルディスプレイに対する押圧力を前記ピンチイン動作における押圧力より強くする動作であるタッチパネルディスプレイ付きデバイス。 - 前記オブジェクト領域に関するアクションは、前記オブジェクト領域の向きを変更するアクションである請求項1又は2に記載のタッチパネルディスプレイ付きデバイス。
- タッチパネルディスプレイと、
前記タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示部と、
前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、
前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、
前記接触領域認識部が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、
前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、
前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション部と、
を備え、
前記第1の画像は少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
前記オブジェクト領域決定部は、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
前記オブジェクト領域に関するアクションは、前記オブジェクト領域の向きを変更するアクションであるタッチパネルディスプレイ付きデバイス。 - 前記オブジェクト領域に関するアクションは、前記オブジェクト領域を拡大又は縮小させるアクションである請求項1から4のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
- タッチパネルディスプレイと、
前記タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示部と、
前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、
前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、
前記接触領域認識部が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、
前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、
前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション部と、
を備え、
前記第1の画像は少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
前記オブジェクト領域決定部は、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
前記オブジェクト領域に関するアクションは、前記オブジェクト領域を拡大又は縮小させるアクションであるタッチパネルディスプレイ付きデバイス。 - 前記ピンチイン動作以外の動作は前記第1の画像から前記第1の画像又は前記第2の画像へのドラッグ動作である請求項1から6のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
- 前記ピンチイン動作以外の動作は前記ドラッグ動作後のピンチアウト動作である請求項7に記載のタッチパネルディスプレイ付きデバイス。
- 前記ピンチイン動作以外の動作は前記ドラッグ動作後の前記タッチパネルディスプレイとの接触を非接触にする動作である請求項7又は8記載のタッチパネルディスプレイ付きデバイス。
- 前記オブジェクト領域に関するアクションは、前記オブジェクト領域をコピー又は移動するアクションである請求項1から9のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
- 前記オブジェクト領域に関するアクションは、前記オブジェクト領域をメモリに記録させるアクションである請求項1から10のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
- 前記画像は撮像素子により得られた撮像画像である請求項1から11のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
- 前記第1オブジェクトは、第2オブジェクトの上に配置されたオブジェクトである請求項1から12のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
- 前記オブジェクト領域決定部は、前記接触領域が第2オブジェクトの領域に含まれる場合、第1オブジェクトと第2オブジェクトの領域を、オブジェクト領域として決定する請求項1から13のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
- タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示工程と、
前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、
前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、
前記接触領域認識工程が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、
前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、
前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第1の画像又は前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション工程と、
を備え、
前記第1の画像は、少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
前記オブジェクト領域決定工程において、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
前記出力アクション工程は、前記ピンチイン動作以外の動作に遷移した位置が前記第1の画像の位置の場合は前記第1の画像に対して前記オブジェクト領域に関するアクションを行い、前記第2の画像の位置の場合は前記第2の画像に対して前記オブジェクト領域に関するアクションを行い、
前記ピンチイン動作以外の動作は前記タッチパネルディスプレイに対する押圧力を前記ピンチイン動作における押圧力より強くする動作である、タッチパネルディスプレイ付きデバイスの制御方法。 - タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示工程と、
前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、
前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、
前記接触領域認識工程が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、
前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、
前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション工程と、
を備え、
前記第1の画像は、少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
前記オブジェクト領域決定工程において、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
前記ピンチイン動作以外の動作は前記タッチパネルディスプレイに対する押圧力を前記ピンチイン動作における押圧力より強くする動作である、タッチパネルディスプレイ付きデバイスの制御方法。 - タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示工程と、
前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、
前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、
前記接触領域認識工程が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、
前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、
前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション工程と、
を備え、
前記第1の画像は、少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
前記オブジェクト領域決定工程において、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
前記オブジェクト領域に関するアクションは、前記オブジェクト領域の向きを変更するアクションである、タッチパネルディスプレイ付きデバイスの制御方法。 - タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示工程と、
前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、
前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、
前記接触領域認識工程が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、
前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、
前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション工程と、
を備え、
前記第1の画像は、少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
前記オブジェクト領域決定工程において、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
前記オブジェクト領域に関するアクションは、前記オブジェクト領域を拡大又は縮小させるアクションである、タッチパネルディスプレイ付きデバイスの制御方法。 - 請求項15から18のいずれか1項に記載のタッチパネルディスプレイ付きデバイスの制御方法をコンピュータに実行させるためのプログラム。
- 非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項19に記載のプログラムをコンピュータに実行させる記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018175097 | 2018-09-19 | ||
JP2018175097 | 2018-09-19 | ||
PCT/JP2019/035057 WO2020059528A1 (ja) | 2018-09-19 | 2019-09-05 | タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020059528A1 JPWO2020059528A1 (ja) | 2021-08-30 |
JP7349441B2 true JP7349441B2 (ja) | 2023-09-22 |
Family
ID=69887263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548321A Active JP7349441B2 (ja) | 2018-09-19 | 2019-09-05 | タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11416133B2 (ja) |
JP (1) | JP7349441B2 (ja) |
CN (1) | CN112740163A (ja) |
WO (1) | WO2020059528A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008004093A (ja) | 2006-06-22 | 2008-01-10 | Xerox Corp | 画像データ編集システム及び方法 |
JP2010140300A (ja) | 2008-12-12 | 2010-06-24 | Sharp Corp | 表示装置、制御方法、制御プログラムおよび記録媒体 |
JP2012505466A (ja) | 2008-10-13 | 2012-03-01 | サムスン エレクトロニクス カンパニー リミテッド | タッチスクリーンを利用したオブジェクト管理方法及び装置 |
JP2014134867A (ja) | 2013-01-08 | 2014-07-24 | Sharp Corp | 情報処理端末 |
JP2016001509A (ja) | 2015-09-24 | 2016-01-07 | 京セラ株式会社 | 電子機器、制御方法および制御プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9575641B2 (en) * | 2012-03-20 | 2017-02-21 | Adobe Systems Incorporated | Content aware image editing |
DK201870347A1 (en) * | 2018-01-24 | 2019-10-08 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
-
2019
- 2019-09-05 JP JP2020548321A patent/JP7349441B2/ja active Active
- 2019-09-05 CN CN201980061151.9A patent/CN112740163A/zh active Pending
- 2019-09-05 WO PCT/JP2019/035057 patent/WO2020059528A1/ja active Application Filing
-
2021
- 2021-03-16 US US17/203,046 patent/US11416133B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008004093A (ja) | 2006-06-22 | 2008-01-10 | Xerox Corp | 画像データ編集システム及び方法 |
JP2012505466A (ja) | 2008-10-13 | 2012-03-01 | サムスン エレクトロニクス カンパニー リミテッド | タッチスクリーンを利用したオブジェクト管理方法及び装置 |
JP2010140300A (ja) | 2008-12-12 | 2010-06-24 | Sharp Corp | 表示装置、制御方法、制御プログラムおよび記録媒体 |
JP2014134867A (ja) | 2013-01-08 | 2014-07-24 | Sharp Corp | 情報処理端末 |
JP2016001509A (ja) | 2015-09-24 | 2016-01-07 | 京セラ株式会社 | 電子機器、制御方法および制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
US11416133B2 (en) | 2022-08-16 |
US20210200428A1 (en) | 2021-07-01 |
JPWO2020059528A1 (ja) | 2021-08-30 |
WO2020059528A1 (ja) | 2020-03-26 |
CN112740163A (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019185003A1 (zh) | 一种显示控制方法及设备 | |
US9405404B2 (en) | Multi-touch marking menus and directional chording gestures | |
CN104011629B (zh) | 用于能够进行基于触摸的输入的用户界面的经增强的目标选择方法、设备及*** | |
US20130234957A1 (en) | Information processing apparatus and information processing method | |
KR102462364B1 (ko) | 스크롤바를 이용한 이미지 디스플레이 방법 및 이를 위한 장치 | |
JP4900361B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20160203194A1 (en) | User terminal for displaying image and image display method thereof | |
WO2015143713A1 (zh) | 确定界面控件的颜色的方法、装置以及终端设备 | |
CN103455242B (zh) | 屏幕画面裁切方法及装置 | |
KR20140100547A (ko) | 모바일 장치상의 풀 3d 상호작용 | |
TW201407420A (zh) | 改善之視訊追蹤 | |
JP2015114997A (ja) | 図面作成プログラム、図面作成方法及び情報処理装置 | |
US10614633B2 (en) | Projecting a two-dimensional image onto a three-dimensional graphical object | |
TW201642115A (zh) | 圖示調整方法、圖示調整系統與電子裝置 | |
US20150205483A1 (en) | Object operation system, recording medium recorded with object operation control program, and object operation control method | |
US10474335B2 (en) | Image selection for setting avatars in communication applications | |
US10073612B1 (en) | Fixed cursor input interface for a computer aided design application executing on a touch screen device | |
JP7349441B2 (ja) | タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム | |
JP7495651B2 (ja) | オブジェクト姿勢制御プログラムおよび情報処理装置 | |
CN104917963A (zh) | 一种图像处理方法及终端 | |
US9799103B2 (en) | Image processing method, non-transitory computer-readable storage medium and electrical device | |
JP7338330B2 (ja) | 表示装置、表示方法、プログラム | |
US11983877B2 (en) | Image processing device, image processing method, program, and portable terminal device | |
CN113721911B (zh) | 虚拟场景的显示比例的控制方法、介质和设备 | |
CN111399631B (zh) | 虚拟内容显示方法、装置、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210507 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230606 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7349441 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |