JP7349441B2 - タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム - Google Patents

タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム Download PDF

Info

Publication number
JP7349441B2
JP7349441B2 JP2020548321A JP2020548321A JP7349441B2 JP 7349441 B2 JP7349441 B2 JP 7349441B2 JP 2020548321 A JP2020548321 A JP 2020548321A JP 2020548321 A JP2020548321 A JP 2020548321A JP 7349441 B2 JP7349441 B2 JP 7349441B2
Authority
JP
Japan
Prior art keywords
area
image
pinch
touch panel
panel display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020548321A
Other languages
English (en)
Other versions
JPWO2020059528A1 (ja
Inventor
喬俊 狩野
和幸 板垣
誠 大関
伸治 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020059528A1 publication Critical patent/JPWO2020059528A1/ja
Application granted granted Critical
Publication of JP7349441B2 publication Critical patent/JP7349441B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04146Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using pressure sensitive conductive elements delivering a boolean signal and located between crossing sensing lines, e.g. located between X and Y sensing line layers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明はタッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラムに係り、特に画像に対して直観的動作で所望の処理を行う技術に関する。
近年、ディスプレイ上に接触動作による入力を検出するためのタッチパネルを配置したタッチパネルディスプレイが普及しており、スマートフォン等のモバイル機器に使用されている。
タッチパネルディスプレイを用いた機器では、ユーザによるタッチパネルからの入力によってディスプレイに表示された画像に変更を加えることが行われている。
例えば、特許文献1には、表示されたオブジェクトのうち第1マルチタッチ入力に対応した任意のオブジェクトをピックアップして保存し、保存されたオブジェクトを第2マルチタッチ入力に対応して呼び出す技術が開示されている。
また、特許文献2には、選択した領域をドラッグすることで選択した領域の画像内の位置を修正する技術が開示されている。
さらに、非特許文献1には、オブジェクトの領域を自動で判別して切り取りを行う技術が開示されている。
特許第5731979号 米国特許第9575641号明細書
ペイント 3D(Microsoft Corporation)Magic Select(マジック選択)<URL:https://www.microsoft.com/ja-jp/p/%E3%83%9A%E3%82%A4%E3%83%B3%E3%83%88-3d/9nblggh5fv99?activetab=pivot%3aoverviewtab>
特許文献1に記載の技術では、ピックアップできるオブジェクトは既にシステムからオブジェクトとして認識されているものに限定されており、オブジェクトとして認識されていないものをピックアップすることはできない。
また、特許文献2に記載の技術では、ユーザが所望の領域を選択するためには数多くのステップを有し、簡便な操作を実現できていない。
さらに、非特許文献1の技術では、シード点特定のための矩形範囲指定が必要であり、簡便な操作を実現できていない。
本発明はこのような事情に鑑みてなされたもので、簡便な操作で画像内のオブジェクトに対して所望の処理を行うタッチパネルディスプレイ付きデバイス、及びその制御方法、並びにプログラムを提供することを目的とする。
上記目的を達成するためにタッチパネルディスプレイ付きデバイスの一の態様は、タッチパネルディスプレイと、タッチパネルディスプレイに画像を表示させる画像表示部と、タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、ピンチイン動作によってタッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、接触領域認識部が認識した接触領域に基づいて、画像に対して接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、ピンチイン動作からピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、ピンチイン動作以外の動作に遷移したと認識した場合に、タッチパネルディスプレイに表示された画像に対してオブジェクト領域に関するアクションを行う出力アクション部と、を備えたタッチパネルディスプレイ付きデバイスである。
本態様によれば、ピンチイン動作の接触領域に基づいて、画像に対して接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定し、ピンチイン動作からピンチイン動作以外の動作に遷移した場合に、タッチパネルディスプレイに表示された画像に対してオブジェクト領域に関するアクションを行うようにしたので、簡便な操作で画像内のオブジェクトに対して所望の処理を行うことができる。
ピンチイン動作以外の動作はピンチアウト動作、タッチパネルディスプレイとの接触を非接触にする動作、ドラッグ動作、及びタッチパネルディスプレイに対する押圧力をピンチイン動作における押圧力より強くする動作のうちの少なくとも1つであることが好ましい。これにより、ピンチイン動作から一連の動作で画像内のオブジェクトに対して所望の処理を行うことができる。
オブジェクト領域に関するアクションは、オブジェクト領域をコピー又は移動するアクション、オブジェクト領域をメモリに記録させるアクション、オブジェクト領域の向きを変更するアクション、及びオブジェクト領域を拡大又は縮小させるアクションのうちの少なくとも1つであることが好ましい。これにより、画像内のオブジェクトに対して適切な処理を行うことができる。
画像は撮像素子により得られた撮像画像であることが好ましい。本態様によれば、オブジェクト領域抽出がなされていない画像に対しても、画像内のオブジェクトに対して所望の処理を行うことができる。
上記目的を達成するためにタッチパネルディスプレイ付きデバイスの制御方法の一の態様は、タッチパネルディスプレイに画像を表示させる画像表示工程と、タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、ピンチイン動作によってタッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、接触領域認識工程が認識した接触領域に基づいて、画像に対して接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、ピンチイン動作からピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、ピンチイン動作以外の動作に遷移したと認識した場合に、タッチパネルディスプレイに表示された画像に対してオブジェクト領域に関するアクションを行う出力アクション工程と、を備えたタッチパネルディスプレイ付きデバイスの制御方法である。
本態様によれば、簡便な操作で画像内のオブジェクトに対して所望の処理を行うことができる。上記のタッチパネルディスプレイ付きデバイスの制御方法をコンピュータに実行させるためのプログラムも本態様に含まれる。
本発明によれば、簡便な操作で画像内のオブジェクトに対して所望の処理を行うことができる。
図1は、タブレットPCの正面斜視図である。 図2は、タブレットPCの背面斜視図である。 図3は、タブレットPCのシステム構成を示すブロック図である。 図4は、タッチパネルディスプレイ制御部のシステム構成を示すブロック図である。 図5は、接触領域を説明するための図である。 図6は、タブレットPCの制御方法を示すフローチャートである。 図7は、タッチパネルディスプレイに画像が表示された例を示す図である。 図8は、タッチパネルディスプレイに対するピンチイン動作を説明するための図である。 図9は、ピンチイン動作からピンチイン動作以外の動作への遷移とオブジェクト領域に関するアクションを説明するための図である。 図10は、一連の動作を終了した時点におけるタッチパネルディスプレイに表示された画像を示す図である。 図11は、異なる画像間でのオブジェクトのコピーについて説明するための図である。 図12は、一連の動作を終了した時点におけるタッチパネルディスプレイに表示された画像を示す図である。 図13は、オブジェクトのコピーについて説明するための図である。 図14は、一連の動作を終了した時点におけるタッチパネルディスプレイに表示された画像を示す図である。 図15は、オブジェクトの回転について説明するための図である。 図16は、一連の動作を終了した時点におけるタッチパネルディスプレイに表示された画像を示す図である。 図17は、オブジェクトの拡大について説明するための図である。 図18は、一連の動作を終了した時点におけるタッチパネルディスプレイに表示された画像を示す図である。
以下、添付図面に従って本発明の好ましい実施形態について詳説する。
<タッチパネルディスプレイ付きデバイス>
図1は、本実施形態に係るタッチパネルディスプレイ付きデバイスの一例であるタブレット型コンピュータ端末10(以下、タブレットPC10と呼ぶ。PCはPersonal Computerの略)の正面斜視図であり、図2は背面斜視図である。図1及び図2に示すように、タブレットPC10は、矩形の輪郭を有する平板状の筐体12を備えている。筐体12は、タッチパネルディスプレイ14と、操作ボタン16と、スピーカ18と、内蔵カメラ20と、外部接続端子24と、を備えて構成される。
図3は、タブレットPC10のシステム構成を示すブロック図である。図3に示すように、タブレットPC10は、タブレットPC10の全体の動作を制御するCPU(Central Processing Unit)30を備えている。CPU30には、システムバス32を介して、メインメモリ34と、不揮発性メモリ36と、モバイル通信部38と、無線LAN(Local Area Network)通信部40と、近距離無線通信部42と、有線通信部44と、キー入力部50と、音声処理部52と、撮像制御部54と、タッチパネルディスプレイ制御部60と、が接続されている。
CPU30は、不揮発性メモリ36に記憶されたOS(Operating System)、及びOS上で動作するアプリケーションプログラム、及び定型データ等を読み出し、メインメモリ34に展開して動作プログラムを実行することにより、このコンピュータ全体の動作を制御する制御部として機能する。
メインメモリ34は、例えば、RAM(Random Access Memory)で構成され、CPU30のワークメモリとして機能する。
不揮発性メモリ36は、例えば、フラッシュEEPROM(Electrically Erasable Programmable Read Only Memory)で構成され、OS、アプリケーションプログラム、及び各種定型データを記憶する。また、不揮発性メモリ36は、タブレットPC10の記憶部として機能し、各種データを記憶する。
モバイル通信部38は、第4世代移動通信システム(4G:4th Generation)又は第5世代移動通信システム(5G:5th Generation)によって、アンテナ38Aを介して不図示の最寄りの無線基地局との間でデータの送受信を行う。
無線LAN通信部40は、アンテナ40Aを介して、無線LANアクセスポイント又は無線LAN通信が可能な外部機器との間で例えばIEEE(Institute of Electrical and Electronics Engineers)802.11a/b/g/n規格等の無線LAN通信規格に従った無線LAN通信を行う。
近距離無線通信部42は、アンテナ42Aを介して、例えばクラス2(半径約10m以内)の範囲にある他のBluetooth(登録商標)規格の機器との間で通信を行う。
有線通信部44は、外部接続端子24を介して不図示のケーブルで接続された外部機器との間で所定の通信規格に従った通信を行う。
キー入力部50は、複数の操作ボタン16を駆動する駆動回路で構成される。
音声処理部52は、システムバス32を介して与えられるデジタル音声データをアナログ化する。アナログ化された音声信号は、スピーカ18から再生出力される。
撮像制御部54は、撮像レンズ20A及び撮像素子20Bを備えた内蔵カメラ20から出力されるアナログの画像信号をデジタル化し、所要の信号処理を施して出力する。
タッチパネルディスプレイ14は、画像等を表示するカラーLCD(Liquid Crystal Display)パネル等のディスプレイ部14Aと、カラーLCDパネルの前面に配置され、タッチ入力を受け付ける透明電極等のタッチパネル部14Bと、タッチパネル部14Bの接触位置の押圧力を検知する押圧力センサ14Cと、を備えている。
タッチパネル部14Bは、例えばガラス又はプラスティック等からなり、光透過性を有する基板本体と、基板本体の上に面状に設けられ、光透過性を有する位置検出用電極と、位置検出用電極上に設けられた絶縁層とを有する静電容量式タッチパネルである。タッチパネル部14Bは、ディスプレイ部14Aの前面に配置されており、ユーザのタッチ操作に対応した2次元の位置座標情報を生成して出力する。
タッチパネルディスプレイ制御部60は、タッチパネルディスプレイ14を制御する。タッチパネルディスプレイ制御部60は、ディスプレイ部14Aに表示した画像の座標とタッチパネル部14Bにおいてタッチ操作された座標とを対応付ける。
図4は、タッチパネルディスプレイ制御部60のシステム構成を示すブロック図である。図4に示すように、タッチパネルディスプレイ制御部60は、表示制御部62と、入力認識部68と、画像処理部76と、を備えている。
表示制御部62は、CPU30からの指令に基づいて、ディスプレイ部14Aに各種情報を表示させる。表示制御部62は、画像表示部64を備えている。
画像表示部64は、CPU30からの指令に基づいて、ディスプレイ部14Aに各種画像を表示させる。画像表示部64は、例えば内蔵カメラ20によって撮像された撮像画像をディスプレイ部14Aに表示させる。また、画像表示部64は、不揮発性メモリ36から読み出した画像をディスプレイ部14Aに表示させる。さらに、画像表示部64は、モバイル通信部38、無線LAN通信部40、近距離無線通信部42、及び有線通信部44を介して取得した画像をディスプレイ部14Aに表示させる。
入力認識部68は、タッチパネル部14Bからユーザのタッチ操作に対応した2次元の位置座標情報を取得してユーザの入力動作を認識する。入力認識部68は、ピンチイン動作認識部70と、接触領域認識部72と、動作遷移認識部74と、を備えている。
ピンチイン動作認識部70は、タッチパネル部14Bに対するユーザのピンチイン動作を認識する。ピンチイン動作とは、タッチパネル部14Bの2箇所の位置に例えば指を接触させた状態で、2点間の距離を縮小するように接触位置を近づける動作である。
接触領域認識部72は、ピンチイン動作において例えば指がタッチパネル部14Bと接触した接触領域を認識する。
図5は、接触領域を説明するための図である。タッチパネルディスプレイ14上の位置である始点PS1に右手人差し指を接触させ、かつタッチパネルディスプレイ14上の位置である始点PS2に右手親指を接触させた状態から、右手人差し指を終点PE1までタッチパネルディスプレイ14上で移動させ、かつ右手親指を終点PE2までタッチパネルディスプレイ14上で移動させて、ピンチイン動作を行ったものとする。この場合において接触領域とは、始点PS1から終点PE1まで右手人差し指がタッチパネルディスプレイ14に接触していた領域A1、及び始点PS2から終点PE2まで右手親指がタッチパネルディスプレイ14に接触していた領域A2を指す。領域A1は始点PS1及び終点PE1を含み、領域A2は始点PS2及び終点PE2を含む。このように、接触領域とは、ピンチイン動作においてタッチパネルディスプレイ14と接触した領域を指す。
図4の説明に戻り、動作遷移認識部74は、ピンチイン動作からピンチイン動作以外の動作に遷移したことを認識する。ピンチイン動作以外の動作は、例えば、ピンチアウト動作、ドラッグ動作、回転動作、非接触動作等である。
ピンチアウト動作とは、タッチパネル部14Bの2箇所の位置に例えば指を接触させた状態で、2点間の距離を拡大するように接触位置を遠ざける動作である。ドラッグ動作とは、タッチパネル部14Bの接触位置を移動させる動作であり、ここではピンチイン動作した状態(ピンチイン状態)から2点間の距離を一定としたまま接触位置を移動させる動作を含む。
回転動作とは、ピンチイン状態から指を回転させて(捻って)2点の接触位置の相対的な位置関係を回転させる動作である。非接触動作とは、タッチパネル部14Bとの接触を非接触にする動作である。
また、ピンチイン動作以外の動作は、タッチパネル部14Bに対する押圧力をピンチイン動作における押圧力より相対的に大きくする押し込み動作であってもよい。
画像処理部76は、入力された画像に対して処理を行う。画像処理部76は、オブジェクト領域決定部78と、出力アクション部80と、を備えている。
オブジェクト領域決定部78は、接触領域認識部72が認識した接触領域に基づいて、ディスプレイ部14Aに表示された画像に対して接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定する。
出力アクション部80は、ピンチイン動作からピンチイン動作以外の動作に遷移した場合に、ディスプレイ部14Aに表示された画像に対してオブジェクト領域に関するアクションを行う。
以下の説明において、ディスプレイ部14Aの表示、及びタッチパネル部14Bに対するタッチ操作を、単にタッチパネルディスプレイ14の表示、及びタッチパネルディスプレイ14に対する操作と表記する。
<タッチパネルディスプレイ付きデバイスの制御方法>
タブレットPC10は、ユーザの操作により画像内のオブジェクトについて所望の処理を行うことができる。図6は、タブレットPC10の制御方法を示すフローチャートである。図6に示すように、タブレットPC10の制御方法は、画像表示工程(ステップS1)と、ピンチイン動作認識工程(ステップS2)と、接触領域認識工程(ステップS3)と、オブジェクト領域決定工程(ステップS4)と、動作遷移認識工程(ステップS5)と、出力アクション工程(ステップS6)と、を含んでいる。
ステップS1では、画像表示部64は、画像をタッチパネルディスプレイ14に表示させる。ユーザはタッチパネルディスプレイ14をタッチ操作することで、所望の画像をタッチパネルディスプレイ14に表示させることができる。本実施形態では、画像表示部64は、例えば不揮発性メモリ36から読み出した画像を表示させる。ここで表示される画像は、撮像素子を用いて撮像された撮像画像、コンピュータで作成したものではない画像、及びセグメンテーションされていない画像のいずれかである。
ステップS2では、ピンチイン動作認識部70は、タッチパネルディスプレイ14に対するユーザのピンチイン動作を認識する。ユーザは、タッチパネルディスプレイ14に表示された画像に含まれるオブジェクトのうち、所望の処理を行いたいオブジェクトの少なくとも一部が接触領域となるようにピンチイン動作を行う。ピンチイン動作認識部70がピンチイン動作を認識した場合は、ステップS3へ移行する。
ステップS3では、接触領域認識部72は、ピンチイン動作によってタッチパネルディスプレイ14と接触した接触領域を認識する。
ステップS4では、オブジェクト領域決定部78は、ユーザが選択したオブジェクト領域を決定する。具体的には、ステップS3で認識した接触領域に基づいて、タッチパネルディスプレイ14に表示された画像に対して接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定する。
このために、オブジェクト領域決定部78は、最初に、タッチパネルディスプレイ14に表示された画像についてセグメンテーション処理を行い、画像から複数のオブジェクト領域を抽出する。領域抽出処理には、画素値分布に基づいた二値化(多値化)、隣接画素間の繋がりからセグメンテーションするグラフカット、条件を満たす画素の領域を拡張しながら抽出する領域拡張法(Region Growing)、及び畳み込みニューラルネットワーク(Convolutional Neural Network)を用いた領域抽出等が考えられるが、これらに限定されるものではなく、他の公知の手法を用いてもよい。
次に、オブジェクト領域決定部78は、接触領域の位置座標情報と複数のオブジェクト領域の位置座標情報とを比較し、接触領域の少なくとも一部を含むオブジェクト領域を探索する。
オブジェクト領域決定部78は、接触領域をシード点(前景シード、前景ラベル)として用いてグラフカットや領域拡張法による領域抽出処理を行うことで、接触領域の少なくとも一部を含むオブジェクト領域を探索してもよい。
接触領域の少なくとも一部を含むオブジェクト領域が1つのみの場合は、オブジェクト領域決定部78は、そのオブジェクト領域をユーザが選択したオブジェクト領域として決定する。また、接触領域の少なくとも一部を含むオブジェクト領域が複数存在する場合は、接触領域を最も多く含むオブジェクト領域をユーザが選択したオブジェクト領域として決定してもよいし、2つの接触領域(図5に示した領域A1及び領域A2)の両方を含むオブジェクト領域をユーザが選択したオブジェクト領域として決定してもよい。
ステップS5では、動作遷移認識部74は、ピンチイン動作からピンチイン動作以外の動作に遷移したことを認識する。ユーザは、タッチパネルディスプレイ14に対するタッチ操作を、ピンチイン動作からピンチイン動作以外の動作に遷移させることで、選択したオブジェクトに対して所望の処理を施すことができる。動作遷移認識部74がピンチイン動作以外の動作に遷移したと認識すると、ステップS6に移行する。
ステップS6では、出力アクション部80は、タッチパネルディスプレイ14に表示された画像に対してステップS4で決定したオブジェクト領域に関するアクションであって、ステップS5によるピンチイン動作以外の動作に割り当てられたアクションを行う。
このように、本実施形態によれば、ユーザの簡便な操作で画像内のオブジェクトについてオブジェクト領域に関する所望のアクションを行うことができる。以下においては、「ピンチイン動作以外の動作」と「オブジェクト領域に関するアクション」の詳細について説明する。
〔同一画像内へのコピー・移動〕
図7は、タッチパネルディスプレイ14に画像G1が表示された例を示す図である。画像G1は、昆虫と樹木が写った撮像画像である。画像G1は、画像内のセグメンテーションが行われていない画像である。
図8は、タッチパネルディスプレイ14に対するピンチイン動作を説明するための図である。図8に示すように、ピンチイン動作は例えば2本の指を用いて行う。図8に示す例では、ユーザは画像G1の昆虫が写った領域の付近についてピンチイン動作を行っている。より詳細には、ユーザは、昆虫の少なくとも一部が接触領域となるようにピンチイン動作を行っている。
このピンチイン動作に対して、オブジェクト領域決定部78は、画像G1についてセグメンテーション処理を行い、画像G1から昆虫のオブジェクト領域及び樹木のオブジェクト領域を抽出する。さらに、オブジェクト領域決定部78は、昆虫のオブジェクト領域及び樹木のオブジェクト領域から、接触領域の少なくとも一部を含むオブジェクトが占めるオブジェクト領域を決定する。この例では、オブジェクト領域決定部78は、昆虫のオブジェクト領域OB1Aを決定する。
図9は、ピンチイン動作からピンチイン動作以外の動作への遷移とオブジェクト領域に関するアクションを説明するための図である。図9に示す例では、ユーザは、ピンチイン動作から指をピンチイン状態としたままドラッグ動作に遷移させている。
このドラッグ動作への遷移に応じた出力アクションとして、出力アクション部80は、タッチパネルディスプレイ14の指の接触位置に、昆虫のオブジェクト領域OB1Aのコピー領域であって、色が透過したコピー領域であるオブジェクト領域OB1Bを表示させる。
さらに、図9に示す例では、ユーザは、昆虫をコピーしたい位置においてドラッグ動作からピンチアウト動作に遷移させている。
このピンチアウト動作への遷移に応じた出力アクションとして、出力アクション部80は、昆虫のオブジェクト領域OB1Aのコピー領域であるオブジェクト領域OB1Cを、ピンチアウト動作を行った位置にコピーする。ピンチアウト動作を行った位置とは、例えばピンチアウト動作の始点の2点の接触位置の中心位置である。また、ピンチアウト動作を行った位置は、ピンチアウト動作の終点の2点の接触位置の中心位置であってもよい。
図10は、この一連の動作を終了した時点におけるタッチパネルディスプレイ14に表示された画像G2を示す図である。画像G2は、図7に示した画像G1から、昆虫がコピーされて増加した画像となっている。
以上のように、本実施形態によれば、ユーザの簡便な操作で画像内のオブジェクトを同一画像内の異なる位置にコピーすることができる。即ち、ユーザは、コピーしたいオブジェクトの少なくとも一部を接触するようにピンチイン動作を行うことで、所望のオブジェクト領域を抽出することができる。また、ピンチイン動作から連続的にドラッグ動作及びピンチアウト動作を行うだけで、同一画像内の所望の位置にオブジェクトをコピーすることができる。
従来は、オブジェクト領域の抽出には多くのステップが必要であり、ユーザにとって操作が煩雑であった。例えば、非特許文献1のソフトウェアにおいては、シード点のユーザによる設定、オブジェクト領域決定ステップのユーザによる開始、決定されたオブジェクト領域のユーザによる選択という、独立した3動作が少なくとも必要であった。しかしながら、本実施形態では、ピンチイン動作が、従来の技術における上記の3動作を1動作で代替することを可能としており、必要とされるユーザ動作の直観化に寄与している。
このように、本実施形態では、指をタッチパネルディスプレイから離してボタンの操作を行う等の余分なアクションをユーザに強いることなく、未だオブジェクト領域抽出がなされていない画像に対しても、直観的な操作によりユーザがオブジェクトのコピーを行うことができる。
なお、本実施形態では、画像内のオブジェクトを同一画像内の異なる位置にコピーする例を説明したが、画像内のオブジェクトを同一画像内の異なる位置に移動させてもよい。この場合、移動したオブジェクト領域の元の位置を、周囲の画素値を用いて補間してもよい。
〔異なる画像間でのコピー・移動〕
画像内のオブジェクトは、異なる画像にコピー又は移動することも可能である。
図11は、異なる画像間でのオブジェクトのコピーについて説明するための図である。図11に示す例では、画像表示部64は、タッチパネルディスプレイ14に画像G1及び画像G3を並べて表示させている。画像G1は、昆虫と樹木が写った撮像画像であり、画像G3は樹木が写った画像である。
図11に示すように、ユーザがピンチイン動作を行うと、同一画像内のコピーの場合と同様に、オブジェクト領域決定部78は、接触領域の少なくとも一部を含むオブジェクトが占めるオブジェクト領域として、昆虫のオブジェクト領域OB1Aを決定する。
また、図11に示すように、ユーザがピンチイン動作からドラッグ動作に遷移させると、このドラッグ動作への遷移に応じた出力アクションとして、出力アクション部80は、タッチパネルディスプレイ14の指の接触位置に、昆虫のオブジェクト領域OB1Aのコピー領域であって、色が透過したコピー領域であるオブジェクト領域OB1Dを表示させる。
ここでのドラッグ動作は、画像G1が表示された位置から画像G3が表示された位置まで跨いで行われている。さらに、ユーザは、図11に示すように、昆虫のオブジェクト領域をコピーしたい画像G3の位置においてピンチアウト動作に遷移させる。
このピンチアウト動作への遷移に応じた出力アクションとして、出力アクション部80は、昆虫のオブジェクト領域OB1Aのコピー領域であるオブジェクト領域OB1Eを、ピンチアウト動作を行った位置にコピーする。
図12は、この一連の動作を終了した時点におけるタッチパネルディスプレイ14の表示を示す図である。図12に示すように、タッチパネルディスプレイ14には、画像G1と画像G4が並べて表示されている。画像G4は、図11に示した画像G3から、昆虫がコピーされて増加した画像となっている。
以上のように、ユーザの簡便な操作で画像内のオブジェクトを異なる画像の所望の位置にコピーすることができる。オブジェクトはコピーではなく移動させてもよい。
ここまでは、画像G1の昆虫のオブジェクト領域をコピーする例を説明したが、ピンチイン動作によって樹木のオブジェクト領域を選択し、樹木のオブジェクト領域をコピー又は移動することも当然可能である。
図13は、図11に示す場合とは異なるオブジェクトのコピーについて説明するための図である。図13に示す例では、画像表示部64は、タッチパネルディスプレイ14に画像G1及び画像G5を並べて表示させている。画像G1は、昆虫と樹木が写った撮像画像であり、画像G3は動物が写った画像である。
図13に示すように、まず、ユーザがピンチイン動作を行う。図13に示す例では、ユーザは画像G1の樹木が写った領域の付近についてピンチイン動作を行っている。より詳細には、ユーザは、樹木の少なくとも一部が接触領域となるようにピンチイン動作を行っている。
オブジェクト領域決定部78は、接触領域の少なくとも一部を含むオブジェクトが占めるオブジェクト領域として、樹木のオブジェクト領域OB2Aを決定する。
また、ユーザは、図13に示すように、ピンチイン動作からドラッグ動作に遷移させる。このドラッグ動作への遷移に応じた出力アクションとして、出力アクション部80は、タッチパネルディスプレイ14の指の接触位置に、樹木のオブジェクト領域OB2Aのコピー領域であって、色が透過したコピー領域を表示させてもよい。
さらに、ユーザは、樹木のオブジェクト領域をコピーしたい画像G5の位置においてピンチアウト動作に遷移させている。このドラッグ動作及びピンチアウト動作への遷移に応じた出力アクションとして、出力アクション部80は、樹木のオブジェクト領域OB2Aのコピー領域であるオブジェクト領域OB2Bを、ピンチアウト動作を行った位置にコピーする。
図14は、この一連の動作を終了した時点におけるタッチパネルディスプレイ14の表示を示す図である。図14に示すように、タッチパネルディスプレイ14には、画像G1と画像G6が並べて表示されている。画像G6は、図13に示した画像G5から、樹木がコピーされて増加した画像となっている。
ここでは、樹木は昆虫ごとコピーされているが、昆虫のオブジェクトと樹木のオブジェクトを区別して樹木のオブジェクトのみコピーしてもよい。
このように、ユーザはピンチイン動作の接触領域を異ならせることで、画像に含まれる複数のオブジェクトのうち所望のオブジェクト領域を選択することができる。
異なる画像間に限られず、同一画像内で樹木のオブジェクト領域をコピー又は移動することも当然可能である。
〔回転〕
タブレットPC10は、所望のオブジェクトの向きを変更することが可能である。図15は、オブジェクトの回転について説明するための図である。
図7に示した画像G1についてユーザがピンチイン動作を行って、その後ドラッグ動作に遷移させると、図15に示すように、このドラッグ動作への遷移に応じた出力アクションとして、出力アクション部80は、タッチパネルディスプレイ14の指の接触位置に、抽出したオブジェクト領域OB1Aのコピー領域であって、色が透過したコピー領域であるオブジェクト領域OB1Bを表示する。
その後、ユーザは、ピンチイン状態から回転動作に遷移させる。この回転動作への遷移に応じた出力アクションとして、出力アクション部80は、2点の接触位置の相対的な位置関係の回転量に応じて、オブジェクト領域OB1Bの向きを変更して表示する。したがって、ユーザは回転動作を行うことで、抽出したオブジェクトを回転(向きを変更)させることができる。
その後、ユーザがピンチアウト動作を行うと、出力アクション部80は、このピンチアウト動作への遷移に応じて、向きが変更されたオブジェクト領域OB1Bを、ピンチアウト動作を行った位置にコピーする。
図16は、この一連の動作を終了した時点におけるタッチパネルディスプレイ14に表示された画像G7を示す図である。画像G7は、図7に示した画像G1から、向きが変更された昆虫がコピーされて増加した画像となっている。
ここではピンチイン動作後に、ドラッグ動作、回転動作、及びピンチアウト動作の順に遷移させているが、回転動作、ドラッグ動作、及びピンチアウト動作の順に遷移させても同様の結果を得ることができる。また、回転動作にドラッグ動作及びピンチアウト動作は必須ではない。例えば、ピンチイン動作後に回転動作を行い、その後非接触動作に遷移させることで、決定したオブジェクト領域について元の位置で向きを変更し、向きを変更したオブジェクトをその元の位置に配置することも可能である。
〔拡大/縮小〕
タブレットPC10は、所望のオブジェクトの拡大又は縮小を行うことも可能である。図17は、オブジェクトの拡大について説明するための図である。
図7に示した画像G1についてユーザがピンチイン動作を行い、指とタッチパネルディスプレイ14との接触状態を維持したまま、ピンチアウト動作に遷移させると、図17に示すように、このピンチアウト動作への遷移に応じた出力アクションとして、出力アクション部80は、タッチパネルディスプレイ14に、抽出したオブジェクト領域OB1Aを拡大したオブジェクト領域OB1Fを配置する。
この場合、ピンチアウト動作を拡大する出力アクションに割り当てているため、配置する出力アクションは、非接触動作で行う。ただし、動作とアクションの割り当てはこれに限定されるものではない。
ピンチアウト動作の接触領域の大きさ(ピンチイン動作の始点と終点との間の距離)によって拡大率を変更してもよい。
図18は、この一連の動作が終了した時点におけるタッチパネルディスプレイ14に表示された画像G8を示す図である。画像G8は、図7に示した画像G1から、昆虫が拡大された画像となっている。このように、ユーザは所望のオブジェクトのサイズを変更することができる。
また、オブジェクトのサイズを縮小する場合は、押し込み動作によって行う。即ち、タッチパネルディスプレイ14に表示された画像に対してユーザがピンチイン動作を行って、その後、ピンチイン状態で指とタッチパネルディスプレイ14との接触状態を維持したまま、押し込み動作に遷移させると、この押し込み動作への遷移に応じた出力アクションとして、出力アクション部80は、タッチパネルディスプレイ14に、抽出したオブジェクト領域を縮小したオブジェクト領域を表示する。
この場合、押し込み回数、あるいは押し込み時間で縮小率を変更してもよい。
〔保存〕
タブレットPC10は、所望のオブジェクトを不揮発性メモリ36に保存することもできる。
例えば、ピンチイン動作の後、非接触動作に遷移させることで抽出したオブジェクト領域の画像を保存する。保存のための動作は、非接触動作に限定されるものではなく、ピンチアウト動作、押し込み動作等であってもよい。
また、上記の例と組み合わせることで、「抽出→回転→保存」、「抽出→拡大→保存」のように、抽出したオブジェクト領域に対して編集を加えた画像を保存してもよい。
不揮発性メモリ36に保存したオブジェクト領域の画像は、適宜読み出してタッチパネルディスプレイ14に表示させることができる。
<その他>
どの「ピンチイン動作以外の動作」をどの「オブジェクト領域に関するアクション」に割り当てるかは、上記の例に限定されず、適宜決めればよい。1回のピンチイン動作というユーザの簡便な操作でオブジェクトを指定することができる点が重要である。
ここではタッチパネルディスプレイ付きデバイスの一例としてタブレット型コンピュータ端末について説明したが、スマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、ノート型のパーソナルコンピュータ等に適用することも可能である。
上記のタッチパネルディスプレイ付きデバイスの制御方法は、各工程をコンピュータに実現させるためのプログラムとして構成し、このプログラムを記憶したCD-ROM(Compact Disk-Read Only Memory)等の非一時的な記録媒体を構成することも可能である。
ここまで説明した実施形態において、タッチパネルディスプレイ制御部60の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、或いはCPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、サーバ及びクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。
10…タブレット型コンピュータ端末(タブレットPC)
12…筐体
14…タッチパネルディスプレイ
14A…ディスプレイ部
14B…タッチパネル部
14C…押圧力センサ
16…操作ボタン
18…スピーカ
20…内蔵カメラ
20A…撮像レンズ
20B…撮像素子
24…外部接続端子
32…システムバス
34…メインメモリ
36…不揮発性メモリ
38…モバイル通信部
38A…アンテナ
40…無線LAN通信部
40A…アンテナ
42…近距離無線通信部
42A…アンテナ
44…有線通信部
50…キー入力部
52…音声処理部
54…撮像制御部
60…タッチパネルディスプレイ制御部
62…表示制御部
64…画像表示部
68…入力認識部
70…ピンチイン動作認識部
72…接触領域認識部
74…動作遷移認識部
76…画像処理部
78…オブジェクト領域決定部
80…出力アクション部
S1~S6…タブレットPCの制御方法の各ステップ

Claims (20)

  1. タッチパネルディスプレイと、
    前記タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示部と、
    前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、
    前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、
    前記接触領域認識部が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、
    前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、
    前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第1の画像又は前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション部と、
    を備え、
    前記第1の画像は少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
    前記オブジェクト領域決定部は、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
    前記出力アクション部は、前記ピンチイン動作以外の動作に遷移した位置が前記第1の画像の位置の場合は前記第1の画像に対して前記オブジェクト領域に関するアクションを行い、前記第2の画像の位置の場合は前記第2の画像に対して前記オブジェクト領域に関するアクションを行い、
    前記ピンチイン動作以外の動作は前記タッチパネルディスプレイに対する押圧力を前記ピンチイン動作における押圧力より強くする動作であるタッチパネルディスプレイ付きデバイス。
  2. タッチパネルディスプレイと、
    前記タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示部と、
    前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、
    前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、
    前記接触領域認識部が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、
    前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、
    前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション部と、
    を備え、
    前記第1の画像は少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
    前記オブジェクト領域決定部は、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
    前記ピンチイン動作以外の動作は前記タッチパネルディスプレイに対する押圧力を前記ピンチイン動作における押圧力より強くする動作であるタッチパネルディスプレイ付きデバイス。
  3. 前記オブジェクト領域に関するアクションは、前記オブジェクト領域の向きを変更するアクションである請求項1又は2に記載のタッチパネルディスプレイ付きデバイス。
  4. タッチパネルディスプレイと、
    前記タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示部と、
    前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、
    前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、
    前記接触領域認識部が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、
    前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、
    前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション部と、
    を備え、
    前記第1の画像は少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
    前記オブジェクト領域決定部は、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
    前記オブジェクト領域に関するアクションは、前記オブジェクト領域の向きを変更するアクションであるタッチパネルディスプレイ付きデバイス。
  5. 前記オブジェクト領域に関するアクションは、前記オブジェクト領域を拡大又は縮小させるアクションである請求項1からのいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
  6. タッチパネルディスプレイと、
    前記タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示部と、
    前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識部と、
    前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識部と、
    前記接触領域認識部が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定部と、
    前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識部と、
    前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション部と、
    を備え、
    前記第1の画像は少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
    前記オブジェクト領域決定部は、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
    前記オブジェクト領域に関するアクションは、前記オブジェクト領域を拡大又は縮小させるアクションであるタッチパネルディスプレイ付きデバイス。
  7. 前記ピンチイン動作以外の動作は前記第1の画像から前記第1の画像又は前記第2の画像へのドラッグ動作である請求項1から6のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
  8. 前記ピンチイン動作以外の動作は前記ドラッグ動作後のピンチアウト動作である請求項に記載のタッチパネルディスプレイ付きデバイス。
  9. 前記ピンチイン動作以外の動作は前記ドラッグ動作後の前記タッチパネルディスプレイとの接触を非接触にする動作である請求項又は記載のタッチパネルディスプレイ付きデバイス。
  10. 前記オブジェクト領域に関するアクションは、前記オブジェクト領域をコピー又は移動するアクションである請求項1からのいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
  11. 前記オブジェクト領域に関するアクションは、前記オブジェクト領域をメモリに記録させるアクションである請求項1から10のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
  12. 前記画像は撮像素子により得られた撮像画像である請求項1から11のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
  13. 前記第1オブジェクトは、第2オブジェクトの上に配置されたオブジェクトである請求項1から12のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
  14. 前記オブジェクト領域決定部は、前記接触領域が第2オブジェクトの領域に含まれる場合、第1オブジェクトと第2オブジェクトの領域を、オブジェクト領域として決定する請求項1から13のいずれか1項に記載のタッチパネルディスプレイ付きデバイス。
  15. タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示工程と、
    前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、
    前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、
    前記接触領域認識工程が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、
    前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、
    前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第1の画像又は前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション工程と、
    を備え、
    前記第1の画像は、少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
    前記オブジェクト領域決定工程において、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
    前記出力アクション工程は、前記ピンチイン動作以外の動作に遷移した位置が前記第1の画像の位置の場合は前記第1の画像に対して前記オブジェクト領域に関するアクションを行い、前記第2の画像の位置の場合は前記第2の画像に対して前記オブジェクト領域に関するアクションを行い、
    前記ピンチイン動作以外の動作は前記タッチパネルディスプレイに対する押圧力を前記ピンチイン動作における押圧力より強くする動作である、タッチパネルディスプレイ付きデバイスの制御方法。
  16. タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示工程と、
    前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、
    前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、
    前記接触領域認識工程が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、
    前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、
    前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション工程と、
    を備え、
    前記第1の画像は、少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
    前記オブジェクト領域決定工程において、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
    前記ピンチイン動作以外の動作は前記タッチパネルディスプレイに対する押圧力を前記ピンチイン動作における押圧力より強くする動作である、タッチパネルディスプレイ付きデバイスの制御方法。
  17. タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示工程と、
    前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、
    前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、
    前記接触領域認識工程が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、
    前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、
    前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション工程と、
    を備え、
    前記第1の画像は、少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
    前記オブジェクト領域決定工程において、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
    前記オブジェクト領域に関するアクションは、前記オブジェクト領域の向きを変更するアクションである、タッチパネルディスプレイ付きデバイスの制御方法。
  18. タッチパネルディスプレイに第1の画像及び第2の画像を並べて表示させる画像表示工程と、
    前記タッチパネルディスプレイに対するユーザのピンチイン動作を認識するピンチイン動作認識工程と、
    前記ピンチイン動作によって前記タッチパネルディスプレイと接触した接触領域を認識する接触領域認識工程と、
    前記接触領域認識工程が認識した接触領域に基づいて、前記第1の画像に対して前記接触領域を少なくとも一部含むオブジェクトが占めるオブジェクト領域を決定するオブジェクト領域決定工程と、
    前記ピンチイン動作から前記ピンチイン動作以外の動作に遷移したことを認識する動作遷移認識工程と、
    前記ピンチイン動作以外の動作に遷移したと認識した場合に、前記タッチパネルディスプレイに表示された前記第2の画像に対して前記オブジェクト領域に関するアクションを行う出力アクション工程と、
    を備え、
    前記第1の画像は、少なくとも第1オブジェクトの領域が第2オブジェクトの領域内に含まれる画像であり、
    前記オブジェクト領域決定工程において、前記接触領域の少なくとも一部が第2オブジェクトの領域内における前記第1オブジェクトの領域に含まれる場合、第1オブジェクトの領域をオブジェクト領域として決定し、
    前記オブジェクト領域に関するアクションは、前記オブジェクト領域を拡大又は縮小させるアクションである、タッチパネルディスプレイ付きデバイスの制御方法。
  19. 請求項15から18のいずれか1項に記載のタッチパネルディスプレイ付きデバイスの制御方法をコンピュータに実行させるためのプログラム。
  20. 非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項19に記載のプログラムをコンピュータに実行させる記録媒体。
JP2020548321A 2018-09-19 2019-09-05 タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム Active JP7349441B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018175097 2018-09-19
JP2018175097 2018-09-19
PCT/JP2019/035057 WO2020059528A1 (ja) 2018-09-19 2019-09-05 タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2020059528A1 JPWO2020059528A1 (ja) 2021-08-30
JP7349441B2 true JP7349441B2 (ja) 2023-09-22

Family

ID=69887263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020548321A Active JP7349441B2 (ja) 2018-09-19 2019-09-05 タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム

Country Status (4)

Country Link
US (1) US11416133B2 (ja)
JP (1) JP7349441B2 (ja)
CN (1) CN112740163A (ja)
WO (1) WO2020059528A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008004093A (ja) 2006-06-22 2008-01-10 Xerox Corp 画像データ編集システム及び方法
JP2010140300A (ja) 2008-12-12 2010-06-24 Sharp Corp 表示装置、制御方法、制御プログラムおよび記録媒体
JP2012505466A (ja) 2008-10-13 2012-03-01 サムスン エレクトロニクス カンパニー リミテッド タッチスクリーンを利用したオブジェクト管理方法及び装置
JP2014134867A (ja) 2013-01-08 2014-07-24 Sharp Corp 情報処理端末
JP2016001509A (ja) 2015-09-24 2016-01-07 京セラ株式会社 電子機器、制御方法および制御プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575641B2 (en) * 2012-03-20 2017-02-21 Adobe Systems Incorporated Content aware image editing
DK201870347A1 (en) * 2018-01-24 2019-10-08 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008004093A (ja) 2006-06-22 2008-01-10 Xerox Corp 画像データ編集システム及び方法
JP2012505466A (ja) 2008-10-13 2012-03-01 サムスン エレクトロニクス カンパニー リミテッド タッチスクリーンを利用したオブジェクト管理方法及び装置
JP2010140300A (ja) 2008-12-12 2010-06-24 Sharp Corp 表示装置、制御方法、制御プログラムおよび記録媒体
JP2014134867A (ja) 2013-01-08 2014-07-24 Sharp Corp 情報処理端末
JP2016001509A (ja) 2015-09-24 2016-01-07 京セラ株式会社 電子機器、制御方法および制御プログラム

Also Published As

Publication number Publication date
US11416133B2 (en) 2022-08-16
US20210200428A1 (en) 2021-07-01
JPWO2020059528A1 (ja) 2021-08-30
WO2020059528A1 (ja) 2020-03-26
CN112740163A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
WO2019185003A1 (zh) 一种显示控制方法及设备
US9405404B2 (en) Multi-touch marking menus and directional chording gestures
CN104011629B (zh) 用于能够进行基于触摸的输入的用户界面的经增强的目标选择方法、设备及***
US20130234957A1 (en) Information processing apparatus and information processing method
KR102462364B1 (ko) 스크롤바를 이용한 이미지 디스플레이 방법 및 이를 위한 장치
JP4900361B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20160203194A1 (en) User terminal for displaying image and image display method thereof
WO2015143713A1 (zh) 确定界面控件的颜色的方法、装置以及终端设备
CN103455242B (zh) 屏幕画面裁切方法及装置
KR20140100547A (ko) 모바일 장치상의 풀 3d 상호작용
TW201407420A (zh) 改善之視訊追蹤
JP2015114997A (ja) 図面作成プログラム、図面作成方法及び情報処理装置
US10614633B2 (en) Projecting a two-dimensional image onto a three-dimensional graphical object
TW201642115A (zh) 圖示調整方法、圖示調整系統與電子裝置
US20150205483A1 (en) Object operation system, recording medium recorded with object operation control program, and object operation control method
US10474335B2 (en) Image selection for setting avatars in communication applications
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
JP7349441B2 (ja) タッチパネルディスプレイ付きデバイス及びその制御方法、並びにプログラム
JP7495651B2 (ja) オブジェクト姿勢制御プログラムおよび情報処理装置
CN104917963A (zh) 一种图像处理方法及终端
US9799103B2 (en) Image processing method, non-transitory computer-readable storage medium and electrical device
JP7338330B2 (ja) 表示装置、表示方法、プログラム
US11983877B2 (en) Image processing device, image processing method, program, and portable terminal device
CN113721911B (zh) 虚拟场景的显示比例的控制方法、介质和设备
CN111399631B (zh) 虚拟内容显示方法、装置、终端设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230606

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7349441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150