JP2014209326A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP2014209326A
JP2014209326A JP2014050324A JP2014050324A JP2014209326A JP 2014209326 A JP2014209326 A JP 2014209326A JP 2014050324 A JP2014050324 A JP 2014050324A JP 2014050324 A JP2014050324 A JP 2014050324A JP 2014209326 A JP2014209326 A JP 2014209326A
Authority
JP
Japan
Prior art keywords
image processing
image
control unit
segment
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014050324A
Other languages
English (en)
Other versions
JP5834253B2 (ja
Inventor
長岡 英一
Hidekazu Nagaoka
英一 長岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2014050324A priority Critical patent/JP5834253B2/ja
Priority to US14/225,426 priority patent/US9530216B2/en
Publication of JP2014209326A publication Critical patent/JP2014209326A/ja
Application granted granted Critical
Publication of JP5834253B2 publication Critical patent/JP5834253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】画像の一部分を使用者が指定する作業を、より簡便に実施する画像処理装置を提供する。【解決手段】画像処理装置1は、所定数の画素により構成される画像を表示する表示部5、画像に対する選択操作を受け付ける入力部6、表示部5と入力部6を制御する制御部2、及び制御部2がデータの読み出し又は書き込みを行う記憶部4を備える。制御部2は、画素値と画素位置に基づいて計算された類似性に応じて画像を分割することにより取得した複数の分割領域を生成する。制御部2はまた、入力部6により受け付けられた選択操作に応じて分割領域が選択される毎に、選択された分割領域の識別情報と選択順序とを対応させて記憶部4に記憶し、表示部5において、識別情報が記憶された分割領域を識別可能に表示させる。【選択図】図9

Description

本開示は、画像の一部を使用者が指定して画像処理などを行う画像処理装置において、使用者が指定した範囲を表示する技術に関する。
表示された画像の中から使用者が特定の領域を指定して、所定の画像処理、例えば指定された領域を切り抜く画像処理装置が知られている。このような画像処理装置では、使用者がディスプレイ上に表示された画像を参照しながら、切り抜きたい領域の輪郭部分をデジタイザ、あるいはマウス等のポインティング・デバイスを用いてトレースして、画素単位で領域を指示するものが一般的である(特許文献1)。
特開平5−216992号公報
本開示は、画像の一部分を使用者が指定する作業を、より簡便に実施できる画像処理装置、画像処理方法、及び画像処理プログラムを提供する。
本開示の一つの観点に係る画像処理装置は、表示した画像の領域指定を行う画像処理装置であって、所定数の画素により構成される画像を表示する表示部、画像に対する選択操作を受け付ける入力部、表示部と入力部を制御する制御部、及び制御部がデータの読み出し又は書き込みを行う記憶部、を備える。制御部は、画素値と画素位置に基づいて計算された類似性に応じて画像を分割することにより取得した複数の分割領域を生成する。制御部はまた、入力部により受け付けられた選択操作に応じて分割領域が選択される毎に、選択された分割領域の識別情報と選択順序とを対応させて記憶部に記憶し、表示部において、識別情報が記憶された分割領域を識別可能に表示させる。
本開示の他の観点に係る画像処理方法は、表示装置に表示した画像の領域指定を行う画像処理方法であって、所定数の画素により構成される画像を、画素値と画素位置に基づいて計算された類似性に応じて分割することにより複数の分割領域を取得し、使用者の選択操作に応じて分割領域が選択される毎に、選択された分割領域の識別情報と選択順序とを対応させてメモリに記憶し、識別情報が記憶された分割領域を表示装置において識別可能に表示させる。
本開示における画像処理装置、画像処理方法、及び画像処理プログラムは、画像の一部分を使用者が指定する作業を、より簡便に実施するのに有効である。
実施の形態に係る画像処理装置1の概略構成を示すブロック図 同画像処理装置1の動作を示すフローチャート 同画像処理装置1によるセグメント分割処理の動作を示すフローチャート 同画像処理装置1による入力画像の表示状態を示す図 同画像処理装置1によるセグメント分割処理の初期状態を説明する図 同画像処理装置1によるセグメント分割処理の処理結果を説明する図 同画像処理装置1による領域指定処理の動作を示すフローチャート 同領域指定処理時の表示状態を示す図 同画像処理装置1による個別選択処理の動作を示すフローチャート 同個別選択処理の動作を説明する図 同個別選択処理の動作を説明する図 同個別選択処理とUNDO処理の動作を説明する図 同画像処理装置1によるUNDO処理の動作を示すフローチャート 同画像処理装置1による統合選択処理の動作を示すフローチャート 同統合選択処理の動作を説明する図 同統合選択処理の動作を説明する図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
以下、図1〜図16を用いて、実施の形態1を説明する。
[1.構成]
図1は、画像処理装置1の構成を概略的に示すブロック図である。画像処理装置1は、任意の電子機器であり、例えば、デジタルスチルカメラ、デジタルビデオカメラ、パーソナルコンピュータ、携帯電話機、情報端末である。画像処理装置1は、画像処理装置1内の各部位の動作を統括的に制御する制御部2(制御部の一例)、レンズや撮像素子を備え画像を撮影するカメラやスキャナなどの画像入力部3、撮影した画像などの各種情報を記録する記憶部4(記憶部の一例)、画像などの映像情報を表示する液晶モニターや有機ELディスプレイなどの表示部5(表示部の一例)、使用者からの各種操作の入力を受けるタッチパネルなどの操作入力部6(入力部の一例)を備えている。入力部6は、使用者の指などが表示部5の画面に接触したことを検知し、検知結果は制御部により判定される。
制御部2は、CPU等のプロセッサを含み、所定のプログラムの処理を実行することによって画像処理装置1の動作を実行する。記憶部4は、ハードディスクやシリコンディスク、あるいはSDカード(半導体メモリ)などから構成してもよい。また、キャッシュやRAMなどの一時的な記憶を行うもので構成してもよい。
また操作入力部6には、マウスやタブレットなどのポインティング・デバイスを用いてもよいし、キーボードを利用してもよい。あるいは、各種方式による電子ペンなどを用いてもよい。
[2.動作]
[2−1.画像処理装置の動作]
以上のように構成された画像処理装置1の動作を、図2のフローチャートを用いて説明する。画像処理装置1の制御部2は、使用者の操作による指示に応じて、画像入力部3が撮影した画像を表示部5に表示させる。この場合、あらかじめ画像入力部3が撮影した画像を記憶部4に記憶しておき、記憶部4からその画像を読み出して表示部5に表示してもよい(S101)。
次に制御部2は、画像の各画素の値の類似性に基づいて、画像を複数の小領域(セグメント)に分割するセグメント分割処理を行う(S102)。
そして、制御部2は、使用者からの入力待ちうけ状態となって、使用者の各種操作(イベント)に対して所定の処理を行う領域指定処理を行う(S103)。
使用者による領域指定が完了すると、制御部2は、指定された領域に対して所定の画像処理(例えば、指定された領域を切り抜く処理)を行う(S104)。
次に、セグメント分割処理(S102)と、領域指定処理(S103)の動作について、詳細に説明する。
[2−2.セグメント分割処理の動作]
以下に、画像の各画素の値の類似性に基づいて、画像を複数の小領域(分割領域の一例;以下、セグメントと呼ぶ)に分割するセグメント分割処理について説明する。本実施の形態では、このセグメント分割処理として、k平均法(k−means clustering)に基づくセグメント分割方法を用いている。
図3は、セグメント分割処理の動作を示すフローチャートである。また図4は、処理の対象となる入力画像の液晶画面への表示状態を示す図であり、図5は、セグメント分割処理の初期状態を説明する図、図6は、セグメント分割処理の処理結果を説明する図である。
図4に示すように、画像入力部3により取得され表示部5に表示された入力画像10には、第1被写体11、第2被写体12、第3被写体13などが含まれている。これら3つの被写体のなかから、第1被写体11を使用者が指定する場合を例にとって、以下説明を続ける。
なお入力画像10は、例えばYUV色空間で表現されるデジタルデータで、制御部2がデジタル処理を行うことができる。すなわち入力画像10は、M×N個(例えば640×480個)の画素から構成されており、各画素は輝度Y、色差U,Vの3つのデータ(以下画素値と呼ぶ)を有する。なお、画像のデータ形式としては、RGB色空間やLab色空間などとの間で相互に変換可能であるので、他の色空間に変換した結果を画素値として処理してもよい。
制御部2は初期化作業として、画像10をk個(k:2以上の整数)の初期セグメントに分割する(S201)。このk個の初期セグメントの重心は、画像10内に縦横均等に配置される。隣り合う重心間の間隔はS(画素)となる。図5はこの初期化状態を示しており、一例として20×15個の初期セグメント20を縦横均等に配置した場合を示している。
さらに、各セグメントには個別にユニークなラベル(識別情報の一例)を付与する(S202)。例えば、図5のセグメントに画面の左上のセグメントを1番として、ラインスキャンするように、右下方向に増加させた番号kをラベルとして付与する。図示のセグメント20のラベルは、k=54となる。ここでラベルは、ランダムな数字でもアルファベットなどの文字でもよい。ただし、同じラベルを有するセグメントが同時に存在しないように、ユニークなものとする。
次に、制御部2は画像10内の全画素に対してループAの処理を行う(S203)。ループAの処理としては、画像10内の各画素に対して、ステップS204、S205の処理を行う。
制御部2は各画素について、各セグメントの重心に対する距離Dsを算出する(S204)。この距離Dsは、画素値と画素位置を用いて定義された類似性を示す値である。ここでは、距離Dsが小さいほど、セグメントの重心に対する画素の類似性が高いと判断する。
例えば、i番目の画素の画素位置が(xi,yi)、画素値が(Yi,Ui,Vi)であった時に、k番目のセグメントまでの距離Dsは、以下の数式1によって算出する。
Figure 2014209326
ここで、セグメントの重心は、画素位置(xk,yk)、画素値(Yk,Uk,Vk)である。このセグメント重心の初期値は、図5に示すように均等配置した後の各セグメント重心位置と、その位置における画素値を用いればよい。
またmは、画素値に基づく距離D1と、画素位置に基づく距離D2とが、距離Dsに及ぼす影響のバランスを取るための係数である。この係数mは、実験的あるいは経験的に予め定めておけばよい。
次に制御部2は、距離Dsを用いて対象画素iが所属するセグメントを決定する(S205)。すなわち、距離Dsが最も小さい重心を有するセグメントを対象画素iの所属セグメントと決定する。
このようなステップS204、S205の処理を画像10に含まれる全ての画素について実施すること(S203)により、各画素の所属セグメントを決定する。すなわち、各画素が所属するセグメントのラベルを付与されたM×N個のデータが得られる。以下では、このデータを総称してラベル画像21と呼ぶことにする。
次に制御部2は、ループAの処理により所属する画素が変更された各セグメントの重心を更新する(S206)。各セグメントの重心を更新することで、より正確な分割処理が可能となる。制御部2は、以下の数式2に従って、新たな重心の画素位置(xk,yk)、画素値(Yk,Uk,Vk)を算出する。
Figure 2014209326
ここで、数式2におけるΣはk番目のセグメントに含まれる全ての画素についての総和を意図しており、Nはk番目のセグメントに含まれる画素の総数である。
次に制御部2は、分割処理を終了するかどうかを判断する(S207)。分割処理を継続する場合(S207のNo)は、ステップS203〜S206の処理を再び行い、ラベル画像21を更新する。
このステップS207における終了判断は、例えば、数式2における重心の更新状態を監視して判断してもよい。すなわち、重心の画素位置(xk,yk)、画素値(Yk,Uk,Vk)の更新前後における変化が少なくなったらセグメント分割処理を終了(S207のYes)と判断する。あるいは、ステップS203〜S206の繰り返し回数で終了を判定してもよい。例えば、S203〜S206の処理を10回実施した場合は、セグメント分割処理を終了するようにしてもよい。
このようにして制御部2は、ラベル画像21の更新を繰り返す。この結果、画像10は、図6に示すような複数のセグメント20に分割される。上述のようにステップS205において各画素の所属セグメントが更新されると、セグメントの形状も変化する。しかし、各セグメントに付与されるラベルは同じである。すなわち、図5に示されたセグメント20のラベルは、k=54であり、図6に示されたセグメント20のラベルも、k=54である。図6を見ると以下のような特徴があることがわかる。第1に、画像10に含まれる物体(第1被写体11、第2被写体12、第3被写体13)の境界と、セグメント20の境界が一致していることである。第2に、各セグメント20の大きさがほぼ均一であり、各物体は複数のセグメント20から構成されていることである。しかもひとつのセグメント20が複数の物体に跨って存在していないことがわかる。
したがって、使用者が第1被写体11を指定する場合には、第1被写体11に含まれるセグメントを指定するだけでよいことがわかる。従来のように、第1被写体11の輪郭部分を慎重にトレースして、画素単位で領域を指示する必要がないため、領域指定がより簡便な作業で実行できる。
[2−3.領域指定処理の動作]
図2に示すように制御部2は、セグメント分割処理(S102)を行ったあと、使用者の各種操作(以下ではイベントと呼ぶ)に応じて所定の処理を行う領域指定処理を行う(S103)。
図7は、この領域指定処理の動作を示すフローチャートである。また、図8は領域指定処理時の表示状態を示す図である。表示部5の液晶モニターは、画像10に加えて、画像処理開始ボタン31とUNDOボタン32を表示している。
初めに制御部2は初期化を行う(S301)。具体的には、使用者の操作履歴を管理する履歴番号Rを初期値(例えばR=1)にセットする。また、使用者が選択したセグメントのラベルと履歴番号Rを登録するラベル登録リストLを、記憶部4のRAM記憶領域に新たに確保する。
次に制御部2は、イベントが検出されるまでステップS302を繰り返し、使用者からの操作を待ち続ける。使用者が何らかの操作を行うと、操作入力部6が検出したイベントが発生しステップS303、S305、S307、S309へと進む。
表示部5の液晶モニター、すなわち画面に使用者が触れると、操作入力部6のタッチパネルがイベントとして検出する。使用者の動作がタップ(画面に短く触れるす動作)やドラッグ(画面に触れたまま移動)であった場合には、個別選択処理(S304)を実行する。個別選択処理が完了した後は、再び入力待ちの状態(S302)に戻る。
また、使用者の動作がダブルタップ(画面に短く2度触れる)であった場合には、統合選択処理(S306)を実行して、再び入力待ちの状態(S302)に戻る。なお、上述の入力動作は一例であって、これらに限定されない。また、一方の入力動作を他の入力動作に代えてもよい。
また、使用者がUNDOボタン32に触れた場合には、UNDO処理(S308)を実行して、再び入力待ちの状態(S302)に戻る。
そして、使用者が画像処理開始ボタン31に触れた場合には、制御部2は、領域指定処理の終了と判定(S309のYes)して、領域指定処理(S103)を終了する。画像処理開始ボタン31に触れていない場合には、領域指定を継続すると判定(S309のNo)して、再び入力待ちの状態(S302)に戻る。
以下、個別選択処理(S304)、UNDO処理(S308)、統合選択処理(S306)について、詳細に説明する。
[2−3−1.個別選択処理(タップ時)の動作]
図9は、個別選択処理(S304)の動作を示すフローチャートである。また図10および図11は、個別選択処理の動作を説明する図である。
図10(a)に示すように、使用者が画面に表示された第1被写体11の範囲内の部分(以下では指定位置30と呼ぶ)に触れると、操作入力部6のタッチパネルがイベントとして検出し、制御部2は図9に示す個別選択処理を開始する。
まず制御部2は、操作入力部6に、使用者の指定位置30の画素位置(xp,yp)を入力するように要求する。操作入力部6は、図10(b)に示すように、画像10の左上を原点とする画素位置(xp,yp)を制御部2に入力する(S401)。
すると制御部2は、図6のラベル画像21の情報を参照して、画素位置(xp,yp)を含むセグメント33を特定する(S402)。
そして、制御部2は、ラベル登録リストLに、セグメント33のラベルが登録されているかどうかを判定する(S403)。仮に、セグメント33のラベルが既に登録済みであった場合には(S403のYes)、ステップS407に進む。
セグメント33が初めて指定された場合には、ラベル登録リストLへの登録はないので、セグメント33のラベルと、履歴番号R(R=1)をペアにして記録する(S404)。そして、セグメント33に含まれる全ての画素を選択画素として図10(c)に示すように強調表示する(S405)。さらに、履歴番号Rを1増加する(R=2となる)(S406)。
次に制御部2は、操作入力部6に使用者の指の接触状態を問い合わせ、個別選択処理の終了を判定する(S407)。使用者の動作がタップ(画面に短く触れるす動作)であったので、既に指は画面から離れている。よって制御部2は、個別選択処理を終了し(S407のYesへ進む)、入力待ちの状態(図7のS302)に戻る。
次に使用者が、セグメント33の外側を図11(a)に示すようにタップすると(図7のS302)、ステップS401〜S406の処理が同様に行われる。これによって、セグメント34のラベルと、履歴番号R(R=2)がペアになって、ラベル登録リストLに記録される(S404)。そして、セグメント34に含まれる全ての画素(選択画素)が、図11(a)に示すように強調表示される(S405)。さらに、履歴番号Rが1増加され(R=3となる)(S406)、使用者の動作はタップであったので、S407のYesへ進み)、個別選択処理を終了する。
以上のように、制御部2は、使用者の動作(タップ)に応じて、セグメントの選択処理を行い、選択されたセグメントを表示部5に強調表示することにより、個別選択処理が実行される。
なお、使用者が誤って、セグメント33の範囲内の部分を図11(b)に示すようにタップしてしまった場合は、次のように処理を実行する。制御部2は、ステップS401、S402の処理を同様に行うが、この場合、ステップS403においてラベル登録リストLを参照することにより、セグメント33は既に登録済みであると判断する。よって、ステップS404〜S406は実行されず、履歴番号Rも変化しないまま(R=3のまま)、個別選択処理を終了する。
以上のように、使用者が表示された第1被写体11の範囲内の部分をタップしていくだけで、第1被写体11に含まれるセグメント33、34が順次選択できる。この結果、第1被写体11などの領域を指定する作業を、より簡便に実行することができる。しかも誤って同じセグメントをタップした場合があったとしても、ステップS403において即座に排除され、指定結果に何らの影響も与えないという効果がある。
なお、使用者が既に選択済みのセグメント33の範囲内の部分をプレス・アンド・ホールド(動かさずに押し続ける)を一定時間(例えば2秒)以上に渡って継続した場合には、別のイベントと判定して、図11(c)に示すように、セグメント33の選択を取り消すようにしてもよい。あるいは、セグメントの選択と選択取り消し動作を、スイッチなどを設けて切り替えるようにしてもよい。すなわち、選択取り消し動作に切り替えた後、強調表示されているセグメントの範囲内の部分をタップすると、そのセグメントに関する登録を取り消し、ラベル登録リストLの記録内容を修正・更新すればよい。
[2−3−2.個別選択処理(ドラッグ時)の動作]
図12は、個別選択処理(ドラッグ時)とUNDO処理の動作を説明するための図である。図12(a)に示すように、使用者が第1被写体11のセグメント35からドラッグを開始する場合を説明する。この場合にも図9の動作のフローチャートを参照する。
タップの場合と同様に、使用者の操作により指定位置が入力された場合(S401)、制御部2は、図6のラベル画像21の情報を参照して、指定された画素位置(xp,yp)を含むセグメント35を特定する(S402)。そしてラベル登録リストLに、セグメント35のラベルが登録されているかどうかを判定する(S403)。セグメント35の登録はないので、セグメント35のラベルと、履歴番号R(R=3)をペアにしてラベル登録リストLに記録する(S404)。そして、制御部2は、セグメント35に含まれる全ての画素を選択画素として図12(a)に示すように表示部5上で強調表示する(S405)。さらに、制御部2は、履歴番号Rを1増加する(R=4となる)(S406)。
次に制御部2は、操作入力部6に使用者の指の接触状態を問い合わせ、個別選択処理の終了を判定する(S407)。使用者の動作はドラッグ(画面に触れたまま移動)であるので、指の接触は続いている。よって、制御部2は、個別選択処理は継続すると判定し(S407のNoへ進み)、処理S401〜S407を再び実行する。
さらに、図12(b)に点線で示すような経路で、使用者がドラッグを続ける場合について説明をする。上記のように、処理S401〜S407が繰り返し実行されるので、点線で示す経路を含む各セグメントのラベルと、履歴番号Rがペアになって、ラベル登録リストLに順次記録される。すなわち、制御部2は、セグメント36のラベルと履歴番号R(R=4)、セグメント37のラベルと履歴番号R(R=5)、セグメント38のラベルと履歴番号R(R=6)、セグメント39のラベルと履歴番号R(R=7)、セグメント40のラベルと履歴番号R(R=8)という順番で、ラベルと履歴番号Rをペアにしてラベル登録リストLに記録する。また、使用者の指の動きに追従して、登録済みのセグメント36、37,38、39、40に含まれる全ての画素(選択画素)が、表示部5に順に強調表示される。そして、履歴番号RはR=9に増加する。
以上のように、使用者が第1被写体11の範囲内の部分をラフになぞるだけで、第1被写体11範囲内のセグメント35〜39が順次選択でき、第1被写体11のエッジに沿った領域を簡単に指定することができる。しかも、選択画素の強調表示が逐次更新されるので、使用者は目視でそれを確認しながら表示部5上の画像に対して領域指定作業を行うことができるという効果を有する。
[2−3−3.UNDO処理の動作]
図12(b)に示すように、使用者がドラッグ操作を行った後、セグメント40を選択してしまったことに気づいたとする。セグメント40は、第1被写体11に含まれるセグメントではない。そこで、使用者はドラッグ操作を中断して、指を画面から離す。制御部2はステップS407において(Yesへ進み)、個別選択処理を終了する。
次に使用者は、セグメント40の選択を取り消すために、図12(c)に示すようにUNDOボタン32をタップする。すると制御部2は、UNDO処理(S308)を実行する。図13は、UNDO処理の動作を示すフローチャートである。以下、UNDO処理の動作について説明をする。
初めに制御部2は、履歴の有無を判定する(S801)。具体的には、登録リストLの履歴番号Rが初期値より大きければ(R>1であれば)履歴があると判定する(S801のYesへ進む)。履歴が無いと判定した場合には、UNDO処理を終了する(S801のNoへ進む)。
次に制御部2は、履歴番号Rを1減じる(S802)。上記例では、ここまでの履歴番号はR=9であるから、R=8とすればよい。そして、制御部2は、画面に表示されている選択画素の強調表示を更新する(S803)。すなわち、制御部2は、現在の履歴番号(R=8)にいたるまで(R=1〜7の間)に、ラベル登録リストLに登録されたセグメントを全て抽出し、対応する画素を強調表示する。セグメント33、34、35、36,37、38、39が登録済みのセグメントであるので、それらに含まれる画素が強調表示される。セグメント40は履歴番号R=8になって登録されたので、制御部2は、セグメント40を強調表示から通常表示に戻して、図12(c)に示すように表示部5に表示する。
なお、使用者がUNDOボタンをもう一度タップした場合には、制御部2は履歴番号をR=7に減じ、セグメント39に含まれる画素を通常表示に戻す。さらに、使用者がタップを続けるたびに、制御部2は、セグメント38、37、36、35、34、33の順に通常表示に戻す。この時、履歴番号は初期値(R=1)にまで戻る。
以上のように、使用者がUNDOボタンをタップするだけで、直前に登録されたセグメントの登録を取り消すことができるので、使用者の操作ミスがあっても直ちに修正することができる。すなわち、第1被写体11などの領域を指定する作業を、より簡便な作業とすることができる。しかも、選択画素の強調表示が逐次更新されるので、使用者は目視でそれを確認しながら指定作業を行うことができるという効果を有する。
なお、UNDO動作の反対となるREDO動作も容易に実現できる。すなわち、制御部2は、UNDO動作において減じた分だけ、履歴番号Rを増加させるだけでよい。
[2−3−4.統合選択処理(ダブルタップ時)の動作]
図14は統合選択処理(S306)の動作を示すフローチャートである。また図15および図16は、統合選択処理の動作を説明する図である。
図15(a)に示すように、使用者が画面に表示された第1被写体11の範囲内の部分をダブルタップすると、操作入力部6のタッチパネルがイベントとして検出し、制御部2は図14に示す統合選択処理(S306)を開始する。
個別選択処理のためのタップの場合と同様に、操作入力部6は、使用者が指定した位置の画素位置(xp,yp)を制御部2に入力する(S601)。制御部2は、図6のラベル画像21の情報を参照して、画素位置(xp,yp)を含むセグメント41を特定する。ここでは、制御部2は、追加候補リストLaにセグメント41のラベルだけを登録する(S602)。なお、追加候補リストLaは、ラベル登録リストLと同様に記憶部4のRAM記憶領域等に記憶される。
次に制御部2は、ステップS603において追加候補リストLaに登録されたセグメントのラベル全てを、一つの履歴番号R(R=8)とペアにしてラベル登録リストLに記録する(S603)。ラベル登録リストLへの記録が完了したら、追加候補リストLaを初期化する。
次に制御部2は、ステップS603においてラベル登録リストLに登録された全ての追加セグメントに対して、ループBの処理を行う(S604〜S609)。以下ループBの処理内容について順に説明を続ける。
初めに、ステップS605において、制御部2は、ラベル登録リストLに追加登録された各追加セグメントについて、隣接セグメント(隣接分割領域の一例)を全て抽出する。ただし、隣接しているセグメントであっても、既にラベル登録リストLや、既に追加候補リストLaにラベルが登録されているセグメントは除くようにする。
そして制御部2は、抽出した全ての隣接セグメント対して、ループCの処理を行う(S606)。以下ループCの処理内容について順に説明を続ける。
ステップS607において制御部2は、追加セグメントと隣接セグメントそれぞれとの類似度Eを計算する。具体的には、図3のステップS206において更新した重心の画素値が(Yi,Ui,Vi)となるi番目の追加セグメントに対して、j番目の隣接セグメントの重心の画素値が(Yj,Uj,Vj)であった時に、類似度Eは、以下の数式3によって算出する。
Figure 2014209326
ここで、C1,C2,C3は、輝度Yと色差U,Vに対する重み付け用の係数である。これらの係数は、実験的あるいは経験的に予め定めておけばよい。
次に制御部2は、類似度Eの計算結果を、あらかじめ定められた閾値と比較して、統合すべきかどうかを判定する(S608)。
制御部2は、類似度Eが閾値より小さく、j番目の隣接セグメントがi番目の追加セグメントとの類似性が高いと判定した場合には(S608のYesに進み)、j番目の隣接セグメントのラベル番号を、追加候補リストLaに登録する(S609)。
以上のようにして、ループCの処理においては、各追加セグメントに隣接する全ての隣接セグメントに対して、S607〜S609の処理を実行する。また、ループBの処理においては、ラベル登録リストLに追加登録された全ての追加セグメントに対して、S605〜S609の処理を実行する。
次に制御部2は、統合選択処理を継続すべきかどうかを判定する(S610)。この判定は、追加候補リストLaに登録されたセグメントの数をカウントして判定する。追加候補リストLaに登録されたセグメントが1個でも存在する場合には、制御部2は、統合処理を継続し(S610のYesに進み)、ステップS603に戻る。
しかし、ステップS603においてリセットされた後、追加候補リストLaに登録されたセグメントが無い場合には、制御部2は、統合処理を終了する(S610のNoに進む)。
そして、制御部2は、現在の履歴番号(R=8)とペアにしてラベル登録リストLに登録されたセグメントを全て抽出し、表示部5において対応する画素を強調表示する(S611)。さらに、制御部2は、履歴番号Rを1増加して(R=9とした後)(S612)、統合選択処理を終了する。
図15、16を用いて、統合選択処理について、さらに詳しい説明を続ける。
図15(a)に示すように、制御部2は、使用者が画面に表示された第1被写体11の範囲内のダブルタップを行った位置から、セグメント41を特定(S601)し、追加候補リストLaにセグメント41のラベルを登録(S602)する。その後、制御部2は、セグメント41のラベルを履歴番号R(R=8)とペアにしてラベル登録リストLに記録する(S603)。その後、制御部2は、追加候補リストLaを初期化する。
次に制御部2は、ラベル登録リストLに追加登録されたセグメント41について、隣接セグメント42〜48を図15(b)に示すように、全て抽出する(S605)。
そして制御部2は、セグメント41と各隣接セグメントとの類似度Eを数式3に従って計算(S607)して、統合すべきかどうかを判定する(S608)。隣接セグメント42〜48は全て、第1被写体11の範囲内に位置するセグメントであるので、セグメント41との類似度は高い。よって、制御部2は、隣接セグメント42〜48は全て統合すると判定し、7個のセグメントのラベル番号を、追加候補リストLaに登録する(S609)。さらに、ステップS610に進むと、制御部2は、ここでは追加候補リストLaが空ではないと判定するため、ステップS603に戻る。
次いで、ステップS603においては、制御部2は、追加候補リストLaに登録されたセグメント42〜48の7個のラベルを履歴番号R(R=8)とペアにしてラベル登録リストLに追加記録する。その後、制御部2は、追加候補リストLaを初期化する。
次に制御部2は、ステップS603においてラベル登録リストLに追加登録されたセグメント42について、隣接セグメント49〜52を図15(c)に示すように抽出する(S605)。ここでセグメント42には、41、43、48の3個のセグメントも隣接するが、これらは既にラベル登録リストLに登録されたセグメントであるので、隣接セグメントからは除外する。
そして制御部2は、セグメント42と各隣接セグメントとの類似度Eを数式3に従って計算(S607)して、統合すべきかどうかを判定する(S608)。隣接セグメント49〜51は全て、第1被写体11の範囲外に位置するセグメントであるので、セグメント42との類似度は低い。よって、制御部2は、隣接セグメント49〜51は全て統合しないと判定する(S608のNoに進む)。しかし、残り1個のセグメント52は、第1被写体11の範囲内のセグメントであるので、セグメント42との類似度は高い。よって、制御部2は、隣接セグメント52は統合すると判定し(S608のYesに進む)、セグメント52のラベル番号を、追加候補リストLaに登録する(S609)。
同様にして、制御部2は、ステップS603においてラベル登録リストLに追加登録されたセグメント43について、隣接セグメント53、54を図16(a)のように抽出する(S605)。そして制御部2は、セグメント43と各隣接セグメントとの類似度Eを数式3に従って計算(S607)して、統合すべきかどうかを判定する(S608)。隣接セグメント53,54は、第1被写体11の範囲内のセグメントであるので、セグメント43との類似度は高い。よって、制御部2は、隣接セグメント53、54を統合すると判定し(S608)、セグメント53,54のラベル番号を、追加候補リストLaに登録する(S609)。
制御部2は、さらに同様の処理を繰り返すことにより、図16(b)に示すように、セグメント55、56のラベル番号を、追加候補リストLaに登録する(S609)。さらに、ステップS610に進んだ後、追加候補リストLaが空ではないので、ステップS603に戻る。
そしてステップS603においては、追加候補リストLaに登録されたセグメント52〜56の5個のラベルを、履歴番号R(R=8)とペアにしてラベル登録リストLに追加記録する。その後、制御部2は、追加候補リストLaを初期化する。
次に制御部2は、ステップS603においてラベル登録リストLに追加登録されたセグメント52〜56について、隣接セグメントを抽出し(S605)、類似度Eを数式3に従って計算(S607)して、統合すべきかどうかを判定する(S608)。しかし、既に第1被写体11の範囲内に位置するセグメントは存在しないので、制御部2は、全ての隣接セグメントは統合されないと判定する。よって、ステップS603においてリセットされた後、追加候補リストLaに登録されたセグメントは無くなるため、統合選択処理は終了したと判定される(S610)。
そして、制御部2は、現在の履歴番号(R=8)とペアにしてラベル登録リストLに登録されたセグメント41〜48、52〜56を全て抽出し、対応する画素を図16(c)に示すように強調表示する(S611)。さらに、制御部2は、履歴番号Rを1増加して(R=9とした後)(S612)、統合選択処理を終了する。
なお、図13のフローチャートで説明したように、使用者がUNDOボタン32をタップした場合には、直前に登録されたセグメントの登録が全て取り消される。すなわち、履歴番号R=8とペアになって記録されたセグメント41〜48、52〜56の選択が取り消される。このため、使用者はUNDOボタン32を操作することにより、図16(c)の状態から、一気に図12(c)の状態に戻ることができる。
また、数式3において隣接セグメントの類似度Eを計算する際には、i番目の追加セグメントとの類似度を計算していたが、最初にダブルタップしたセグメント、すなわちセグメント41との類似度を計算するようにしてもよい。あるいはステップS603において、追加された全てのセグメントの平均値を求め、その平均値との類似度を計算するように定めてもよい。例えば、図15(c)において隣接セグメント49〜52の類似度Eを計算する際に、セグメント42と類似度を計算するのではなく、セグメント41〜48の平均値との類似度を計算してもよい。
以上のように、使用者が第1被写体11の範囲内をダブルタップするだけで、第1被写体11の範囲内に含まれるセグメントを自動的に選択でき、第1被写体11の領域全体を簡単に指定できる。また、UNDOボタンをタップするだけで、ダブルタップ以前の状態にすばやく戻すこともできる。これによって、第1被写体11などの画像領域の一部を指定する作業を、より簡便な作業とできる。
[3.まとめ]
以上のように、本実施の形態における画像処理装置1は、画像を表示し(図2のS101)、表示された画像を、画素値と画素位置に基づいて計算された類似性に応じて複数の小領域に分割した(同S102)後、分割した複数の小領域それぞれにラベルを付与し(図2のS202)、当該分割した小領域に対する使用者の選択をモニターし(図7のS302)、選択された小領域のラベルと選択順序を記録し(図9のS404)、選択された小領域を明示する(同S405)。このため、画像の一部分を使用者が指定する作業を、より簡便に実施することができる。
また、本実施の形態における画像処理装置1は、使用者による取り消し処理を検出した(図7のS307)後、記録された選択順序に基づいて、最後に選択された小領域から逆順方向に、1個以上の小領域の明示を取り消す(図13のS802〜S803)。このため、直前に登録されたセグメントの登録を取り消すことができるので、使用者の操作ミスがあっても直ちに修正することができる。
(その他実施の形態)
上記実施の形態の各処理の一部または全部は、コンピュータプログラムにより実現されるものであってもよい。そして、画像処理装置1により実行される処理の一部または全部は、コンピュータにおいて、例えば、中央演算装置(CPU)などのプロセッサにより行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、画像処理装置1により実行される各処理はハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
上記実施の形態による画像処理装置1は、画像処理方法または画像処理をコンピュータに実行させるコンピュータプログラムとしても実現し得る。また、そのプログラムを記録したコンピュータ読み取り可能な記録媒体は本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリを挙げることができる。
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
また、上記実施形態における画像処理の実行順序は、必ずしも、上記実施の形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、画像表示機能を有するデジタルスチルカメラ、デジタルビデオカメラ、パーソナルコンピュータ、携帯電話機、情報端末などの電子機器に適用可能である。
1 画像処理装置
2 制御部
3 画像入力部
4 記憶部
5 表示部
6 操作入力部
10 画像
11 第1被写体
12 第2被写体
13 第3被写体
20 セグメント
21 ラベル画像
30 指定位置
31 画像処理開始ボタン
32 UNDOボタン
33〜55 セグメント

Claims (11)

  1. 表示した画像の領域指定を行う画像処理装置であって、
    所定数の画素により構成される画像を表示する表示部、
    前記画像に対する選択操作を受け付ける入力部、
    前記表示部と前記入力部を制御する制御部、及び
    前記制御部がデータの読み出し又は書き込みを行う記憶部、
    を備え、
    前記制御部は、
    画素値と画素位置に基づいて計算された類似性に応じて前記画像を分割することにより取得した複数の分割領域を生成し、
    前記入力部により受け付けられた選択操作に応じて前記分割領域が選択される毎に、選択された前記分割領域の識別情報と選択順序とを対応させて前記記憶部に記憶し、
    前記表示部において、前記識別情報が記憶された分割領域を識別可能に表示させる、
    画像処理装置。
  2. 前記入力部は更に、前記分割領域の選択を解除する操作を受け付け、
    前記制御部は、
    前記入力部により受け付けられた前記分割領域の選択を解除する操作に応じて、前記記憶部に記憶された前記識別情報を前記選択順序とは逆の順序で取り消し、
    前記表示部において、前記識別情報が取り消された分割領域の識別可能表示を解除する、
    請求項1記載の画像処理装置。
  3. 前記入力部は、前記分割領域の選択を解除する操作を、前記表示部に表示される一つのボタンの選択により受け付ける、
    請求項2に記載の画像処理装置。
  4. 前記制御部は、
    前記分割領域が選択されたとき、前記選択された分割領域に隣接する一以上の隣接分割領域を特定し、
    前記選択された分割領域と特定された前記隣接分割領域との類似度を計算し、
    前記類似度が所定値以上であれば、前記隣接分割領域の識別情報を前記記憶部に記憶し、
    前記隣接分割領域を前記選択された分割領域と共に前記表示部に識別可能に表示させる、
    請求項1から3のいずれかに記載の画像処理装置。
  5. 前記制御部は、画素値の差に基づいて前記類似度を計算する、
    請求項4に記載の画像処理装置。
  6. 前記記憶部に記憶された前記隣接分割領域と前記選択された分割領域とは一つの識別情報を有し、
    前記制御部は、前記選択された分割領域と前記隣接分割領域とを、前記表示部に同じタイミングで識別可能に表示させる、
    請求項4又は5に記載の画像処理装置。
  7. 前記制御部は、前記類似性に応じて分割した前記画像に対し、更に画素値と画素位置に基づいて計算された類似性に応じて分割し、これを繰り返すことにより、前記複数の分割領域を取得する、
    請求項1から6のいずれかに記載の画像処理装置。
  8. 前記入力部は、前記表示部に表示された各分割領域の一部分に対する使用者の接触を検知することにより、前記分割領域の選択を受け付ける、
    請求項1から7のいずれかに記載の画像処理装置。
  9. 前記入力部は、前記選択された分割領域であって前記表示部に識別可能に表示された分割領域に対して選択操作を更に受け付けたとき、前記制御部は、前記分割領域に対する選択を解除する、
    請求項1から8のいずれかに記載の画像処理装置。
  10. 表示装置に表示した画像の領域指定を行う画像処理方法であって、
    所定数の画素により構成される画像を、画素値と画素位置に基づいて計算された類似性に応じて分割することにより複数の分割領域を取得し、
    使用者の選択操作に応じて前記分割領域が選択される毎に、選択された前記分割領域の識別情報と選択順序とを対応させてメモリに記憶し、
    前記識別情報が記憶された分割領域を前記表示装置において識別可能に表示させる、
    画像処理方法。
  11. 表示装置に表示した画像の領域指定をコンピュータに実行させる画像処理プログラムであって、
    所定数の画素により構成される画像を、画素値と画素位置に基づいて計算された類似性に応じて分割することにより複数の分割領域を取得し、
    使用者の選択操作に応じて前記分割領域が選択される毎に、選択された前記分割領域の識別情報と選択順序とを対応させてメモリに記憶し、
    前記識別情報が記憶された分割領域を前記表示装置において識別可能に表示させる、
    画像処理プログラム。
JP2014050324A 2013-03-27 2014-03-13 画像処理装置、画像処理方法、及び画像処理プログラム Active JP5834253B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014050324A JP5834253B2 (ja) 2013-03-27 2014-03-13 画像処理装置、画像処理方法、及び画像処理プログラム
US14/225,426 US9530216B2 (en) 2013-03-27 2014-03-26 Image processing apparatus and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013065901 2013-03-27
JP2013065901 2013-03-27
JP2014050324A JP5834253B2 (ja) 2013-03-27 2014-03-13 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014209326A true JP2014209326A (ja) 2014-11-06
JP5834253B2 JP5834253B2 (ja) 2015-12-16

Family

ID=51620915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014050324A Active JP5834253B2 (ja) 2013-03-27 2014-03-13 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (2)

Country Link
US (1) US9530216B2 (ja)
JP (1) JP5834253B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020067168A1 (ja) * 2018-09-28 2020-04-02 パナソニックIpマネジメント株式会社 採寸装置及び採寸方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171712B (zh) * 2016-12-07 2022-02-11 富士通株式会社 确定图像相似度的方法和装置
KR20240000647A (ko) * 2018-12-28 2024-01-02 고도 가이샤 아이피 브릿지 1 동화상 부호화 장치, 동화상 부호화 방법, 동화상 부호화 프로그램, 동화상 복호 장치, 동화상 복호 방법, 동화상 복호 프로그램, 기록 매체, 전송 방법 및 기록 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05216992A (ja) * 1992-02-04 1993-08-27 Toppan Printing Co Ltd 画像切り抜き装置
JPH0778263A (ja) * 1993-09-08 1995-03-20 Nissan Motor Co Ltd Cadシステム
JPH0916368A (ja) * 1995-06-28 1997-01-17 Hitachi Ltd オブジェクト編集システム
JPH09270022A (ja) * 1996-03-29 1997-10-14 Wacom Co Ltd 図形編集装置、図形選択方法及び文字入力方法
JP2009181528A (ja) * 2008-02-01 2009-08-13 Hitachi Systems & Services Ltd 操作取り消しシステム、方法、およびプログラム
JP2010511215A (ja) * 2006-11-28 2010-04-08 コミシリア ア レネルジ アトミック 画像内のオブジェクトを指示する方法

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3490490B2 (ja) 1994-01-28 2004-01-26 株式会社東芝 パターン画像処理装置及び画像処理方法
JP3022145B2 (ja) 1994-04-08 2000-03-15 三洋電機株式会社 画像認識手段を具えた錠剤検査装置及び錠剤検査方法
JPH1125222A (ja) 1997-07-08 1999-01-29 Sharp Corp 文字切り出し方法及び文字切り出し装置
JPH1139480A (ja) 1997-07-18 1999-02-12 Dainippon Screen Mfg Co Ltd 画像修正方法および装置、並びにその処理を実行するためのプログラムを記録した記録媒体
JPH11103447A (ja) 1997-08-01 1999-04-13 Sony Corp 動画像の修復方法及び装置並びに提供媒体
US6583823B1 (en) 1997-08-01 2003-06-24 Sony Corporation Methods, apparatuses, and mediums for repairing a pixel associated with motion-picture processes
JP3386025B2 (ja) 1999-12-15 2003-03-10 株式会社ニコン 画像特徴抽出装置、画像特徴抽出方法、監視検査システム、半導体露光システム、およびインターフェースシステム
JP2002354242A (ja) 2001-05-25 2002-12-06 Ricoh Co Ltd 画像処理装置、画像読み取り装置、画像形成装置およびカラー複写装置
JP3432816B2 (ja) 2001-09-28 2003-08-04 三菱電機株式会社 頭部領域抽出装置およびリアルタイム表情追跡装置
JP2003123066A (ja) 2001-10-10 2003-04-25 Fujitsu Ten Ltd 画像縮小表示方法および装置
GB0224626D0 (en) 2002-10-23 2002-12-04 Qinetiq Ltd Tubule grading
JP2004318696A (ja) 2003-04-18 2004-11-11 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像処理プログラム
JP4546956B2 (ja) * 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
JP3824237B2 (ja) 2003-09-05 2006-09-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2005092284A (ja) 2003-09-12 2005-04-07 Nintendo Co Ltd 撮像画像合成装置および撮像画像合成プログラム
JP4344925B2 (ja) 2003-12-15 2009-10-14 富士フイルム株式会社 画像処理装置、画像処理方法およびプリントシステム
KR100615277B1 (ko) 2004-08-18 2006-08-25 엠텍비젼 주식회사 이미지 센서에서의 렌즈 셰이딩 현상 보정 방법 및 장치
US7848567B2 (en) * 2004-09-23 2010-12-07 Fuji Xerox Co., Ltd. Determining regions of interest in synthetic images
JP4477468B2 (ja) 2004-10-15 2010-06-09 富士通株式会社 組み立て図面の装置部品イメージ検索装置
JP4557765B2 (ja) * 2005-03-23 2010-10-06 キヤノン株式会社 画像処理装置およびその方法
JP2006279443A (ja) 2005-03-29 2006-10-12 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2006279442A (ja) 2005-03-29 2006-10-12 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2006311080A (ja) 2005-04-27 2006-11-09 Dainippon Printing Co Ltd テクスチャ画像生成方法、画像処理装置、プログラム及び記録媒体
JP4652978B2 (ja) 2005-08-12 2011-03-16 キヤノン株式会社 画像編集装置及びその制御方法、コンピュータプログラム
JP4553378B2 (ja) 2005-08-25 2010-09-29 株式会社メイクソフトウェア 画像編集装置、写真シール作成装置、画像編集方法及び画像編集プログラム
JP4163709B2 (ja) 2005-10-12 2008-10-08 エヌ・ティ・ティ・コミュニケーションズ株式会社 画像補正装置、画像補正方法、および画像補正プログラム
JP4406626B2 (ja) 2005-11-02 2010-02-03 富士フイルム株式会社 デジタルカメラ
JP4817881B2 (ja) 2006-02-24 2011-11-16 キヤノン株式会社 画像処理方法及び画像処理装置
JP4701111B2 (ja) * 2006-03-16 2011-06-15 Hoya株式会社 パターンマッチングシステム及び被写体追尾システム
JP2008092447A (ja) 2006-10-04 2008-04-17 Fuji Xerox Co Ltd 画像処理装置、画像出力装置、および画像処理方法
KR100837435B1 (ko) * 2006-10-25 2008-06-12 삼성전자주식회사 촬영장치 및 이의 대상 추적제어방법
JP2008164758A (ja) 2006-12-27 2008-07-17 Eastman Kodak Co 画像復元装置
JP4799462B2 (ja) 2007-03-27 2011-10-26 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム及び記憶媒体及び撮像装置
US8131083B2 (en) * 2007-04-09 2012-03-06 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method having storage section, divided into a plurality of regions, for storing identification information for identifying reference image
JP2008300990A (ja) 2007-05-29 2008-12-11 Nagasaki Univ 画像修復方法及び画像修復装置
JP4990030B2 (ja) 2007-05-30 2012-08-01 セコム株式会社 移動物体検知装置
JP4969320B2 (ja) 2007-05-31 2012-07-04 セコム株式会社 画像処理装置
JP2009044616A (ja) 2007-08-10 2009-02-26 Konica Minolta Business Technologies Inc 画像処理装置および画像処理方法
JP5322416B2 (ja) * 2007-09-12 2013-10-23 株式会社メガチップス ブロックマッチング回路及びデータ更新方法
US7965409B2 (en) 2007-12-17 2011-06-21 Xerox Corporation Methods and systems for rendering and printing reverse fine features
US8050493B2 (en) 2008-03-31 2011-11-01 Konica Minolta Laboratory U.S.A., Inc. Method for generating a high quality scanned image of a document
WO2009142333A1 (ja) 2008-05-22 2009-11-26 国立大学法人東京大学 画像処理方法、画像処理装置及び画像処理プログラム並びに記憶媒体
JP2011035567A (ja) 2009-07-30 2011-02-17 Ricoh Co Ltd 画像処理装置、方法及びコンピュータ読取可能な記録媒体
US8472076B2 (en) 2009-08-05 2013-06-25 Canon Kabushiki Kaisha Detecting and removing blur of a character by comparison with the original image after a thinning and fattening operation
WO2011061943A1 (ja) 2009-11-20 2011-05-26 日本電気株式会社 画像修復システム、画像修復方法及び画像修復プログラム
JP2011170838A (ja) 2010-01-20 2011-09-01 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP5504990B2 (ja) 2010-03-12 2014-05-28 カシオ計算機株式会社 撮像装置、画像処理装置及びプログラム
JP5569799B2 (ja) 2010-06-18 2014-08-13 株式会社サタケ 色彩選別機
JP5567448B2 (ja) 2010-10-15 2014-08-06 Kddi株式会社 画像領域分割装置、画像領域分割方法および画像領域分割プログラム
JP5113929B1 (ja) * 2011-06-24 2013-01-09 楽天株式会社 画像提供装置、画像処理方法、画像処理プログラム及び記録媒体
JP2013045316A (ja) 2011-08-25 2013-03-04 Sanyo Electric Co Ltd 画像処理装置及び画像処理方法
WO2013054462A1 (ja) 2011-10-13 2013-04-18 パナソニック株式会社 ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路
US9171222B2 (en) 2011-11-17 2015-10-27 Panasonic Intellectual Property Corporation Of America Image processing device, image capturing device, and image processing method for tracking a subject in images
US9171108B2 (en) * 2012-08-31 2015-10-27 Fujitsu Limited Solar panel deployment configuration and management
KR102116791B1 (ko) 2013-06-04 2020-06-09 삼성전자주식회사 깊이 정보를 사용한 움직인 물체 검출 장치, 방법 및 컴퓨터 판독 가능한 기록 매체

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05216992A (ja) * 1992-02-04 1993-08-27 Toppan Printing Co Ltd 画像切り抜き装置
JPH0778263A (ja) * 1993-09-08 1995-03-20 Nissan Motor Co Ltd Cadシステム
JPH0916368A (ja) * 1995-06-28 1997-01-17 Hitachi Ltd オブジェクト編集システム
JPH09270022A (ja) * 1996-03-29 1997-10-14 Wacom Co Ltd 図形編集装置、図形選択方法及び文字入力方法
JP2010511215A (ja) * 2006-11-28 2010-04-08 コミシリア ア レネルジ アトミック 画像内のオブジェクトを指示する方法
JP2009181528A (ja) * 2008-02-01 2009-08-13 Hitachi Systems & Services Ltd 操作取り消しシステム、方法、およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020067168A1 (ja) * 2018-09-28 2020-04-02 パナソニックIpマネジメント株式会社 採寸装置及び採寸方法
CN112739976A (zh) * 2018-09-28 2021-04-30 松下知识产权经营株式会社 尺寸测量装置以及尺寸测量方法
JPWO2020067168A1 (ja) * 2018-09-28 2021-08-30 パナソニックIpマネジメント株式会社 採寸装置及び採寸方法
CN112739976B (zh) * 2018-09-28 2023-05-12 松下知识产权经营株式会社 尺寸测量装置以及尺寸测量方法
US11733032B2 (en) 2018-09-28 2023-08-22 Panasonic Intellectual Property Management Co., Ltd. Measurement device and measurement method
JP7361251B2 (ja) 2018-09-28 2023-10-16 パナソニックIpマネジメント株式会社 採寸装置及び採寸方法

Also Published As

Publication number Publication date
JP5834253B2 (ja) 2015-12-16
US20140294308A1 (en) 2014-10-02
US9530216B2 (en) 2016-12-27

Similar Documents

Publication Publication Date Title
US9916082B2 (en) Display input apparatus and computer-readable non-transitory recording medium with display input control program recorded thereon
US11747900B2 (en) Eye-tracking image viewer for digital pathology
JP2013008326A (ja) 画像処理装置及びその制御方法
JP5849206B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014081789A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
WO2016006090A1 (ja) 電子機器、方法及びプログラム
US20130342441A1 (en) Character input method and information processing apparatus
JP5834253B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US9189150B2 (en) Information processing device, information processing method, and computer-readable medium that determine an area of a display screen to which an input operation belongs
TWI566164B (zh) 應用程式功能介面的移動方法、系統與移動裝置
JP6229554B2 (ja) 検出装置および検出方法
US20160307349A1 (en) Communication support system, information processing apparatus, control method, and storage medium
JP2014160413A (ja) データ処理装置、データ処理システム及びプログラム
JP2015228270A (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
US20150286400A1 (en) Information processing apparatus, control method, and storage medium
US11009991B2 (en) Display control apparatus and control method for the display control apparatus
WO2019024507A1 (zh) 一种触摸控制方法、装置及终端
JP7363235B2 (ja) 情報処理装置及び情報処理プログラム
KR101549213B1 (ko) 터치 스크린 상에서 터치 포인트를 검출하기 위한 장치 및 그 방법
JP2022185872A (ja) 画像処理装置、画像処理方法、撮像装置
US20170038935A1 (en) Information processing device, information display method, and recording medium
JP2016018428A (ja) 電子機器、方法及びプログラム
US11276186B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium
WO2018161421A1 (zh) 终端设备的触摸显示屏幕的性能测试方法和性能测试装置
US20240069647A1 (en) Detecting method, detecting device, and recording medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141009

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150605

R151 Written notification of patent or utility model registration

Ref document number: 5834253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151