JP7313862B2 - 情報処理装置、方法、及びプログラム - Google Patents

情報処理装置、方法、及びプログラム Download PDF

Info

Publication number
JP7313862B2
JP7313862B2 JP2019067752A JP2019067752A JP7313862B2 JP 7313862 B2 JP7313862 B2 JP 7313862B2 JP 2019067752 A JP2019067752 A JP 2019067752A JP 2019067752 A JP2019067752 A JP 2019067752A JP 7313862 B2 JP7313862 B2 JP 7313862B2
Authority
JP
Japan
Prior art keywords
area
images
image
detection
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067752A
Other languages
English (en)
Other versions
JP2020166683A (ja
Inventor
徳和 堀池
瑠理子 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019067752A priority Critical patent/JP7313862B2/ja
Priority to US16/819,275 priority patent/US11244186B2/en
Priority to CN202010221991.1A priority patent/CN111752446B/zh
Publication of JP2020166683A publication Critical patent/JP2020166683A/ja
Application granted granted Critical
Publication of JP7313862B2 publication Critical patent/JP7313862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、複数の画像の中から特定の画像を選択するための情報処理装置、方法、及びプログラムに関する。
動画撮影や連写などにより連続撮影した複数の画像の中から特定の画像を容易に選択したいという要望が存在する。例えば、フォトアルバムを作成する際に、ユーザーが意図する画像を選択するような場合である。
ところで、人物の顔を自動的に検出して、検出された顔を示す枠を表示する技術がある。特許文献1には、複数画像の検出領域の平均的なサイズを検出枠とする方法が開示されている。このように画像内で自動的に検出された特定の領域(人物の顔等)を示す表示を行うことで、ユーザーによる画像選択を容易にすることが考えられる。
特許第4769653号広報
しかしながら、特許文献1に記載の技術のように顔を自動的に検知して特定の領域とする場合、ユーザーが意図した領域と異なる領域が特定されることがある。例えば、ユーザーが所望の人物について注目している場合であっても、他の人物の顔が特定されることがある。仮にこの場合に、本来ユーザーが注目したい領域でない領域が、本来注目したい領域と同等以上に強調されるように表示されると、ユーザーによる画像選択がむしろ困難になることが考えられる。
本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、複数の画像の中からユーザーが意図する画像を選択しやすくすることにある。
本発明の一実施形態は、複数の画像の中からユーザーが意図する画像を選択するための情報処理装置であって、前記複数の画像のいずれかの画像上でオブジェクトの指定を受け付ける受け付け手段と、前記複数の画像のそれぞれから、前記オブジェクトを検出する検出手段と、前記複数の画像のそれぞれの、前記検出されたオブジェクトに対応する領域を、前記複数の画像のそれぞれにおける他の領域よりも強調されるように表示する表示手段と、前記表示手段による表示の後に、前記ユーザーによる指示に応じて、前記複数の画像のいずれかを選択する選択手段と、を有し、前記表示手段は、前記複数の画像を一覧表示する第一の領域と、前記第一の領域から選択された画像の、前記ユーザーにより前記第一の領域から選択された画像における前記オブジェクトに対応する領域が拡大表示される第二の領域を含む画面を表示し、前記受け付け手段は、前記オブジェクトの検出に失敗した場合に、前記オブジェクトの再設定を受け付け、前記検出手段は、前記オブジェクトの検出に失敗した画像から、前記再設定されたオブジェクトを検出し、記表示手段は、前記第一の領域において、前記再設定されたオブジェクトが検出された画像に、前記再設定されたオブジェクトが検出されたことを示すマークを表示する、ことを特徴とする情報処理装置である。
本発明によれば、複数の画像の中からユーザーが意図する画像を選択しやすくすることができる。
第一の実施形態におけるフォトアルバム作成/注文システムの構成例を示す図である。 第一の実施形態における情報処理装置のハードウェア構成例を示す図である。 第一の実施形態におけるフォトアルバム作成処理のフローチャートである。 第一の実施形態における商材選択画面の例を示す図である。 第一の実施形態における写真選択画面の例を示す図である。 第一の実施形態における写真選択画面の例を示す図である。 第一の実施形態における写真選択画面の例を示す図である。 第一の実施形態における写真比較画面の例を示す図である。 第一の実施形態における写真比較画面の例を示す図である。 第一の実施形態における写真比較画面の例を示す図である。 第一の実施形態における写真比較画面の例を示す図である。 第二の実施形態における写真比較画面の例を示す図である。 第一の実施形態における写真比較画面の例を示す図である。 第二の実施形態における写真比較画面の例を示す図である。 第二の実施形態における写真比較画面の例を示す図である。 第二の実施形態におけるオブジェクト選択画面の例を示す図である。 第二の実施形態における写真比較画面の例を示す図である。 第一の実施形態におけるオブジェクト追跡処理の全体的なフローチャートである。 第一の実施形態におけるオブジェクト追跡処理の詳細なフローチャートである。 第一の実施形態における追跡結果表示処理の詳細なフローチャートである。 第一の実施形態におけるオブジェクト選択画面の例を示す図である。 第一の実施形態における写真比較画面の例を示す図である。 第一の実施形態における写真比較画面の例を示す図である。 第一の実施形態における写真比較画面の例を示す図である。 第二の実施形態におけるオブジェクト選択画面の例を示す図である。 第一の実施形態における連写写真特定処理の全体的なフローチャートである。 第一の実施形態における連写写真判定処理のフローチャートである。 第一の実施形態における補間処理を説明する図である。
以下、添付図面を参照して、本発明の実施形態を詳しく説明する。なお、以下の実施形態は、特許請求の範囲に係る発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせのすべてが、本発明に必須のものとは限らない。同一の構成要素については、同じ符号を付す。
また、以下の実施形態では、例として、ユーザーが選択した写真を自動的にレイアウトし、フォトアルバム(フォトブック)を生成するシステムについて説明するが、本発明はこれに限定されない。例えば、画像編集アプリケーションにおいて、複数の画像の中からユーザーが所望の画像を選択するために利用することもできる。なお、フォトアルバムを、単にアルバムとも称する。
(第一の実施形態)
図1は、本実施形態におけるフォトアルバム作成/注文のための情報処理システムの構成例を示す。図1に示すように、情報処理システムは、ユーザーが使用する情報処理装置1と、フォトアルバムを作成する会社の情報処理装置2とを有する。情報処理装置1は、例えば、一般的なパーソナルコンピュータ(以下、PCと略す場合がある)とすることができる。情報処理装置2は、例えば、PCサーバーとすることができる。情報処理装置1及び情報処理装置2は、Operating System(以下、OSと称する)として、例えば、Windows(登録商標)8またはWindowsServer2012等がインストールされている。情報処理装置1及び情報処理装置2は、それぞれEthernet(登録商標)で構成されるネットワーク3、4に接続され、さらに、インターネット9を介して相互に通信可能に接続されている。
情報処理装置1には、フォトアルバム作成アプリケーション(以下、アルバム作成アプリと称する)5がインストールされている。アルバム作成アプリ5は、例えば、Windows用の実行可能形式のファイル(*.EXE)で構成される。アルバム作成アプリ5は、情報処理装置1が当該実行可能形式のファイルを実行することにより、動作する。
また、情報処理装置1には、Webブラウザアプリケーション(以下、Webブラウザと称する)6がインストールされている。Webブラウザ6は、WorldWideWeb(以下、WWWとする)を利用する際に用いられる。
なお、アルバム作成アプリ5は、事前に情報処理装置1にインストールされたものに限定されず、情報処理装置1のWebブラウザ6上で実行されるWebアプリケーションでもよい。Webアプリケーションの場合、所定のWebサイトにアクセスして、プログラムが読み込まれる。
ネットワーク4は、情報処理装置1を使用するユーザーのためのネットワークであり、例えば、一般家庭用のホームネットワークである。
情報処理装置2は、Webサーバーの機能を備えるWebサーバー7を備え、インターネット9を介して企業(ABC社とする)のWebサイトを提供する。ネットワーク3は、例えば、企業内に構築されたオフィスネットワークである。
ショッピングサイト8は、ABC社がユーザー向けにサービスを提供しているショッピングサイトである。ユーザーは、ショッピングサイト8を利用して、フォトアルバムを注文することができる。
図2は、本実施形態における情報処理装置1及び情報処理装置2のハードウェア構成例を表す。図示されるように、情報処理装置は、CPU204、ROM208、RAM201、HDD202、KBD203、LCD205、及びNB207を有し、各構成要素がバス206により接続されている。
CPU(中央演算装置)204は、ROM208またはHDD202に格納された制御プログラムをRAM201に読み出して、実行する。CPU204は、情報処理装置の全体の動作を制御する制御部である。
RAM201は、ランダムアクセスメモリであり、CPU204が制御プログラムを実行する際の一時記憶領域を提供する。
ROM208は、CPU204によって実行される制御プログラムを記憶する。
HDD(ハードディスクドライブ)202は、画像データや画像解析の処理結果などを記憶する記憶部である。HDD202は、アルバム作成アプリ5やWebブラウザ6等のプログラムを記憶する。
KBD(キーボード)203は、イベントボード部である。すなわち、ユーザー操作の入力部である。KBD203は、マウスなどの他の入力装置を含んでもよい。ユーザーは、アルバム作成アプリ5が提供する各種画面や、Webブラウザ6上でマウスポインタを操作し、クリック動作を行うことより、情報処理装置に対して指示を入力することができる。
LCD(Liquid Crystal Display)205は、情報処理装置の表示部である。なお、表示部は、液晶ディスプレイに限定されるものではなく、その他のディスプレイでもよい。
NB(ネットワークボード)207は、通信制御部であって、プリンタやサーバーなどの外部装置と通信するための装置である。
以上、情報処理装置のハードウェア構成例について説明したが、これに限定されるものではない。
図3は、本実施形態におけるフォトアルバム作成処理のフローチャートを示す。フローチャートで示される一連の処理は、CPU204がROM208またはHDD202に格納されている制御プログラムをRAM201に展開して実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。また、各処理の説明における記号「S」は、当該フローチャートにおける「ステップ」を意味する。その他のフローチャートについても同様である。
S301において、アルバム作成アプリ5は、アルバムに使用する商材を選択するための商材選択画面を表示し、ユーザーが選択した商材を取得する。
S302において、アルバム作成アプリ5は、アルバムに含める写真を選択するための写真選択画面を表示し、ユーザーが選択した写真の画像データを取得する。例えば、画像データが情報処理装置1の特定のフォルダ内に格納されている場合は、ユーザーはそのフォルダを選択してもよい。
S303において、アルバム作成アプリ5は、ユーザーが選択した写真の画像データから、撮影日時等の情報を取得して、解析を行う。
S304において、アルバム作成アプリ5は、撮影日時等の情報を解析した結果を元にアルバムのページレイアウトを行って、アルバムデータを生成する。
生成されたアルバムデータは、LCD205に表示される。また、アルバムデータは、インターネット9を介して情報処理装置2に送信される。情報処理装置2は、受信したアルバムデータを使用して印刷データを生成し、印刷装置を利用して印刷を行い、製本された紙媒体のフォトアルバムを生成することができる。
図4は、S301において表示される商材選択画面401の例を示す。
モード選択リスト402では、ユーザーが人物モード(Peaple)とペットモード(Pets)のいずれかを選択することができる。人物モードでは、ユーザーが選択した写真の中から人物を含む写真が選定され、その写真がアルバムにレイアウトされる。また、ペットモードでは、ユーザーが選択した写真の中からペットを含む写真が選定され、その写真がアルバムにレイアウトされる。図4の例では、人物モード(Peaple)が選択されている。
サイズ選択リスト403では、ユーザーがアルバムのサイズを選択することができる。図4の例では、選択可能な200×200mmのサイズとA4サイズのうち、A4サイズが選択されている。
アルバム作成アプリ5は、モード選択リスト402やサイズ選択リスト403で選ばれた情報を元にして、アルバムの完成イメージ404を生成する。アルバム作成アプリ5は、ユーザーがモード選択リスト402やサイズ選択リスト403を選択しなおすと、それにあわせて完成イメージ404を変化させる。例えば、図4の状態で、ユーザーがモード選択リスト402でペットモードを選択し、サイズ選択リスト403で200×200mmのサイズを選択しなおすと、完成イメージ404は、ペット写真がレイアウトされている正方形の完成イメージに変わる。
ユーザーが、決定(Next)ボタン405をクリックすると、商材選択画面401上で選択された情報が確定する。
なお、上述した例では、モード選択リスト402、及びサイズ選択リスト403によって商材を選択したが、これに限定されない。例えば、商材選択画面401上で、ユーザーがアルバムのデザインを選択したり、ページ数を指定したりできるようにしてもよい。
図5は、S302において表示される写真選択画面の例を示す。
写真選択画面501には、商材選択画面401でユーザーが決定ボタン405をクリックした後に遷移する。
ユーザーは、領域502において、写真の取得先を選ぶことができる。図示されるように、ユーザーは写真の取得先として、例えば、アルバム作成アプリ5を操作しているPC(すなわち、情報処理装置1)のフォルダ、あるいはソーシャル・ネットワーク・サービス(以下、SNSと称する)を選ぶことができる。ユーザーが領域502において「PC内フォルダ」を選択した場合には、該当PC内に含まれるフォルダが表示される。図5の例では、選択可能なフォルダとして、「運動会」、「誕生日会」、及び「イタリア旅行」という3つのフォルダ名が表示され、「運動会」のフォルダが選択された状態になっている。
アルバム作成アプリ5は、領域502で選択されたフォルダに含まれる写真のサムネイルを領域503に一覧で表示する。
ユーザーがソートボタン511を選択すると、例えば、写真名、写真サイズ、撮影日時等の所定の基準にしたがって、写真をソートして表示することができる。また、ユーザーがフィルタボタン512を選択すると、所定のフィルタ条件に基づいてフィルタリングされた写真のみを表示させることができる。
ユーザーが領域503に表示された写真を選択すると、選択された写真のチェックボックス504にチェックマークが付く。
ユーザーが追加ボタン505を選択すると、領域503で選択された写真(すなわち、チェックマークが付いた写真)が、アルバムに使用することが確定した写真として領域506に追加される。なお、領域503で選択した写真をドラッグアンドドロップすることで、領域506に追加することもできる。図5の例では、確定した写真の枚数507は、10枚であることが示されている。
ユーザーは、領域506の左右両端に設けられたスクロールボタン508をクリックすることで、領域506に表示し切れていない確定済みの写真を表示させることができる。図5の例では、領域506に5枚の写真しか表示されていないが、残り5枚の写真を表示させるために、スクロールボタン508を使用することができる。
写真選択画面501において、ユーザーが「次へ」ボタン509をクリックすると、写真選択が完了する。すなわち、領域506に表示されたサムネイルに対応する写真が、フォトアルバム用の写真として決定される。
ここで、類似した複数の写真(以下、類似写真とも称する)の中から、ユーザーが所望の写真を選択する方法について説明する。類似写真は、ユーザーが写真選択画面501においてチェックマークを付けた複数の写真とすることができる。また、類似写真は、連続して撮影された複数の写真である連写写真を含んでもよい。本実施形態におけるアルバム作成アプリ5は、類似写真の中からユーザーが指定したオブジェクトを追跡し、検出したオブジェクトを強調表示することで、ユーザーが所望の写真を選択しやすくすることができる。
図18は、本実施形態におけるオブジェクト追跡処理のフローチャートを示す。
S1801において、アルバム作成アプリ5は、写真選択画面501でユーザーがチェックマークを付けた画像群の中から、ユーザーに画像を選択させる。
図6は、写真選択画面501において、ユーザーによって複数の画像にチェックマークが付けられた状態を示す。図6では、領域503において複数の画像601のチェックボックス504にチェックマークが付いている。図5に示した写真選択画面501では比較ボタン510が無効であったが、チェックボックス504においてチェックがされたことに応じて、比較ボタン510が有効になる。比較ボタン510が有効になった状態で、ユーザーが比較ボタン510をクリックすると、チェックマークが付けられた選択画像を比較するための、図8を用いて後述する写真比較画面に遷移する。なお、比較ボタン510は、チェックボックス504としての1つチェックボックスのみにチェックされているときは無効となり、2つ以上のチェックボックスにチェックされたことに応じて有効になってもよい。この場合、チェックボックスのチェックが外されて、1つのチェックボックスのみにチェックされている状態に戻ると、比較ボタン510が再び無効になってもよい。
また、図7は、写真選択画面501において、連写写真701をまとめてスタック状態で表示している。図7では、連写写真701のチェックボックス504にチェックマークが付いており、スタック状態でまとめられた複数の写真がユーザーによって選択されている。この状態で、ユーザーが比較ボタン510をクリックすると、チェックマークが付けられた連写写真701(すなわち、選択画像)を比較するための、図8を用いて後述する写真比較画面に遷移する。
ここで、図7の写真選択画面501において、スタック状態でまとめて表示される連写写真701を特定するための処理について説明する。
図26は、連写写真特定処理の全体的なフローチャートを示す。連写写真特定処理は、写真選択画面501を表示する際に実施される。
S2601において、アルバム作成アプリ5は、カウンタcを初期化する(c=0)。
S2602において、アルバム作成アプリ5は、カウンタcを、写真選択画面501に表示する写真の総枚数Zと比較する。カウンタcが総枚数Z未満であればS2603に進む。一方、カウンタcが総枚数Z以上であれば、処理を終了する。
S2603において、アルバム作成アプリ5は、連写写真判定処理を行い、連写写真の枚数iを取得する。連写判定処理については後述する。
S2604において、アルバム作成アプリ5は、カウンタcに対応する写真から始まってi枚が連写写真であると判断する。ここでは、カウンタcが0の場合に対応する写真を、1枚目の写真とする。
S2605において、アルバム作成アプリ5は、カウンタcを更新する(c=c+i)。
次いで、図27を参照して、S2603における連写写真判定処理について説明する。
S2701において、アルバム作成アプリ5は、連写写真の枚数iを初期化する(i=0)。
S2702において、アルバム作成アプリ5は、カウンタcに対応する写真のExif情報から撮影日時t(c)を取得する。なお、カウンタcが0の場合に対応する写真を、1番目の写真とする。
S2703において、アルバム作成アプリ5は、カウンタc+1に対応する写真のExif情報から撮影日時t(c+1)を取得する。なお、撮影日時は、ファイル属性から取得してもよい。
S2704において、アルバム作成アプリ5は、前述の2つの写真の撮影日時の差を算出し、あらかじめ設定された閾値Aと比較する。撮影日時の差が閾値A以下である場合、2つの写真は連写写真と判定してS2705に進む。一方、撮影日時の差が閾値Aより大きい場合、2つの写真は連写写真ではないと判定してS2707に進む。
S2707において、アルバム作成アプリ5は、連写写真の枚数iを、カウンタcに対応する写真からの連写枚数として設定する。
S2705において、アルバム作成アプリ5は、カウンタcをインクリメントする(c=c+1)。
S2706において、アルバム作成アプリ5は、連写写真の枚数iをインクリメントする(i=i+1)。
S2708において、アルバム作成アプリ5は、カウンタcを写真の総枚数Zと比較する。カウンタcが写真の総枚数Z未満であれば、S2702に戻り、処理を繰り返す。一方、カウンタcが写真の総枚数Z以上であれば、S2707に進む。
以上説明したように、本実施形態では、撮影日時の差が特定の時間内に含まれる写真群を連写写真として特定し、図7の写真選択画面501において当該写真群をスタック状態でまとめて表示する。
図8は、本実施形態における写真比較画面の例を示す。写真比較画面800では、図6あるいは図7の写真選択画面501で比較ボタン510に対する指示があったときに表示される。図6の写真選択画面501が表示されている状態で比較ボタン510に対する指示があった場合、チェックマークを付けて選択された写真が、領域801に並んで一覧表示される。すなわち、アルバム作成アプリ5は、領域801に、類似写真を並べて一覧表示する。このとき領域801に写真が並ぶ順序は、ユーザーがチェックマークを付けた順番であってもよいし、写真の撮影日時の順番であってもよい。一方、図7の写真選択画面501が表示されている状態で比較ボタン510に対する指示があった場合、図26において連続写真と判定されていた複数の画像が一覧表示される。該一覧表示における画像の並び順は、例えば撮影日時に沿った順序である。
また、図8の例では、領域801に7枚の写真が表示されているが、この枚数に限定されるものではない。写真の枚数が領域801に表示可能な枚数を超えている場合、ユーザーが領域801の左右両端に配置されたスクロールボタン803をクリックすることで、表示写真がスライドされ、表示し切れていなかった他の写真を表示させることができる。
ユーザーが領域801に一覧表示されている写真をクリックすると、クリックされた写真が領域804に拡大して表示される。あるいは、領域801に一覧表示されている写真をドラッグアンドドロップして、領域804に追加してもよい。
図9は、写真比較画面800において、領域801でクリックされた写真901が、領域804に拡大して表示されている状態を示す。この状態でユーザーが確定ボタン902をクリックすると、領域804に表示されている写真が、アルバムでの使用が確定した写真として領域805に追加される。図9の例では、1枚の画像が確定された状態を示している。確定された画像には、チェックボックス904が設けられ、ユーザーがチェックボックス904をクリックすると、確定を取り消すことができる。確定を取り消された写真は、領域805から削除される。図9の例では、確定ボタン902は、領域804で拡大表示された写真に設けられているが、領域801に並んで表示されている写真のそれぞれに確定ボタンを設けてもよい。
図18のフローチャートに戻り、S1802において、アルバム作成アプリ5は、領域804で拡大表示されている写真において、ユーザーが追跡したいオブジェクトの指定を受け付ける。すなわち、領域804に表示された画像上でオブジェクトの指定を受け付ける。
図10は、領域804に拡大表示された写真おいて、追跡対象のオブジェクトとして車が矩形の検出枠により囲まれた矩形領域1001を示す。図10の例では、矩形の検出枠をユーザーがマウスなどの入力装置を使用して移動させることで、画像上に矩形領域1001を設定するが、検出枠の形状やサイズを変えて、矩形領域を設定するようにしてもよい。具体的には、図13に示すように、矩形の検出枠1301のサイズを変えて矩形の検出枠1302として設定し、OKボタン1303をクリックすることで矩形領域を確定するようにしてもよい。このように、検出枠の形状やサイズは可変である。
さらに、その他の方法として、図23に示すように、あらかじめ矩形領域2302を領域2301に表示しておいてもよい。ユーザーは矩形領域2302を拡大表示された写真上に移動させた後、矩形領域2302の大きさを調整するようにしてもよい。
さらに、別の方法として、図24に示すように、追跡対象のオブジェクトをユーザーが黒丸などのマーカー2401で指定するようにしてもよい。この方法では、マーカー2401を含んでいるオブジェクト(ここでは車)が、追跡対象のオブジェクトとして認識される。
図18のフローチャートに戻り、S1803において、ユーザーが図10の追跡スタートボタン1002をクリックすることで、アルバム作成アプリ5は、オブジェクトの追跡処理を行う。図19は、S1803におけるオブジェクト追跡処理の詳細なフローチャートを示す。オブジェクトの追跡処理は、図6や図7に示した写真選択画面501において、チェックボックス504にチェックマークが付けられた選択画像から、S1802で指定された追跡領域に含まれるオブジェクトを検出することで行われる。例えば、オブジェクトが人の顔である場合、顔検出技術を用いてオブジェクトを検出することができる。
S1901において、アルバム作成アプリ5は、選択画像の枚数xを、あらかじめ設定された閾値nと比較して、選択画像の枚数xが閾値nより大きいかどうか判定する。オブジェクト追跡処理は、選択画像の枚数xが多くなるほど処理時間が多くなる可能性がある。そこで、閾値nよりも選択画像の枚数xが大きい場合には、処理時間を削減するためにS1902に進む。
S1902において、アルバム作成アプリ5は、領域801に並んで表示された選択画像に対して、S1802でオブジェクトを指定した画像の前後m枚ずつをスキップしながらオブジェクトの追跡処理(トラッキング)を行う。具体的には、アルバム作成アプリ5は、比較の対象となっている複数の画像(写真比較画面で一覧表示されている画像)に対して、m枚ずつスキップして複数の画像を抽出する。そして、アルバム作成アプリ5は、該抽出された画像について、S1801で選択された画像における、S1802で指定されたオブジェクトの領域と類似の大きさであり、且つ画像データの内容が類似の領域を特定する。
このとき、トラッキング対象の画像において、上記オブジェクトの領域に類似の類似領域を探索する方法として、種々の方法を用いることができる。例えば所定サイズのブロック(8画素×8画素等)毎に画像間で類似ブロックを探索するブロックマッチング方式により類似領域を探索することが可能である。具体的には、アルバム作成アプリ5は、上記オブジェクトの領域を上記所定サイズのブロックに分割し、トラッキング対象の画像において各ブロックとの類似度が所定値以上のブロックを探索する。例えばブロック内の画素の画素値(輝度値等)の平均値の差分が所定値以内の場合、類似度が所定値以上とみなす。そして、トラッキング対象の画像において、上記オブジェクトの領域と同サイズ(同画素数)の領域であって、上記類似度が所定値以上と判定されたブロックが所定数(もしくは所定割合)以上の領域が、上記オブジェクトの領域に類似の類似領域と判定される。このように判定可能な領域が存在しない場合、該トラッキング対象の画像において、類似領域が存在しない、つまりS1802で指定されたオブジェクトが検出されなかったと判定される。
なお、類似領域の判定のための比較対象とする画像の選択方法は種々の方法を採用することができる。例えば、アルバム作成アプリ5は、m枚ずつスキップされた抽出されたトラッキング対象の画像のうち、S1801で選択された選択画像に撮影時間順で隣接する画像において類似領域を特定する。そして、S1903によるループ処理により、該類似領域が特定された画像に撮影時間が隣接する別のトラッキング対象の画像において、該特定された類似領域と類似の類似領域を特定する。即ち、トラッキング対象の画像の撮影時間順の順序において、S1801で選択された選択画像を中心に、隣接する画像のオブジェクト領域に類似する類似領域を順々に特定する。この方法によれば、撮影時間が比較的近い画像同志でオブジェクト領域が特定されるため、画像におけるオブジェクトの大きさの変化が比較的少ない。そのため、例えば連続撮影において、撮影装置とオブジェクトの距離が変化した場合や、ズーム等を行いながら連続撮影された場合でも、より精度良くオブジェクトを追跡することができる。
また、S1902のように、オブジェクトの検出を行う対象の画像を一定枚数スキップすることで、検出処理の回数を削減することができる。値mは、あらかじめ設定される。選択画像は、撮影日時などの所定の基準にしたがってあらかじめソートしておいてもよい。また、各画像において、オブジェクトが検出されたか否か、すなわち、追跡処理に成功したか否かを保持しておく。
S1903において、アルバム作成アプリ5は、領域801に並んで表示された選択画像のうち、オブジェクトを指定した画像の前後の端の画像までトラッキングしたかどうか判定する。すなわち、検出対象の画像が前後の端の画像に到達するまで、S1902の処理を繰り返す。前後の端の画像まで到達すると、S1904に進む。
S1904において、アルバム作成アプリ5は、スキップした画像に対して補間処理を行って、スキップした画像におけるオブジェクトの検出領域を予測する。オブジェクトの追跡を行った2枚の写真の間には、追跡を行っていないm枚の画像が存在する。本ステップでは、このm枚の画像に対して補間処理を行って、オブジェクトの検出領域を決定する。例えば、オブジェクトの追跡を行った2枚の画像の撮影日時と、オブジェクトが検出された検出領域の位置情報とに基づいて、m枚の画像におけるオブジェクトの検出領域を決定する。
図28は、S1904で実行される、本実施形態における補間処理を説明する図である。選択画像は、撮影日時の順にしたがって並べられているものとする。また、オブジェクトの追跡を行った始点の画像と終点の画像との間に、スキップされたm枚の画像が存在するものとする。
図28(a)は、アルバム作成アプリ5が算出した始点の画像における追跡領域2801の基点(Xs,Ys)と、終点の画像における追跡領域2802の基点(Xe,Ye)を示す。アルバム作成アプリ5は、基点間のX座標およびY座標の差分としてdxおよびdyを求める。
図28(b)は、始点の画像と終点の画像の間で3枚の画像がスキップされたことを示す(すなわち、m=3)。始点の画像の撮影日時をts、終点の画像の撮影日時をteとする。時間差Vは、teとtsの差分である。各画像の撮影日時をt0、t1、t2、t3、t4とする。そのため、図28(b)では、teがt0、tsがt4となる。なお、始点の画像から終点の画像までの追跡領域の移動速度は一定であると仮定する。各画像における追跡領域の基点(X,Y)は、始点の画像の撮影日時からの経過時間に比例して変化する。つまり、始点の画像における追跡領域の基点からのオフセット量は、dxに対して、全体の時間(すなわち、時間差V)に対する経過時間の割合を乗じたものとなる。例えば、1番目の画像については、経過時間が(t1-t0)なので(t1-t0)/Vをdxに乗じた結果が、Xのオフセットである。Yについても同様である。したがって、1番目の写真における追跡領域の基点の位置は、始点の画像における追跡領域の基点の位置(Xs,Ys)からのオフセットを加算すればよいので、(Xs+オフセットX,Ys+オフセットY)となる。
dxとdyを単純にmで割った変化量は、m枚の画像の撮影日時の間隔が均等である場合は、各画像における追跡領域の基点の位置を求めるために利用することができる。しかし、上述したように補間処理を行うことにより、m枚の画像の撮影日時の間隔が不均等である場合でも、各画像における追跡領域の基点の位置を求めることが可能になる。
図28(c)は、mが3の場合の各画像における追跡領域の基点の位置のオフセット算出式を示す。上述したように、各画像における追跡領域の基点の位置のオフセットを算出することができる。
図19のフローチャートに戻り、S1901において、選択画像の枚数xが閾値n以下の場合には、S1905に進む。
S1905において、アルバム作成アプリ5は、領域801に並んで表示された選択画像のうち、S1802でオブジェクトが指定された画像の前後にある画像を1枚ずつトラッキングする。トラッキングの方法は、S1902と同様である。すなわち、アルバム作成アプリ5は、オブジェクトが指定された画像以外の他のすべての選択画像に対して、追跡処理を実行する。また、S1902と同様に、各画像において、オブジェクトが検出されたか否か、すなわち、追跡処理に成功したか否かを保持しておく。
S1906において、アルバム作成アプリ5は、領域801に並んで表示された選択画像のうち、オブジェクトを指定した画像の前後にある全ての画像をトラッキングしたかどうか判定する。すなわち、検出対象の画像が前後の端にある画像に到達するまで、S1905の処理を繰り返す。すべての画像に対するトラッキングが終わると、処理を終了する。
以上説明したように、本実施形態におけるオブジェクト追跡処理によると、すべての選択画像において追跡領域を決定することができる。また、選択画像の数が所定の数より多い場合には、一定数の画像については追跡処理をスキップして、補間処理を行って追跡領域を予測して決定することにより、処理時間を削減することができる。
図18に戻り、S1804において、アルバム作成アプリ5は、オブジェクト追跡処理の追跡結果を表示する。
図20は、S1804における追跡結果表示処理の詳細なフローチャートを示す。
S2001において、アルバム作成アプリ5は、1枚の選択画像についてオブジェクトの追跡(すなわち、オブジェクトの検出)に成功したか否か判定する。追跡に成功した場合には、S2006に進む。一方、追跡に失敗した場合は、S2002に進む。
S2006において、アルバム作成アプリ5は、検出された追跡領域を、写真比較画面800の領域801にトリミングして表示する。図11は、追跡領域の検出結果を表示する写真比較画面800の例を示す。写真比較画面800は、領域801に、検出された追跡領域のトリミング画像1102を追加して、他のトリミング画像と並べて表示する。ユーザーがトリミング画像1102を選択すると、選択されたトリミング画像が、領域1103に拡大して表示される。ユーザーが確定ボタン902をクリックすると、選択されたトリミング画像に対応する画像が、領域1105に追加される。これにより、類似写真(すなわち、選択画像)の中から、ユーザーがアルバムに含めたい写真を決めることができる。また、領域1103のボタン1104は、トリミング画像の表示を元に戻すためのボタンである。ユーザーがボタン1104をクリックすると、写真比較画面800は、図9の状態に戻り、領域801にはトリミングされていない元の大きさの写真901が表示される。すなわち、オブジェクトの指定と検出結果がリセットされる。
次いで、S2005において、アルバム作成アプリ5は、すべての選択画像の追跡結果を表示し終えたかどうか判定する。
次に、S2001でオブジェクトの追跡に失敗したと判定された場合の処理について説明する。
S2002において、アルバム作成アプリ5は、オブジェクトの追跡に失敗した写真とともに、オブジェクトの追跡に失敗した旨のメッセージを表示する。
S2003において、アルバム作成アプリ5は、オブジェクトの追跡に失敗した写真上で、ユーザーからオブジェクトの再設定を受け付ける。
S2004において、アルバム作成アプリ5は、オブジェクトの追跡に失敗した写真において、再設定されたオブジェクトを追跡し(すなわち、再トラッキング)、追跡結果を表示する。通常、選択画像のうちのある画像においてオブジェクトの追跡に失敗すると、それ以降の画像でもオブジェクトの追跡に失敗してしまう。したがって、再トラッキングは、選択画像の中の残りの全ての画像に対して行われる。
図21は、オブジェクトを再設定するためのオブジェクト選択画面の例を示す。オブジェクト選択画面2100の領域2101には、オブジェクトの追跡に失敗した写真とともに、オブジェクトの追跡に失敗した旨のメッセージが表示される。ユーザーは、オブジェクトを示す追跡領域2102を再設定し、確定(OK)ボタン2103をクリックする。ユーザーの操作に応じて、アルバム作成アプリ5は、再設定されたオブジェクトを、オブジェクトの追跡に失敗した残りの写真の中から追跡する。
図22は、再設定されたオブジェクトの追跡結果を表示する写真比較画面800の例を示す。領域801において、再設定されたオブジェクトが検出された画像には、再設定マーク2201が表示される。なお、再設定マーク2201の代わりに、例えば、再設定されたオブジェクトが検出された各画像を枠で囲んで表示してもよい。すなわち、再設定されたオブジェクトが検出された画像であることをユーザーが認識できるようにすればよい。
S2004における再トラッキングが終了すると、上述したS2005に進む。
このように、図18のS1804における追跡結果の表示処理が行われる。
以上説明したように、本実施形態によると、類似写真のそれぞれにおいて、ユーザーが指定したオブジェクトを拡大表示することで、複数の写真の中からユーザーが意図する写真を選択しやすくすることができる。また、類似写真が大量にある場合には、所定の枚数の写真をスキップしてオブジェクトの追跡処理を行うことにより、処理時間を短縮することができる。さらに、スキップした写真は、補間処理により、各写真の撮影日時の間隔が不均等であっても、それぞれの写真の追跡領域を求めることが可能になる。さらに、追跡に失敗した場合には、その旨のメッセージを画面に表示するとともに、ユーザーが再度オブジェクトを指定して、追跡処理を行うことを可能にする。再度追跡処理が行われた写真は、オブジェクトが再設定されたことがユーザーに分かるように表示する。
なお、図11の例では、画像におけるオブジェクトの領域を他の領域よりも強調するために、領域1103において、オブジェクトの領域を拡大表示していた。しかし、強調の方法はこれに限らず、例えば領域1103において、画像の全体を表示するとともに、オブジェクトの領域に枠を表示してもよい。或いは、例えば画像の全体を表示するとともに、オブジェクトの領域以外の領域にグレーの半透明のマスク画像を重ねてもよい。即ち、オブジェクトの領域以外の領域を目立たなくすることで、結果として、オブジェクトの領域が強調されてもよい。
また以上の実施形態では、図3のS304におけるページレイアウト前のS302における画像選択において、図5に示した表示や、図11に示したオブジェクト領域の表示が行われる例を示した。しかしこれに限らず、例えば画像の選択や、該画像のテンプレートへのレイアウトが、ユーザーによる操作なしに自動で行われてもよい。そして、自動レイアウトされたアルバムについての編集時に、レイアウト済みの画像と入れ替える画像の選択において、S302における処理により、図5や図11に示した表示が行われてもよい。
(第二の実施形態)
第二の実施形態では、類似画像の表示に関する別の形態について説明する。具体的には、上述した図18のフローチャートの各ステップにおいて表示される画面に関する。なお、第一の実施形態と同様の構成及び処理については、説明を省略する。
図12は、本実施形態における写真比較画面1200の例を示す。この写真比較画面1200は、図18のS1801で表示される。領域1201は、図6または図7の画像選択画面で選択された画像を並べて表示する。領域1201の左右両端に配置されたスクロールボタン1202をクリックすると、表示画像がスライドされ、表示し切れなかった他の画像が領域1201に表示される。領域1201において、ユーザーが画像を選択すると、選択した画像が領域1203に拡大して表示される。領域1203は、ユーザーが選択した2つの画像を並べて拡大表示する。具体的には、領域1201で最初に選択した画像が、領域1203の左側に表示される。次いで、領域1201で別の画像が選択されると、その画像が領域1203の右側に表示される。なお、左右の表示順序は逆でもよい。さらに、領域1203に2つの画像が表示されている状態で、領域1201で次の画像が選択されると、領域1203の左右どちらかの画像に入れ替わって拡大表示される。次の画像が左右どちらの画像に入れ替わって拡大表示されるかについては、次のような方法によって決定される。まず、領域1203の左右どちらかの画像をユーザーがクリックして選択状態にする。次いで、ユーザーが領域1201で画像を選択すると、領域1203で選択状態にある画像が、領域1201で選択された画像に入れ替わる。このように、本実施形態によると、2枚の画像を並べて拡大表示して、比較することができる。なお、領域1203に表示する画像の数は、2枚に限らず、3枚以上としてもよい。
領域1203に表示された画像をユーザーがクリックすると、図18のS1802に進み、オブジェクト選択画面に遷移する。
図25は、本実施形態におけるオブジェクト選択画面2500の例を示す。このオブジェクト選択画面2500は、図18のS1802で表示される。ユーザーは、追跡したいオブジェクトに対して追跡領域2501を設定し、OKボタン2502をクリックする。その後、図12の写真比較画面1200に戻る。
図12の写真比較画面1200において、ユーザーが、追跡スタートボタン1204をクリックすると、アルバム作成アプリ5は、図12の選択画像を対象としてオブジェクトの追跡処理を行う。これは図18のS1803に対応する。
図14は、本実施形態における追跡領域の検出結果を表示する写真比較画面1200の例を示す。この画面は、図18のS1804、より具体的には、図20のS2006において表示される。領域1201に表示される各画像では、検出された追跡領域が、検出結果枠1403によって示される。また、領域1203は、2つの画像で検出された追跡領域1402を拡大して表示する。なお、領域1201は、拡大前の画像(すなわち、画像全体)を表示するので、ユーザーは画像の全体構図を確認することができる。
図15は、オブジェクトの追跡に失敗した場合の写真比較画面1200の例を示す。この画面は、図18のS1804、より具体的には、図20のS2002おいて表示される。領域1201では、オブジェクトの追跡に失敗した画像に失敗マーク1501を表示する。領域1201でオブジェクトの追跡に失敗した画像を選択すると、オブジェクトの追跡に失敗した旨のメッセージが領域1203に表示される。ユーザーが再設定ボタン1502をクリックすると、オブジェクトの再設定画面に遷移する。
図16は、オブジェクトを再設定するためのオブジェクト選択画面1600の例を示す。図16のオブジェクト選択画面1600において、ユーザーは追跡領域1601を再設定し、確定(OK)ボタン1602をクリックする。次いで、アルバム作成アプリ5は、再設定されたオブジェクトを、再設定前のオブジェクトの追跡に失敗した画像から追跡する。
図17は、再設定されたオブジェクトの追跡結果を表示する写真比較画面1200の例を示す。領域1201に表示されている画像には、検出結果枠1703が表示される。また、再設定されたオブジェクトが検出された画像には、再設定マーク1701が表示される。領域1203には、検出された追跡領域1702が拡大して表示される。
以上説明したように、本実施形態では、追跡領域を拡大して表示するので、ユーザーは、細部の比較をすることができる。さらに、拡大前の写真を同一画面に表示するので、ユーザーは、注目した写真の構図も確認することができる。
以上説明したように、本実施形態によると、類似写真の中から2枚の画像を並べて拡大表示できるので、画像同士が比較しやすくなり、ユーザーによる写真の選択をより容易にすることができる。また、拡大前後の写真を同一画面に表示するので、ユーザーは、写真の全体構図を確認しながら、拡大後の画像を比較することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (15)

  1. 複数の画像の中からユーザーが意図する画像を選択するための情報処理装置であって、
    前記複数の画像のいずれかの画像上でオブジェクトの指定を受け付ける受け付け手段と、
    前記複数の画像のそれぞれから、前記オブジェクトを検出する検出手段と、
    前記複数の画像のそれぞれの、前記検出されたオブジェクトに対応する領域を、前記複数の画像のそれぞれにおける他の領域よりも強調されるように表示する表示手段と、
    前記表示手段による表示の後に、前記ユーザーによる指示に応じて、前記複数の画像のいずれかを選択する選択手段と、
    を有し、
    前記表示手段は、前記複数の画像を一覧表示する第一の領域と、前記第一の領域から選択された画像の、前記ユーザーにより前記第一の領域から選択された画像における前記オブジェクトに対応する領域が拡大表示される第二の領域を含む画面を表示し、
    前記受け付け手段は、前記オブジェクトの検出に失敗した場合に、前記オブジェクトの再設定を受け付け、
    前記検出手段は、前記オブジェクトの検出に失敗した画像から、前記再設定されたオブジェクトを検出し、
    記表示手段は、前記第一の領域において、前記再設定されたオブジェクトが検出された画像に、前記再設定されたオブジェクトが検出されたことを示すマークを表示する、
    ことを特徴とする情報処理装置。
  2. 前記表示手段は、
    前記第一の領域において、各画像における前記オブジェクトの検出領域のトリミング画像を一覧表示し、
    前記第二の領域において、前記第一の領域から選択された前記トリミング画像を拡大表示することを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示手段は、
    前記第一の領域において、各画像の画像全体を一覧表示し、
    前記第二の領域において、前記第一の領域から選択された画像における前記オブジェクトの検出領域を拡大表示することを特徴とする請求項1に記載の情報処理装置。
  4. 前記表示手段は、前記第二の領域において、前記第一の領域から選択された複数の画像における前記オブジェクトの検出領域を並べて拡大表示することを特徴とする請求項3に記載の情報処理装置。
  5. 前記表示手段は、前記第一の領域に表示された各画像において、前記オブジェクトの検出領域を示す検出結果枠を表示することを特徴とする請求項3または4に記載の情報処理装置。
  6. 前記表示手段は、前記オブジェクトの検出に失敗した場合に、前記オブジェクトの検出に失敗した旨のメッセージを表示することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記検出手段は、所定の数の画像をスキップしながら前記オブジェクトを検出することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記検出手段は、前記スキップした画像の前後にある前記オブジェクトを検出した画像に基づいて補間処理を行って、前記スキップした画像の前記オブジェクトの検出領域を決定することを特徴とする請求項7に記載の情報処理装置。
  9. 前記補間処理は、前記スキップした画像の前後にある前記オブジェクトを検出した画像の撮影日時と前記オブジェクトの検出領域の位置情報とに基づいて、前記スキップした画像における前記オブジェクトの検出領域を予測する処理であることを特徴とする請求項8に記載の情報処理装置。
  10. 前記複数の画像は、連写写真の画像を含むことを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 前記連写写真の画像は、前記複数の画像の撮影日時に基づいて特定されることを特徴とする請求項10に記載の情報処理装置。
  12. 前記受け付け手段は、画面に表示された検出枠またはマーカーを前記ユーザーが操作することによって特定された前記オブジェクトの指定を受け付けることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
  13. 前記検出枠は、形状またはサイズが可変であることを特徴とする請求項12に記載の情報処理装置。
  14. コンピュータを請求項1乃至13のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
  15. 複数の画像の中からユーザーが意図する画像を選択するための方法であって、
    前記複数の画像のいずれかの画像上でオブジェクトの指定を受け付ける受け付けステップと、
    前記複数の画像のそれぞれから、前記オブジェクトを検出する検出ステップと、
    前記複数の画像のそれぞれの、前記検出されたオブジェクトに対応する領域を、前記複数の画像のそれぞれにおける他の領域よりも強調されるように表示する表示ステップと、
    前記表示ステップによる表示の後に、前記ユーザーによる指示に応じて、前記複数の画像のいずれかを選択する選択ステップと、
    を含み、
    前記表示ステップにて、前記複数の画像を一覧表示する第一の領域と、前記第一の領域から選択された画像の、前記ユーザーにより前記第一の領域から選択された画像における前記オブジェクトに対応する領域が拡大表示される第二の領域を含む画面を表示し、
    前記受け付けステップにて、前記オブジェクトの検出に失敗した場合に、前記オブジェクトの再設定を受け付け、
    前記検出ステップにて、前記オブジェクトの検出に失敗した画像から、前記再設定されたオブジェクトを検出し、
    前記表示ステップにて、前記第一の領域において、前記再設定されたオブジェクトが検出された画像に、前記再設定されたオブジェクトが検出されたことを示すマークを表示する、
    ことを特徴とする方法
JP2019067752A 2019-03-29 2019-03-29 情報処理装置、方法、及びプログラム Active JP7313862B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019067752A JP7313862B2 (ja) 2019-03-29 2019-03-29 情報処理装置、方法、及びプログラム
US16/819,275 US11244186B2 (en) 2019-03-29 2020-03-16 Information processing apparatus, method and storage medium
CN202010221991.1A CN111752446B (zh) 2019-03-29 2020-03-26 信息处理装置、方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067752A JP7313862B2 (ja) 2019-03-29 2019-03-29 情報処理装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020166683A JP2020166683A (ja) 2020-10-08
JP7313862B2 true JP7313862B2 (ja) 2023-07-25

Family

ID=72606046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067752A Active JP7313862B2 (ja) 2019-03-29 2019-03-29 情報処理装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US11244186B2 (ja)
JP (1) JP7313862B2 (ja)
CN (1) CN111752446B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
JP2022046260A (ja) * 2020-09-10 2022-03-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2023146486A (ja) * 2022-03-29 2023-10-12 富士フイルムビジネスイノベーション株式会社 情報処理システムおよびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251450A (ja) 1999-03-02 2000-09-14 Hitachi Denshi Ltd 画像検出方法
JP2003018516A (ja) 2001-07-04 2003-01-17 Minolta Co Ltd 画像評価支援プログラム、および記録媒体
JP2004240751A (ja) 2003-02-06 2004-08-26 Canon Inc 画像検索装置
JP2007018408A5 (ja) 2005-07-11 2008-08-14
US20120026381A1 (en) 2010-07-27 2012-02-02 Samsung Electronics Co., Ltd. Digital image signal processing method, digital image signal processing apparatus and recording medium having recorded thereon the method
JP4874425B1 (ja) 2010-12-28 2012-02-15 オリンパスイメージング株式会社 再生装置および撮像装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3731760B2 (ja) * 1995-03-29 2006-01-05 富士写真フイルム株式会社 画像処理方法
US6724915B1 (en) * 1998-03-13 2004-04-20 Siemens Corporate Research, Inc. Method for tracking a video object in a time-ordered sequence of image frames
JP4336397B2 (ja) 1998-03-25 2009-09-30 キヤノン株式会社 画像処理装置及び方法及び記憶媒体
JP3974721B2 (ja) * 1998-12-25 2007-09-12 東芝テック株式会社 画像処理方法及び画像処理装置
DE60025406T2 (de) * 1999-03-02 2006-09-21 Hitachi Denshi K.K. Laufbilderinformationsanzeigeverfahren und -gerät
JP2007018408A (ja) 2005-07-11 2007-01-25 Nikon Corp 周期日時による画像検索機能を有する画像検索装置および画像検索プログラム
US20090054755A1 (en) * 2006-03-02 2009-02-26 Takao Shiibashi Medical imaging system
JP4769653B2 (ja) 2006-05-26 2011-09-07 富士フイルム株式会社 対象画像検出システム,対象画像部分の一致判定装置および対象画像部分のソーティング装置ならびにそれらの制御方法
FR2911707B1 (fr) * 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video.
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
JP5324391B2 (ja) * 2009-10-22 2013-10-23 キヤノン株式会社 画像処理装置およびその制御方法
US8787618B2 (en) * 2010-04-13 2014-07-22 Sony Corporation Content information processing device, content information processing method, content information processing program, and personal digital assistant
JP5665393B2 (ja) * 2010-07-05 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR102155133B1 (ko) * 2013-07-12 2020-09-11 삼성전자주식회사 이미지 표시 방법 및 장치
KR102021857B1 (ko) * 2013-07-23 2019-09-17 엘지전자 주식회사 이동 단말기 및 그의 파노라마 촬영방법
JP6953128B2 (ja) * 2016-12-09 2021-10-27 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
JP6961363B2 (ja) * 2017-03-06 2021-11-05 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251450A (ja) 1999-03-02 2000-09-14 Hitachi Denshi Ltd 画像検出方法
JP2003018516A (ja) 2001-07-04 2003-01-17 Minolta Co Ltd 画像評価支援プログラム、および記録媒体
JP2004240751A (ja) 2003-02-06 2004-08-26 Canon Inc 画像検索装置
JP2007018408A5 (ja) 2005-07-11 2008-08-14
US20120026381A1 (en) 2010-07-27 2012-02-02 Samsung Electronics Co., Ltd. Digital image signal processing method, digital image signal processing apparatus and recording medium having recorded thereon the method
JP4874425B1 (ja) 2010-12-28 2012-02-15 オリンパスイメージング株式会社 再生装置および撮像装置

Also Published As

Publication number Publication date
CN111752446A (zh) 2020-10-09
US20200311454A1 (en) 2020-10-01
JP2020166683A (ja) 2020-10-08
CN111752446B (zh) 2024-03-22
US11244186B2 (en) 2022-02-08

Similar Documents

Publication Publication Date Title
JP7313862B2 (ja) 情報処理装置、方法、及びプログラム
US20080229248A1 (en) Associating geographic location information to digital objects for editing
JP6702900B2 (ja) 情報処理装置、表示制御方法、及びプログラム
JP5389724B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2020140577A (ja) 装置、方法、及びプログラム
JP2020140576A (ja) 装置、方法、及びプログラム
JP6422409B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP2020140567A (ja) 装置、方法、及びプログラム
US20150169944A1 (en) Image evaluation apparatus, image evaluation method, and non-transitory computer readable medium
US11915351B2 (en) Image processing apparatus, image processing method, and storage medium
CN105894016B (zh) 图像处理方法和电子设备
US20220262054A1 (en) Storage medium, image processing apparatus, and image processing method
JP2020140568A (ja) 装置、方法、及びプログラム
JP2022123210A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123207A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7336211B2 (ja) 画像処理装置、制御方法、及びプログラム
JP2022123213A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123211A (ja) プログラム、画像処理装置、及び画像処理方法
JP2021026703A (ja) 画像処理装置、制御方法及びプログラム
JP6723938B2 (ja) 情報処理装置、表示制御方法、及びプログラム
JP7336209B2 (ja) 画像処理装置、制御方法、及びプログラム
JP2017037412A (ja) 画像処理装置およびその制御方法、並びにプログラム
JP2010067186A (ja) 画像処理装置
JP2006277441A (ja) 画像管理装置及びプログラム
JP2015222460A (ja) 公開画像編集方法及び公開画像編集装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R151 Written notification of patent or utility model registration

Ref document number: 7313862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151