JP5977697B2 - 電子機器、および電子機器を制御するための方法 - Google Patents

電子機器、および電子機器を制御するための方法 Download PDF

Info

Publication number
JP5977697B2
JP5977697B2 JP2013051685A JP2013051685A JP5977697B2 JP 5977697 B2 JP5977697 B2 JP 5977697B2 JP 2013051685 A JP2013051685 A JP 2013051685A JP 2013051685 A JP2013051685 A JP 2013051685A JP 5977697 B2 JP5977697 B2 JP 5977697B2
Authority
JP
Japan
Prior art keywords
subject
information
image
electronic device
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013051685A
Other languages
English (en)
Other versions
JP2014179743A (ja
Inventor
靖弘 宮野
靖弘 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013051685A priority Critical patent/JP5977697B2/ja
Publication of JP2014179743A publication Critical patent/JP2014179743A/ja
Application granted granted Critical
Publication of JP5977697B2 publication Critical patent/JP5977697B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

この発明は、撮影した画像に含まれる被写体毎に情報を付加することが可能な電子機器に関する。
近年、スマートフォンおよびデジタルカメラを含む電子機器で撮影した画像に日時、撮影場所等の情報を関連付けることで画像を分類する技術が提案されている。
たとえば、特開2002−077805(特許文献1)は、『カメラ10のCPU12は、GPS等を用いた位置認識部14により撮影を行った位置を認識し、方位計16によりカメラを向けた注目方位を認識し、撮影し得る結像画像の固有情報、例えば、地域名や施設名称と位置情報とを関連付けた辞書メモリ20から検索する。撮影メモ合成部30は、その結果を結像画像と共に記憶媒体上に関連付けて記憶する』という技術を開示している([要約]参照)。
特開平11−146317(特許文献2)は、『デジタルスチルカメラ1の表示部10にタッチパネル12を配置し、撮影後に撮影画像とともに家族等の人物アイコン30や、ジャンルアイコン40を表示する。そして、所望のアイコンをタッチすることにより、そのアイコンに関連付けられている個人情報、キーワード等の情報を識別情報として画像に付加する』という技術を開示している([要約]参照)。
特開2005−191892(特許文献3)は、『撮影装置1と、外部に設けられた情報提供サーバSと、撮影装置1と情報提供サーバSとを接続するネットワーク5と、を有している。情報提供サーバSは、地域情報、例えば、販売店、飲食店、公共機関(観光協会などを含む)、駅、病院などのクライアントがそれぞれの有する情報であって一般に参照させることが可能な各種情報を情報提供サーバSにアップロードしている。撮影装置1により、日光の名所である、「杉並木」31a、「三猿」31b、「華厳の滝」31c、「いろは坂」31d、「日光東照宮」31e、「日光江戸村」31fのそれぞれのシーンにおける映像を順に撮影していった場合に、それぞれのシーンにおける映像31a〜31fと、地域情報サーバSから通信部7を介して取得した地域情報の解説テキストファイルと、を対応付けしてメモリに記憶する』という技術を開示している([要約]参照)。
特開2002−077805号公報 特開平11−146317号公報 特開2005−191892号公報
ところで、複数の被写体が1枚の画像に写っている場合、被写体の各々に関する情報を付加し、後日画像を見返した時に被写体毎に付加した情報を確認したいという要望がある。たとえば、人物および建築物が1枚の画像に写っている場合、人物に関しては当該人物の情報(名前等)を記憶し、建築物に関しては当該建築物について調べた検索結果を記憶したいという要望がある。
しかしながら、特許文献1に開示された技術は、地域情報等を画像毎に結び付けることで撮影した画像に関する情報を容易に認識するものである。
特許文献2に開示された技術は、所望のアイコンをタッチすることにより、そのアイコンに関連付けられている個人情報、キーワード等の情報を識別情報として画像に付加するものである。
特許文献3に開示された技術は、地域情報の解説テキストファイルと映像とを対応付けしてメモリに記憶するものである。
そのため、画像に含まれる被写体毎に情報を付加することができない。したがって、画像に含まれる被写体毎に情報を付加する技術が必要とされている。この開示は上述のような問題点を解決するためになされたものであって、その目的は、画像に含まれる被写体毎に応じて情報を付加し、ユーザが後日画像を見返した時に、撮影時の状況を容易に思い起こすことが可能な電子機器を提供することである。
一実施の形態に従うと、電子機器は、カメラと、カメラからの画像を表示するためのモニタと、モニタにおける接触部分を検出するためのタッチパネルと、画像内の接触部分を含む部分画像に写っている被写体の種別を識別するための被写体識別手段と、被写体識別手段により識別された種別に関連付けられた画面をモニタに表示するための表示制御手段とを備える。画面は、被写体に関する情報の入力を受け付けるための入力画面を含む。電子機器は、画像内の部分画像の範囲、被写体識別手段により識別された種別、および入力画面に入力された入力情報を関連付けて格納するための記憶部と、モニタにおける接触部分が範囲に含まれる場合に、入力情報を表示するための入力情報表示手段とを備える。
好ましくは、画面は、被写体に関する情報を検索するための検索画面を含む。記憶部は、画像中の部分画像の範囲、被写体識別手段により識別された種別、および検索の結果を関連付けてさらに格納するように構成される。電子機器は、モニタにおける接触部分が範囲に含まれる場合に、検索の結果を表示するための検索結果表示手段をさらに備える。
好ましくは、被写体識別手段は、部分画像の特徴量に基づいて、被写体の種別を識別するように構成されている。
好ましくは、被写体識別手段は、被写体の種別が人物であるか否かを判定するための人物識別手段を含む。
好ましくは、電子機器は、電子機器の現在の位置を示す現在位置情報を取得する位置取得部と、カメラが向いている方向を示す方向情報を取得するための方向取得部とをさらに備える。記憶部は、人工物の地図上の位置情報を示す人工物位置情報さらに格納するように構成される。被写体識別手段は、現在位置情報と、方向情報と、人工物位置情報とに基づいて、被写体の種別が人工物であるか否かを判定するための人工物識別手段を含む。
好ましくは、記憶部は、自然物の地図上の位置情報を示す自然物位置情報をさらに格納するように構成される。被写体識別手段は、現在位置情報と、方向情報と、自然物位置情報とに基づいて、被写体の種別が自然物であるか否かを判定するための自然物識別手段を含む。
好ましくは、被写体の種別の選択を受け付ける選択画面を表示するための選択画面表示手段をさらに備える。被写体識別手段は、選択に基づいて、被写体の種別を識別するように構成される。
他の実施形態に従うと、電子機器を制御するための方法が提供される。電子機器は、カメラと、カメラからの画像を表示するためのモニタと、モニタにおける接触部分を検出するためのタッチパネルとを備える。電子機器を制御するための方法は、画像内の接触部分を含む部分画像に写っている被写体の種別を識別するステップと、識別するステップにより識別された種別に関連付けられた画面をモニタに表示するステップとを備える。表示するステップは、被写体に関する情報の入力を受け付けるための入力画面を表示するためのステップを含む。電子機器を制御するための方法は、画像内の部分画像の範囲、識別するステップにより識別された種別、および入力画面に入力された入力情報を関連付けて格納するステップと、モニタにおける接触部分が範囲に含まれる場合に、入力情報を表示するステップとをさらに備える。
ある局面において、画像に写っている被写体毎に情報を付加し、ユーザが後日画像を見返した時に、撮影時の状況を容易に思い起こすことができる。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
電子機器100のハードウェア構成の具体例を示すブロック図である。 電子機器100の機能構成の具体例を示すブロック図である。 第1の実施の形態の電子機器100の動作の一態様を表す図である。 第1の実施の形態の電子機器100の動作の一態様を表す図である。 第1の実施の形態の電子機器100の動作の一態様を表す図である。 表示情報241のデータ構造を表す図である。 位置情報245のデータ構造を表す図である。 電子機器100の動作の流れを表わすフローチャートである。 第2の実施の形態の電子機器100の動作の一態様を表す図である。
以下、図面を参照しつつ、本実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。
[第1の実施の形態]
<ハードウェア構成>
図1を参照して、電子機器100のハードウェア構成について説明する。図1は、電子機器100のハードウェア構成の具体例を示すブロック図である。
電子機器100は、CPU(Central Processing Unit)20と、アンテナ23と、通信装置24と、操作キーなどのユーザインターフェイス25と、カメラ26と、フラッシュメモリ27と、RAM(Random Access Memory)28と、ROM(Read Only Memory)29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、ディスプレイ35と、LED(Light Emitting Diode)36と、データ通信I/F(インターフェイス)37と、バイブレータ38と、GPS(Global Positioning System)コントローラ39と、方位センサ40とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。
電子機器100は、たとえば、スマートフォン、デジタルカメラ、携帯電話、タブレット型端末、その他のカメラ機能を備える電子機器である。
アンテナ23は、基地局によって発信される信号を受信する。また、アンテナ23は、基地局を介して他の通信装置と通信するための信号を送信する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれる。処理後の信号は、CPU20に送られる。
CPU20は、電子機器100に対して与えられる命令に基づいて電子機器100の動作を制御するための処理を実行する。電子機器100のアンテナ23が信号を受信すると、CPU20は、通信装置24から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路34に送出する。音声信号処理回路34は、その信号に対して予め規定された処理を実行し、処理後の信号をスピーカ33に送出する。スピーカ33は、その信号に基づいて音声を出力する。
マイク32は、電子機器100に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路34に対して送出する。音声信号処理回路34は、その信号に基づいて通話のために予め規定された処理を実行し、処理後の信号をCPU20に対して送出する。CPU20は、その信号を送信用のデータに変換し、変換後のデータを通信装置24に対して送出する。通信装置24は、そのデータを用いて送信用の信号を生成し、アンテナ23に向けてその信号を送出する。
フラッシュメモリ27は、CPU20から送られるデータを格納する。CPU20は、フラッシュメモリ27に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。
RAM28は、CPU20によって生成されるデータを一時的に保持する。ROM29は、電子機器100に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU20は、ROM29から当該プログラムまたはデータを読み出し、電子機器100の動作を制御する。
メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、読み出したデータをCPU20に送出する。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の空き領域に書き込む。
音声信号処理回路34は、上述のような通話のための信号処理を実行する。なお、図1に示される例では、CPU20と音声信号処理回路34とが別個の構成として示されているが、他の局面において、CPU20と音声信号処理回路34とが一体として構成されていてもよい。
ディスプレイ35は、タッチパネル式のディスプレイであるが、タッチパネルの機構は特に限られない。ディスプレイ35は、CPU20から与えられるデータに基づいて、当該データによって規定される画像を表示する。
LED36は、CPU20からの信号に基づいて、予め定められた発光動作を実現する。データ通信I/F37は、データ通信用のケーブルの装着を受け付ける。データ通信I/F37は、CPU20から出力される信号を当該ケーブルに対して送出する。あるいは、データ通信I/F37は、当該ケーブルを介して受信されるデータを、CPU20に対して送出する。他の局面において、データ通信I/F37は、無線であってもよい。
バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。
GPSコントローラ39は、GPS信号または基地局からの位置信号(測位信号)を受信して、電子機器100の位置情報を当該位置信号から取得する。GPSコントローラ39は、取得した電子機器100の位置情報をCPU20に入力する。
方位センサ40は、カメラ26が向いている方向を検出する。たとえば、方位センサ40は、地磁気センサ、電子コンパス、または加速度センサである。
<機能構成>
図2を参照して、電子機器100の構成について説明する。図2は、電子機器100の構成の一例を示すブロック図である。
電子機器100は、カメラ26と、モニタ210と、タッチパネル220と、記憶部240と、位置情報取得部260と、方向情報取得部270と、被写体識別部250と、表示制御部280とを備える。
記憶部240は、被写体情報242と、表示情報241と、テンプレート243と、位置情報245とを含む。被写体識別部250は、人物識別部251と、人工物識別部253と、自然物識別部255とを含む。
タッチパネル220は、モニタ210における接触部分を検出する。タッチパネル220は、当該検出部分を被写体識別部250に出力する。たとえば、当該検出部分は、モニタ210上の座標値として示される。
位置情報取得部260は、GPS信号から電子機器100の現在の位置情報(以下、「現在位置情報」と言う。)を算出する。たとえば、位置情報取得部260は、現在位置情報を地図上の緯度、経度として算出する。ある局面において、位置情報取得部260は、現在位置情報を、地図上の座標値として算出する。位置情報取得部260は、現在位置情報を、人工物識別部253および自然物識別部255に出力する。
方向情報取得部270は、カメラ26が向いている方向を取得する(以下、「方向情報」と言う。)。方向情報取得部270は、方向情報を、人工物識別部253および自然物識別部255に出力する。
被写体識別部250は、タッチパネル220が入力する座標値を含み、かつ被写体を含む画像(以下、「部分画像」と言う。)をモニタ210に表示されている画像から切り出す。たとえば、被写体識別部250は、被写体の輪郭追跡を行うことにより、被写体を含んで画像を切り出す。また、被写体識別部250は、部分画像の特徴量に基づいて、被写体の種別を識別する。被写体識別部250は、被写体の種別を表示制御部280に出力する。
人物識別部251は、テンプレート243を参照して、部分画像とテンプレートマッチングすることにより、被写体の種別が「人物」であるか否かを判定する。たとえば、テンプレート243は、顔のテンプレートである。人物識別部251は、部分画像に顔が写っている場合に、被写体の種別を「人物」と判定する。
また、人工物識別部253は、現在位置情報と、方向情報と、位置情報245とに基づいて、被写体の種別が「人工物」であるか否かを判定する。当該判定方法については、図7において詳細に説明する。
さらに、自然物識別部255は、現在位置情報と、方向情報と、位置情報245とに基づいて、被写体の種別が「自然物」であるか否かを判定する。当該判定方法については、図7において詳細に説明する。
表示制御部280は、被写体識別部250が出力した種別と、被写体情報242とに基づいて、モニタ210の表示を制御する。当該表示の制御については、図3〜5において詳細に説明する。
<動作態様>
図3〜図5を参照して、電子機器100の動作の一態様について説明する。図3(A)は、ユーザが画像300に写っている人物320にタッチした様子を表す図である。また、図3(B)は、人物320に関する情報を入力するための文字入力画面350を表す図である。
図3(A)を参照して、モニタ210に表示された画像300には、人物320と、山330と、寺340とが表示されている。ユーザが人物320にタッチすると、被写体識別部250は、画像300に写っている被写体の種別を識別する。
被写体識別部250は、当該被写体の種別が「人物」であると判定した場合に、表示制御部280は、表示情報241を参照して、文字入力画面350を表示する。ユーザは、文字入力部360に、人物320に関する情報を入力する。ある局面において、電子機器100は、ユーザの音声により人物320に関する情報を入力可能なように構成される。
ユーザが文字入力部360に情報を入力すると、表示制御部280は、文字入力部360の入力情報と、種別「人物」と、画像300内の部分画像310の範囲とを被写体情報242に格納する。たとえば、当該範囲は、画像300上の座標値として格納される。
当該範囲が被写体情報242に格納された後に、ユーザが画像300上の人物320にタッチすると、被写体情報242に格納された入力情報が再度表示される。これにより、ユーザは、画像300を後日見返した時に、人物320の情報を確認することができる。
ある局面において、電子機器100は、ユーザが入力した情報を用いて、被写体を分類可能なように構成されてもよい。たとえば、電子機器100は、ユーザが入力した名前および日付情報により被写体を分類する。
図4(A)は、ユーザが画像300に写っている寺340にタッチした様子を表す図である。また、図4(B)は、寺340に関する情報を検索するための検索画面430を表す図である。
図4(A)を参照して、ユーザが寺340にタッチすると、被写体識別部250は、部分画像410に写っている被写体の種別を識別する。
被写体識別部250は、当該被写体の種別が「人工物」であると判定した場合に、表示制御部280は、表示情報241を参照して、検索画面430を表示する。ユーザは、検索画面430上のキーワード入力部440に検索キーワードを入力する。ユーザが検索を実行すると、表示制御部280は、検索結果と、種別「人工物」と、画像300内の部分画像310の範囲とを被写体情報242に格納する。
当該範囲が被写体情報242に格納された後に、ユーザが画像300上の寺340にタッチすると、被写体情報242に格納された検索結果がモニタ210に再度表示される。これにより、ユーザは、画像300を後日見返した時に、寺340について調べたことを確認することができる。
他の局面において、表示制御部280は、検索画面430を表示するときに、初期検索キーワードを挿入する。たとえば、被写体識別部250が、寺340の名前「東大寺」を識別する。表示制御部280は、キーワード入力部440に「東大寺」を設定する。当該名前の識別方法は、図7において詳細に説明する。
図5(A)は、ユーザが画像300に写っている山330にタッチした様子を表す図である。また、図5(B)は、山330の位置を表示する地図画面530を表す図である。
図5(A)を参照して、ユーザが山330にタッチすると、被写体識別部250は、部分画像510に写っている被写体の種別を識別する。
被写体識別部250は、当該被写体の種別が「自然物」であると判定した場合に、表示制御部280は、表示情報241を参照して、山の位置540を地図画面530上に表示する。他の局面において、表示制御部280は、現在地を地図画面530上に表示する。
また、表示制御部280は、種別「自然物」と、画像300内の部分画像510の範囲とを被写体情報242に格納する。
当該範囲が被写体情報242に格納された後に、ユーザが画像300上の山330にタッチすると、被写体情報242に格納された山の位置540が地図画面530に再度表示される。これにより、ユーザが、画像300を後日見返した時に、山330の位置を確認することができる。
<データ構造>
図6を参照して、表示情報241のデータ構造について説明する。図6は、記憶部240に格納されている表示情報241を表す図である。
表示情報241は、種別610と、表示画面620とを規定する。種別「人物」は、表示画面「入力画面」に関連付けられている。種別「人工物」は、表示画面「検索画面」に関連付けられている。種別「自然物」は、表示画面「地図画面」に関連付けられている。ある局面において、種別「人工物」は、「寺」および「神社」等であってもよい。種別「自然物」は、「山」および「川」等であってもよい。
種別610と表示画面620との関連付けは、ユーザにより設定できる。たとえば、種別「人物」は、表示画面「検索画面」に関連付けてもよい。
人物識別部251が部分画像に含まれる被写体を「人物」と判定すると、表示制御部280は、表示情報241を参照して、種別「人物」に関連付けられている表示画面(文字入力画面350)をモニタ210に表示する。
また、人工物識別部253が部分画像写っている被写体が「人工物」であると判定すると、表示制御部280は、表示情報241を参照して、種別「人工物」に関連付けられている表示画面(検索画面430)をモニタ210に表示する。
さらに、CPU20が部分画像写っている被写体が「自然物」であると判定すると、表示制御部280は、表示情報241を参照して、種別「自然物」に関連付けられている表示画面(地図画面530)をモニタ210に表示する。
図7を参照して、位置情報245のデータ構造について説明する。図7は、記憶部240に格納されている位置情報245の一例を表す図である。
位置情報245は、名前710と、種別720と、位置730とを規定している。名前「富士山」は、種別「自然物」と、位置(北緯35.2、東経138.4)とに関連付けられている。名前「東大寺」は、種別「人工物」と、位置(北緯34.7、東経135.8)とに関連付けられている。名前「伊勢神宮」は、種別「人工物」と、位置(北緯34.2、東経136.4)とに関連付けられている。ある局面において、種別「人工物」は、「寺」および「神社」等であってもよい。種別「自然物」は、「山」および「川」等であってもよい。位置730は、座標値として定義されてもよい。
人工物識別部253は、位置情報245と、現在位置情報と、方向情報とに基づいて、部分画像に写っている被写体が人工物であるか否かを判定する。
たとえば、現在位置情報が(北緯34.6、東経135.8)であり、方向情報が「北」である場合、人工物識別部253は、検索条件(北緯34.6〜34.8、東経135.8)に合致するデータを位置730から検索する。人工物識別部253は、位置730を参照して、検索条件に合致する行750を取得し、部分画像に写っている被写体を「人工物」と判定する。人工物識別部253は、部分画像に写っている被写体の名前を「東大寺」と判定する。
検索条件は方向情報を考慮して決定される。たとえば、方向情報が「北」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度+定数、現在経度)とする。方向情報が「南」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度−定数、現在経度)とする。方向情報が「北東」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度+定数、現在経度〜現在経度+定数)とする。
また、人工物識別部253は、部分画像の画像情報をさらに用いて、被写体が「人工物」であるか否かを判定する。たとえば、人工物識別部253は、部分画像の特徴量に基づいて直線検出を行い、直線の数等に基づいて被写体が「人工物」であるか否かを判定する。寺、神社、ビル等の「人工物」が写っている画像は、通常直線を多く含むためである。これにより、人工物識別部253は、被写体が「人工物」であるか否かをより確実に判定することが可能になる。
他の局面において、人工物識別部253は、予め登録されている寺等の画像と部分画像とをテンプレートマッチングすることにより、被写体が「人工物」であるか否かを判定してもよい。
自然物識別部255は、位置情報245を参照して、部分画像に写っている被写体が自然物であるか否かを判定する。自然物識別部255は、位置情報取得部260から現在位置情報と、方向情報とを取得する。
たとえば、現在位置情報が(北緯35.3、東経138.4)であり、方向情報が「南」である場合、自然物識別部255は、検索条件(北緯35.1〜35.3、東経138.4)に合致するデータを位置730から検索する。自然物識別部255は、位置730を参照して、検索条件に合致する行740を取得し、部分画像に写っている被写体が「自然物」であると判定する。
また、自然物識別部255は、部分画像の画像情報をさらに用いて、被写体が自然物であるか否かを判定する。たとえば、自然物識別部255は、部分画像から色情報を取得し、部分画像内の全画素に占める緑色の画素の割合等に基づいて、被写体が自然物であるか否かを判定する。
<制御構造>
図8を参照して、電子機器100の制御構造について説明する。図8は、ある局面における、電子機器100が実行する処理の一部を表わすフローチャートである。図8の処理は、CPU20がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。
ステップS801において、タッチパネル220は、モニタ210における接触部分を検出する。
ステップS803において、CPU20は、表示制御部280として、当該接触部分が被写体情報242に存在するか否かを判断する。CPU20は、当該接触部分が被写体情報242に存在すると判断すると(ステップS803においてYES)、制御をステップS805に切り替える。そうでない場合には(ステップS803においてNO)、CPU20は、制御をステップS810に切り替える。
ステップS805において、CPU20は、被写体情報242を参照して、被写体に付加されている情報を表示する。
ステップS810において、CPU20は、人物識別部251として、被写体の種別が「人物」であるか否かを判断する。CPU20は、被写体の種別が「人物」であると判断すると(ステップS810においてYES)、制御をステップS811に切り替える。そうでない場合には(ステップS810においてNO)、CPU20は、制御をステップS820に切り替える。
ステップS811において、CPU20は、表示制御部280として、表示情報241を参照し、種別「人物」に関連付けられた表示画面をモニタ210に表示する。
ステップS820において、CPU20は、人工物識別部253として、被写体の種別が「人工物」であるか否かを判断する。CPU20は、被写体の種別が「人工物」であると判断すると(ステップS820においてYES)、制御をステップS821に切り替える。そうでない場合には(ステップS820においてNO)、CPU20は、制御をステップS830に切り替える。
ステップS821において、CPU20は、表示制御部280として、表示情報241を参照し、種別「人工物」に関連付けられた表示画面をモニタ210に表示する。
ステップS830において、CPU20は、自然物識別部255として、被写体の種別が「自然物」であるか否かを判断する。CPU20は、被写体の種別が「自然物」であると判断すると(ステップS830においてYES)、制御をステップS831に切り替える。そうでない場合には(ステップS830においてNO)、CPU20は、処理を終了する。
ステップS831において、CPU20は、表示制御部280として、表示情報241を参照し、種別「自然物」に関連付けられた表示画面をモニタ210に表示する。
なお、各処理ステップの順序は、図示されたものに限定されない。たとえば、ステップS810,820,830は、ステップS801の前に行われてもよい。
[第2の実施の形態]
<動作態様>
以下、第2の実施の形態について説明する。本実施の形態に係る電子機器は、ユーザが被写体の種別をコンボボックスその他の一覧表から選択するという点で第1の実施の形態とは異なる。本実施の形態に係る電子機器のハードウェア構成は、第1の実施の形態に係る電子機器と同様である。したがって、ハードウェア構成の説明は、繰り返さない。
図9を参照して、本実施の形態の電子機器100の動作の一態様について説明する。図9は、モニタ210に一覧表の一例であるコンボボックス901が表示されている様子を表す図である。
本実施の形態の電子機器100は、ユーザがタッチパネルにタッチすると、被写体の種別の選択を受け付ける選択画面を表示する。より具体的には、ユーザが寺340にタッチすると、表示制御部280は、コンボボックス901をモニタ210に表示する。たとえば、表示制御部280は、コンボボックス901に種別「人物」、「人工物」および「自然物」を表示する。コンボボックス901に表示される種別は、「寺」、「神社」、「山」、「川」等であってもよい。ある局面において、電子機器100は、ユーザが当該種別を追加および削除できるように構成されてもよい。
他の局面において、表示制御部280は、コンボボックス901に表示される種別の順番に優先順位を付ける。たとえば、被写体識別部250は、人物および寺等の物体が写った複数の画像の特徴量を抽出し、特徴量を物体毎にクラスタリングしたクラス辞書を作成する。その後、被写体識別部250は、当該クラス辞書を参照して、部分画像410に写っている被写体と各クラスとの距離を算出する。たとえば、当該距離は、マハラノビス距離である。表示制御部280は、当該距離に基づいて、コンボボックス901に表示する種別の順番を決定する。
以上のようにして、第2の実施の形態における電子機器100は、ユーザが種別を選択するため、あらゆる種別の被写体に情報を付加することができる。これにより、後日画像を見返した時に撮影時の状況をより詳細に思い起こすことができる。
また、コンボボックス901に表示さされる種別の順番に優先順位を付けることにより、ユーザは容易に種別を選択することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
100 電子機器、 20 CPU、23 アンテナ、24 通信装置、25 ユーザインターフェイス、26 カメラ、27 フラッシュメモリ、28 RAM、29 ROM、30 メモリカード駆動装置、31 メモリカード、32 マイク、33 スピーカ、34 音声信号処理回路、35 ディスプレイ、36 LED、37 データ通信I/F、38 バイブレータ、39 GPSコントローラ、40 方位センサ、210 モニタ、220 タッチパネル、240 記憶部、241 表示情報、242 被写体情報、243 テンプレート、245 位置情報、250 被写体識別部、251 人物識別部、253 人工物識別部、255 自然物識別部、260 位置情報取得部、270 方向情報取得部、280 表示制御部、300 画像、310 部分画像、320 人物、330 山、340 寺、350 文字入力画面、360 文字入力部、410 部分画像、430 検索画面、440 キーワード入力部、510 部分画像、530 地図画面、540 山の位置、610 種別、620 表示画面、710 名前、720 種別、730 位置(経度、緯度)、901 コンボボックス。

Claims (5)

  1. 電子機器であって、
    カメラと、
    前記カメラからの画像を表示するためのモニタと、
    前記モニタにおける接触部分を検出するためのタッチパネルと、
    前記画像内の前記接触部分を含む部分画像に写っている被写体の種別を識別するための被写体識別手段と、
    前記被写体識別手段により識別された種別に関連付けられた画面を前記モニタに表示するための表示制御手段とを備え、前記画面は、前記被写体に関する情報の入力を受け付けるための入力画面を含み、
    前記画像内の前記部分画像の範囲、前記被写体識別手段により識別された種別、および前記入力画面に入力された入力情報を関連付けて格納するための記憶部と、
    前記モニタにおける接触部分が前記範囲に含まれる場合に、前記入力情報を表示するための入力情報表示手段とを備える、電子機器。
  2. 前記画面は、前記被写体に関する情報を検索するための検索画面を含み、
    前記記憶部は、前記画像中の前記部分画像の範囲、前記被写体識別手段により識別された種別、および前記検索の結果を関連付けてさらに格納するように構成されており、
    前記電子機器は、前記モニタにおける接触部分が前記範囲に含まれる場合に、前記検索の結果を表示するための検索結果表示手段をさらに備える、請求項1に記載の電子機器。
  3. 前記電子機器の現在の位置を示す現在位置情報を取得する位置取得部と、
    前記カメラが向いている方向を示す方向情報を取得するための方向取得部とをさらに備え、
    前記記憶部は、人工物の地図上の位置情報を示す人工物位置情報さらに格納するように構成されており、
    前記被写体識別手段は、前記現在位置情報と、前記方向情報と、前記人工物位置情報とに基づいて、前記被写体の種別が人工物であるか否かを判定するための人工物識別手段を含む、請求項1または2に記載の電子機器。
  4. 前記記憶部は、自然物の地図上の位置情報を示す自然物位置情報をさらに格納するように構成されており、
    前記被写体識別手段は、前記現在位置情報と、前記方向情報と、前記自然物位置情報とに基づいて、前記被写体の種別が自然物であるか否かを判定するための自然物識別手段を含む、請求項3に記載の電子機器。
  5. カメラと、前記カメラからの画像を表示するためのモニタと、前記モニタにおける接触部分を検出するためのタッチパネルとを備える電子機器を制御するための方法であって、
    前記画像内の前記接触部分を含む部分画像に写っている被写体の種別を識別するステップと、
    前記識別するステップにより識別された種別に関連付けられた画面を前記モニタに表示するステップとを備え、前記表示するステップは、前記被写体に関する情報の入力を受け付けるための入力画面を表示するためのステップを含み、
    前記画像内の前記部分画像の範囲、前記識別するステップにより識別された種別、および前記入力画面に入力された入力情報を関連付けて格納するステップと、
    前記モニタにおける接触部分が前記範囲に含まれる場合に、前記入力情報を表示するステップとをさらに備える、電子機器を制御するための方法。
JP2013051685A 2013-03-14 2013-03-14 電子機器、および電子機器を制御するための方法 Expired - Fee Related JP5977697B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013051685A JP5977697B2 (ja) 2013-03-14 2013-03-14 電子機器、および電子機器を制御するための方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013051685A JP5977697B2 (ja) 2013-03-14 2013-03-14 電子機器、および電子機器を制御するための方法

Publications (2)

Publication Number Publication Date
JP2014179743A JP2014179743A (ja) 2014-09-25
JP5977697B2 true JP5977697B2 (ja) 2016-08-24

Family

ID=51699281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013051685A Expired - Fee Related JP5977697B2 (ja) 2013-03-14 2013-03-14 電子機器、および電子機器を制御するための方法

Country Status (1)

Country Link
JP (1) JP5977697B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10996771B2 (en) 2017-10-13 2021-05-04 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3035391B2 (ja) * 1991-09-27 2000-04-24 京セラ株式会社 電子スチルカメラ
JP3124600B2 (ja) * 1991-12-20 2001-01-15 京セラ株式会社 電子スチルカメラ
JP5120777B2 (ja) * 2008-04-11 2013-01-16 カシオ計算機株式会社 電子データ編集装置、電子データ編集方法及びプログラム
JP5515965B2 (ja) * 2010-03-30 2014-06-11 日本電気株式会社 カメラ付き携帯端末、カメラ付携帯端末の制御方法及びその制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10996771B2 (en) 2017-10-13 2021-05-04 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Also Published As

Publication number Publication date
JP2014179743A (ja) 2014-09-25

Similar Documents

Publication Publication Date Title
CN109890067B (zh) 对特定路线上的特定位置进行识别的方法及电子设备
US10971188B2 (en) Apparatus and method for editing content
US8713113B2 (en) Communication terminal device, and recording medium
JP5763075B2 (ja) オブジェクト情報の提供方法及びそれを適用した撮影装置
JP6614335B2 (ja) 画像表示システム、端末、方法およびプログラム
CN110377195B (zh) 展示交互功能的方法和装置
EP2809062B1 (en) Image processor, image processing method and program, and recording medium
US20090175551A1 (en) Intelligent image enhancement
KR102664701B1 (ko) 이미지와 관련된 콘텐트를 어플리케이션에 제공하는 전자 장치 및 방법
CN111950255A (zh) 诗词生成方法、装置、设备及存储介质
JP2015233204A (ja) 画像記録装置及び画像記録方法
CN114020387A (zh) 终端的截屏方法及装置、存储介质和电子设备
KR20170098113A (ko) 전자 장치의 이미지 그룹 생성 방법 및 그 전자 장치
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
JP5977697B2 (ja) 電子機器、および電子機器を制御するための方法
KR100956114B1 (ko) 촬상장치를 이용한 지역 정보 제공 장치 및 방법
US20220188348A1 (en) Content management device, content management system, and control method
CN108366338A (zh) 用于查找电子设备的方法和装置
JP6077930B2 (ja) 情報管理装置、情報管理システム、通信端末および情報管理方法
CN112989092A (zh) 一种图像处理方法及相关装置
US9807309B2 (en) Image display device and method, image generation device and method, and program for conditionally displaying image information
JP7400641B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
EP4131057A1 (en) Information processing device and information processing method
WO2021190350A1 (zh) 一种图像显示方法和电子设备
KR101980380B1 (ko) Gps에 기반한 영상 표시 단말기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R150 Certificate of patent or registration of utility model

Ref document number: 5977697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees