JP4123841B2 - Service providing system, information processing apparatus and method, recording medium, and program - Google Patents

Service providing system, information processing apparatus and method, recording medium, and program Download PDF

Info

Publication number
JP4123841B2
JP4123841B2 JP2002182332A JP2002182332A JP4123841B2 JP 4123841 B2 JP4123841 B2 JP 4123841B2 JP 2002182332 A JP2002182332 A JP 2002182332A JP 2002182332 A JP2002182332 A JP 2002182332A JP 4123841 B2 JP4123841 B2 JP 4123841B2
Authority
JP
Japan
Prior art keywords
image
date
information
added
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002182332A
Other languages
Japanese (ja)
Other versions
JP2004032129A (en
Inventor
真哉 福田
昌行 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002182332A priority Critical patent/JP4123841B2/en
Publication of JP2004032129A publication Critical patent/JP2004032129A/en
Application granted granted Critical
Publication of JP4123841B2 publication Critical patent/JP4123841B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、サービス提供システム、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、簡単な操作で、撮影画像をWebページに公開することができるようにしたサービス提供システム、情報処理装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
従来、例えばデジタルスチルカメラ等で撮影した撮影画像を、Webページに公開することが可能である。
【0003】
【発明が解決しようとする課題】
しかしながら、従来、撮影画像を含むWebページをネットワーク上に公開することは、大変に手間がかかり、高度な技術と知識が必要であるという課題があった。
【0004】
すなわち、撮影画像を含むWebページをネットワーク上に公開するためには、まず、デジタルスチルカメラ等のデジタル画像記録装置からパーソナルコンピュータへ撮影画像を取り込む。次に、撮影画像の画像ファイルとのリンクを考慮に入れてHTML(Hyper Text Markup Language)でファイルを作成する。次に、Webサーバに画像ファイルとHTMLファイルをアップロードする。以上のような作業を経て、初めて、撮影画像を含むWebページをネットワーク上に公開することができる。
【0005】
上記したような処理を行うためには、複雑な操作を必要とする。従って、Webページに、撮影した画像を公開することは、パーソナルコンピュータの操作に慣れていないユーザには困難であるという課題があった。また、パーソナルコンピュータ等の、HTMLファイル作成用の装置を必要としたため、パーソナルコンピュータがない場合、デジタルスチルカメラ等で撮影した画像を、撮影後すぐにWebページに公開することができなかった。
【0006】
ところで、撮影画像と日記(文章)を記したWebページを公開するユーザが、近年、多く存在する。撮影画像と日記(文章)を記したWebページを公開する場合、撮影画像の撮影時間情報や撮影場所情報があれば、それらの情報を撮影画像と共にWebページに公表することが可能である。撮影時間情報や撮影場所情報を撮影画像と共に公表することにより、Webページを閲覧する人は、撮影画像がいつどこで撮影されたものなのかを知ることができる。また、撮影した日に、どのようなニュースがあったのか、天気はどうだったかなどの情報がWebページに公開されていれば、そのWebページを閲覧した人は、画像が撮影された日のニュースや天気を知ることができる。
【0007】
しかしながら、撮影時間、撮影場所、撮影日の天気、および撮影日のニュース等の情報を、ユーザが、自ら入力するのは手間がかかる。また、過去の撮影画像については、覚えている範囲でしか、上記した情報を入力することができない。これらの情報を自動的に盛り込み簡単にWebページを作成するサービスは存在しない。
【0008】
また、撮影画像を添付して電子メールを送信すると、電子メールの文章に、撮影画像および撮影場所の位置を示す地図を自動的に添付して、送信相手に送信するサービスがある。しかし、この場合、時間情報として電子メールの送信時間を利用しているため、電子メールを受信し、それを見た相手は、撮影画像の撮影時間を知ることができない。
【0009】
本発明はこのような状況に鑑みてなされたものであり、簡単な操作で、撮影画像をWebページに公開することができるようにすることを目的とする。
【0010】
【課題を解決するための手段】
本発明の第1のサービス提供システムは、撮影装置は、被写体を撮影して撮影画像を作成する第1の作成手段と、被写体が撮影された撮影場所を示す位置情報を取得する第1の取得手段と、被写体が撮影された日時を示す時間情報を取得する第2の取得手段と、第1の作成手段により作成された撮影画像に、第1の取得手段により取得された位置情報、および第2の取得手段により取得された時間情報を付加して記憶する第1の記憶手段と、第1の記憶手段により位置情報と時間情報が付加されて記憶された撮影画像を、情報処理装置に送信する送信手段とを備え、情報処理装置は、地図画像を記憶する第2の記憶手段と、撮影装置より、撮影画像を受信する受信手段と、受信手段により受信された撮影画像に付加された位置情報に基づいて、第2の記憶手段により記憶されている地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第2の作成手段と、受信手段により受信された撮影画像、および第2の作成手段により作成されたマーカ付き地図画像を、撮影画像に付加された時間情報に基づいて、時間毎に分類して記憶する第3の記憶手段と、予め設定された所定の Web サイトより、所定の情報を取得する第3の取得手段と、第3の取得手段により取得された所定の情報を、時間と対応付けて記憶する第4の記憶手段と、受信手段により受信された撮影画像に付加された時間情報に基づいて、第4の記憶手段により記憶された所定の情報から、撮影画像の撮影された時間と対応付けられた所定の情報を読み出す読み出し手段と、第3の記憶手段により時間毎に分類して記憶された撮影画像、マーカ付き地図画像、および読み出し手段により読み出された所定の情報を含む時間毎のWebページを作成する第3の作成手段と、第3の作成手段により作成されたWebページをネットワーク上に公開する公開手段とを備えることを特徴とする。
【0017】
本発明の第1の情報処理装置は、地図画像を記憶する第1の記憶手段と、撮影装置より、撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像を受信する第1の受信手段と、第1の受信手段により受信された、撮影画像に付加された位置情報に基づいて、第1の記憶手段により記憶されている地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成手段と、第1の受信手段により受信された撮影画像、および第1の作成手段により作成されたマーカ付き地図画像を、撮影画像に付加された時間情報に基づいて、時間毎に分類して記憶する第2の記憶手段と、予め設定された所定の Web サイトより、所定の情報を取得する取得手段と、取得手段により取得された所定の情報を、時間と対応付けて記憶する第3の記憶手段と、第1の受信手段により受信された撮影画像に付加された時間情報に基づいて、第3の記憶手段により記憶された所定の情報から、撮影画像の撮影された時間と対応付けられた前記所定の情報を読み出す読み出し手段と、第2の記憶手段により日付毎に分類して記憶された撮影画像、マーカ付き地図画像、および読み出し手段により読み出された所定の情報を含む時間毎のWebページを作成する第2の作成手段と、第2の作成手段により作成されたWebページをネットワーク上に公開する公開手段とを備えることを特徴とする。
【0019】
前記所定の情報は、天気に関する情報、ニュースに関する情報、および音楽に関する情報のうち、少なくとも1つ以上の情報を含むようにすることができる。
前記第2の記憶手段には、前記マーカ付き地図画像、および前記撮影画像を日付毎に分類して記憶させ、前記第3の記憶手段には、前記所定の情報を日付と対応付けて記憶させ、前記第2の作成手段には、日付毎の Web ページを作成させることができる。
【0021】
他の情報処理装置より、前記第2の記憶手段により前記撮影画像が分類されている前記日付のリストの要求を受信する第2の受信手段と、第2の受信手段により要求が受信された場合、前記撮影画像が分類されている前記日付のリストを作成する第3の作成手段と、第3の作成手段により作成された前記日付のリストを他の情報処理装置に送信する送信手段と、他の情報処理装置より、前記日付のリストの中から選択された前記日付の前記Webページの閲覧要求を受信する第3の受信手段とをさらに設けるようにし、前記公開手段には、第3の受信手段により閲覧要求が受信された前記日付の前記Webページを、他の情報処理装置に公開するようにさせることができる。
【0022】
前記第1の記憶手段には、複数に分解した前記地図画像を記憶するようにさせ、前記第1の作成手段には、前記第1の受信手段により受信された前記撮影画像に付加された前記位置情報に基づいて、前記第1の記憶手段により記憶された複数の前記地図画像の中から、前記撮影場所が含まれている前記地図画像を選択して、その前記地図画像上の、前記撮影画像の前記撮影場所に前記マーカを付けて、前記マーカ付き地図画像を作成するようにさせることができる。
【0023】
本発明の第1の情報処理方法は、地図画像を記憶する第1の記憶ステップと、撮影装置より、撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像を受信する受信ステップと、受信ステップの処理により受信された、撮影画像に付加された位置情報に基づいて、第1の記憶ステップの処理により記憶されている地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、受信ステップの処理により受信された撮影画像、および第1の作成ステップの処理により作成されたマーカ付き地図画像を、撮影画像に付加された時間情報に基づいて、時間毎に分類して記憶する第2の記憶ステップと、予め設定された所定の Web サイトより、所定の情報を取得する取得ステップと、取得ステップの処理により取得された所定の情報を、時間と対応付けて記憶する第3の記憶ステップと、受信ステップの処理により受信された撮影画像に付加された時間情報に基づいて、第3の記憶ステップの処理により記憶された所定の情報から、撮影画像の撮影された時間と対応付けられた所定の情報を読み出す読み出しステップと、第2の記憶ステップの処理により時間毎に分類して記憶された撮影画像、マーカ付き地図画像、および読み出しステップの処理により読み出された所定の情報を含む時間毎のWebページを作成する第2の作成ステップと、第2の作成ステップの処理により作成されたWebページをネットワーク上に公開する公開ステップとを含むことを特徴とする。
【0024】
本発明の第1の記録媒体のプログラムは、地図画像の記憶を制御する第1の記憶制御ステップと、撮影装置からの、撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像の受信を制御する受信制御ステップと、受信制御ステップの処理により受信が制御された、撮影画像に付加された位置情報に基づいて、第1の記憶制御ステップの処理により記憶が制御されている地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、受信制御ステップの処理により受信が制御された撮影画像、および第1の作成ステップの処理により作成されたマーカ付き地図画像の、撮影画像に付加された時間情報に基づいた、時間毎に分類した記憶を制御する第2の記憶制御ステップと、予め設定された所定の Web サイトより、所定の情報を取得する取得ステップと、取得ステップの処理により取得された所定の情報の、時間と対応付けた記憶を制御する第3の記憶制御ステップと、受信制御ステップの処理により受信が制御された撮影画像に付加された時間情報に基づいて、第3の記憶制御ステップの処理により記憶された所定の情報から、撮影画像の撮影された時間と対応付けられた所定の情報を読み出す読み出しステップと、第2の記憶制御ステップの処理により時間毎に分類して記憶された撮影画像、マーカ付き地図画像、および読み出しステップの処理により読み出された所定の情報を含む時間毎のWebページを作成する第2の作成ステップと、第2の作成ステップの処理により作成されたWebページをネットワーク上に公開する公開ステップとを含むことを特徴とする。
【0025】
本発明の第1のプログラムは、地図画像の記憶を制御する第1の記憶制御ステップと、撮影装置からの、撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像の受信を制御する受信制御ステップと、受信制御ステップの処理により受信が制御された、撮影画像に付加された位置情報に基づいて、第1の記憶制御ステップの処理により記憶が制御されている地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、受信制御ステップの処理により受信が制御された撮影画像、および第1の作成ステップの処理により作成されたマーカ付き地図画像の、撮影画像に付加された時間情報に基づいた、時間毎に分類した記憶を制御する第2の記憶制御ステップと、予め設定された所定のWebサイトより、所定の情報を取得する取得ステップと、取得ステップの処理により取得された所定の情報の、時間と対応付けた記憶を制御する第3の記憶制御ステップと、受信制御ステップの処理により受信された撮影画像に付加された時間情報に基づいて、第3の記憶制御ステップの処理により記憶された所定の情報から、撮影画像の撮影された時間と対応付けられた所定の情報を読み出す読み出しステップと、第2の記憶制御ステップの処理により時間毎に分類して記憶された撮影画像、マーカ付き地図画像、および読み出しステップの処理により読み出された所定の情報を含む時間毎のWebページを作成する第2の作成ステップと、第2の作成ステップの処理により作成されたWebページをネットワーク上に公開する公開ステップとをコンピュータに実行させることを特徴とする。
本発明の第2のサービス提供システムは、撮影装置は、被写体を撮影して撮影画像を作成する第1の作成手段と、被写体が撮影された撮影場所を示す位置情報を取得する第1の取得手段と、被写体が撮影された日時を示す第1の時間情報を取得する第2の取得手段と、第1の作成手段により作成された撮影画像に、第1の取得手段により取得された位置情報、および第2の取得手段により取得された第1の時間情報を付加して記憶する第1の記憶手段と、文章を入力する第1の入力手段と、文章に対応付ける日付を示す第2の時間情報を入力する第2の入力手段と、第1の入力手段により入力された文章に、第2の入力手段により入力された第2の時間情報を付加して記憶する第2の記憶手段と、第1の記憶手段により位置情報と第1の時間情報が付加されて記憶された撮影画像を、情報処理装置に送信する第1の送信手段と、第2の記憶手段により第2の時間情報が付加されて記憶された文章を、情報処理装置に送信する第2の送信手段とを備え、情報処理装置は、地図画像を記憶する第3の記憶手段と、撮影装置より、撮影画像を受信する第1の受信手段と、第1の受信手段により受信された撮影画像に付加された位置情報に基づいて、第3の記憶手段により記憶されている地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第2の作成手段と、撮影装置より、第2の時間情報が付加された文章を受信する第2の受信手段と、第1の受信手段により受信された撮影画像、および第2の作成手段により作成されたマーカ付き地図画像を、撮影画像に付加された第1の時間情報に基づいて、日付毎に分類して記憶するとともに、第2の受信手段により受信された文章を、第2の時間情報に基づいて、日付毎に分類して記憶する第4の記憶手段と、第4の記憶手段により日付毎に分類して記憶された撮影画像、マーカ付き地図画像、および文章を含む日付毎のWebページを作成する第3の作成手段と、第3の作成手段により作成されたWebページをネットワーク上に公開する公開手段とを備えることを特徴とする。
本発明の第2の情報処理装置は、地図画像を記憶する第1の記憶手段と、撮影装置より、撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す第1の時間情報が付加された撮影画像を受信する第1の受信手段と、第1の受信手段により受信された、撮影画像に付加された位置情報に基づいて、第1の記憶手段により記憶されている地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成手段と、撮影装置より、文章、および文章を対応付けるべき日付を示す第2の時間情報を受信する第2の受信手段と、第1の受信手段により受信された撮影画像、および第1の作成手段により作成されたマーカ付き地図画像を、撮影画像に付加された第1の時間情報に基づいて、日付毎に分類して記憶するとともに、第2の受信手段により受信された文章を、第2の時間情報に基づいて、日付毎に分類して記憶する第2の記憶手段と、第2の記憶手段により日付毎に分類して記憶された撮影画像、マーカ付き地図画像、および文章を含む日付毎のWebページを作成する第2の作成手段と、第2の作成手段により作成されたWebページをネットワーク上に公開する公開手段とを備えることを特徴とする。
前記第2の記憶手段には、前記第2の時間情報が予め定められた所定の情報である場合、前記文章を最新の日付に分類して記憶させることができる。
本発明の第2の情報処理方法は、地図画像を記憶する第1の記憶ステップと、撮影装置より、撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す第1の時間情報が付加された撮影画像を受信する第1の受信ステップと、受信された撮影画像に付加された位置情報に基づいて、地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、撮影装置より、文章、および文章を対応付けるべき日付を示す第2の時間情報を受信する第2の受信ステップと、受信された撮影画像、および作成されたマーカ付き地図画像を、撮影画像に付加された第1の時間情報に基づいて、日付毎に分類して記憶するとともに、受信された文章を、第2の時間情報に基づいて、日付毎に分類して記憶する第2の記憶ステップと、日付毎に分類して記憶された撮影画像、マーカ付き地図画像、および文章を含む日付毎のWebページを作成する第2の作成ステップと、作成されたWebページをネットワーク上に公開する公開ステップとを含むことを特徴とする。
本発明の第3の記録媒体のプログラム、または本発明の第3のプログラムは、地図画像の記憶を制御する第1の記憶制御ステップと、撮影装置より、撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す第1の時間情報が付加された撮影画像の受信を制御する第1の受信制御ステップと、受信された撮影画像に付加された位置情報に基づいて、地図画像上の、撮影画像の撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、撮影装置より、文章、および文章を対応付けるべき日付を示す第2の時間情報の受信を制御する第2の受信制御ステップと、受信された撮影画像、および作成されたマーカ付き地図画像を、撮影画像に付加された第1の時間情報に基づいて、日付毎に分類し、日付毎に分類された撮影画像およびマーカ付き地図画像の記憶を制御するとともに、受信された文章を、第2の時間情報に基づいて、日付毎に分類し、日付毎に分類された文章の記憶を制御する第2の記憶制御ステップと、日付毎に分類して記憶された撮影画像、マーカ付き地図画像、および文章を含む日付毎のWebページを作成する第2の作成ステップと、作成されたWebページをネットワーク上に公開する公開ステップとを含むことを特徴とする。
【0026】
本発明の第1のサービス提供システムにおいては、撮影装置では、被写体を撮影して撮影画像が作成され、被写体が撮影された撮影場所を示す位置情報が取得され、被写体が撮影された日時を示す時間情報が取得され、作成された撮影画像に、取得された位置情報および時間情報が付加されて記憶される。その後、位置情報と時間情報が付加されて記憶された撮影画像が、情報処理装置に送信される。また、情報処理装置では、予め地図画像が記憶されており、撮影装置より受信された撮影画像に付加された位置情報に基づいて、記憶されている地図画像上の、撮影画像の撮影場所にマーカが付けられて、マーカ付き地図画像が作成され、受信された撮影画像、および作成されたマーカ付き地図画像が、撮影画像に付加された時間情報に基づいて、時間毎に分類して記憶される。そして、予め設定された所定の Web サイトより、所定の情報が取得され、取得された所定の情報が、時間と対応付けて記憶され、受信された撮影画像に付加された時間情報に基づいて、所定の情報から、撮影画像の撮影された時間と対応付けられた所定の情報が読み出され、時間毎に分類して記憶された撮影画像、マーカ付き地図画像、および所定の情報を含む時間毎のWebページが作成され、ネットワーク上に公開される。
【0028】
本発明の第1の情報処理装置および方法、記録媒体、並びにプログラムにおいては、予め地図画像が記憶されている。そして、撮影装置より、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像が受信され、撮影画像に付加された位置情報に基づいて、予め記憶されている地図画像上の、撮影画像の撮影場所にマーカが付けられて、マーカ付き地図画像が作成され、受信された撮影画像、および作成されたマーカ付き地図画像が、撮影画像に付加された時間情報に基づいて、時間毎に分類して記憶される。そして、予め設定された所定のWebサイトより、所定の情報が取得され、取得された所定の情報が、時間と対応付けて記憶され、受信された撮影画像に付加された時間情報に基づいて、記憶された所定の情報から、撮影画像の撮影された時間と対応付けられた所定の情報が読み出され、時間毎に分類して記憶された撮影画像、マーカ付き地図画像、および読み出された所定の情報を含む時間毎のWebページが作成され、ネットワーク上に公開される。
本発明の第2のサービス提供システムにおいては、撮影装置では、被写体が撮影されて撮影画像が作成され、被写体が撮影された撮影場所を示す位置情報が取得され、被写体が撮影された日時を示す第1の時間情報が取得され、作成された前記撮影画像に、取得された位置情報、および第1の時間情報が付加されて記憶される。そして、文章が入力され、文章に対応付ける日付を示す第2の時間情報が入力され、入力された文章に、第2の時間情報が付加されて記憶され、位置情報と第1の時間情報が付加されて記憶された撮影画像が、情報処理装置に送信され、第2の時間情報が付加されて記憶された文章が、情報処理装置に送信される。また、情報処理装置では、地図画像が記憶され、撮影装置より、撮影画像が受信され、受信された撮影画像に付加された位置情報に基づいて、記憶されている地図画像上の、撮影画像の撮影場所にマーカを付けられて、マーカ付き地図画像が作成される。そして、撮影装置より、第2の時間情報が付加された文章が受信され、受信された撮影画像、およびマーカ付き地図画像が、撮影画像に付加された第1の時間情報に基づいて、日付毎に分類されて記憶されるとともに、受信された文章が、第2の時間情報に基づいて、日付毎に分類されて記憶される。さらに、日付毎に分類して記憶された撮影画像、マーカ付き地図画像、および文章を含む日付毎のWebページが作成され、作成されたWebページがネットワーク上に公開される。
本発明の第2の情報処理装置および方法、記録媒体、並びにプログラムにおいては、地図画像が記憶され、撮影装置より、撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す第1の時間情報が付加された撮影画像が受信され、受信された、撮影画像に付加された位置情報に基づいて、記憶されている地図画像上の、撮影画像の撮影場所にマーカが付けられて、マーカ付き地図画像が作成され、撮影装置より、文章、および文章を対応付けるべき日付を示す第2の時間情報が受信される。そして、受信された撮影画像、および作成されたマーカ付き地図画像が、撮影画像に付加された第1の時間情報に基づいて、日付毎に分類されて記憶されるとともに、受信された文章が、第2の時間情報に基づいて、日付毎に分類されて記憶され、日付毎に分類されて記憶された撮影画像、マーカ付き地図画像、および文章を含む日付毎のWebページが作成され、作成されたWebページがネットワーク上に公開される。
【0029】
【発明の実施の形態】
図1は、本発明を適用したサービス提供システムの構成例を表している。このサービス提供システムにおいては、インターネット10に対して、インターネットサービスプロバイダ(ISP)14、日記サービス提供サーバ15、Webサーバ16−1,16−2,16−3(以下、Webサーバ16−1,16−2,16−3のそれぞれを個々に区別する必要がない場合、まとめてWebサーバ16と称する)、並びに情報端末装置17が接続されている。
【0030】
また、インターネットサービスプロバイダ14は、公衆回線網13に接続されており、この公衆回線網13には、さらにブルートゥースアダプタ12も接続されている。ネットワークハンディカム(商標)11は、ブルートゥース(商標)による近距離無線通信により、ブルートゥースアダプタ12に接続し、そこから公衆回線網13を介して、インターネットサービスプロバイダ14に接続することが可能とされている。
【0031】
インターネットサービスプロバイダ14は、公衆回線網13との通信処理を行うアクセスポイント、ユーザの各種の情報を登録するカスタマデータベース、およびメールサーバを有している。メールサーバは、さらにPOPサーバとSMTP(Simple Mail Transfer Protocol)サーバを有している。POPサーバは、ネットワークハンディカム11との間でのメールの送受信の処理を主に管理する。SMTPサーバは、他のSMTPサーバとの間でのメールの送受信を主に管理する。
【0032】
日記サービス提供サーバ15は、ネットワークハンディカム11から送信されてきた画像データを、その画像が撮影された日付や場所に従って登録、管理する。
【0033】
Webサーバ16は、インターネット10上に、Webサイトを開設している。Webサーバ16は、例えば、HTTP(HyperText Transfer Protocol)とHTMLを利用した情報提供を行っている。図1の例においては、Webサーバ16−1は、天気情報(気象情報)を提供し、Webサーバ16−2は、日毎のニュース情報を提供し、Webサーバ16−3は、日本国内における音楽(CD(Compact Disc)の販売、ネットワークを介した曲の配信を含む)の売上順位に関する情報を提供している。
【0034】
情報端末装置17は、ネットワークハンディカム11の所有者であるユーザにより操作される装置である。情報端末装置17は、図1の例においては、汎用のパーソナルコンピュータである。なお、情報端末装置17は、汎用のパーソナルコンピュータの代わりに、携帯情報端末装置、携帯電話機、またはPHS(Personal Handy-phone System)を利用しても良い。また、インターネット10に接続可能な、上記以外の電子機器を利用しても良い。
【0035】
図2は、ネットワークハンディカム11の構成例を表している。このネットワークハンディカム11は、カメラ一体型ビデオテープレコーダであり、インターネット10に対するアクセス機能を有している。図2において、制御用マイコン31は、ネットワークハンディカム11全体の動作を、バス34を介して制御する。制御用マイコン31は、内蔵するプログラム、またはDRAM(Dynamic Random Access Memory)35にロードされたプログラムに従って各種の処理を実行する。制御用マイコン31は、ユーザにより操作入力部32から入力された指示に従って、対応する処理を実行する。
【0036】
制御用マイコン31はまた、シリアルインターフェース(シリアルI/F)71を介して、GPS(Global Positioning System)受信機33と接続されている。また、制御用マイコン31は、時計72を内蔵し、現在時刻を取得することができる。
【0037】
操作入力部32は、各種のボタン、スイッチなどにより構成され、ユーザからの操作の入力を受け付け、入力された操作に対応する操作情報を制御用マイコン31に出力する。
【0038】
GPS受信機33は、位置測定用人工衛星からの電波を受信し、ネットワークハンディカム11の現在位置(緯度・経度)を演算し、制御用マイコン31に出力する。GPS受信機33は、例えば、1秒間に1回、現在位置を演算する。
【0039】
DRAM35は、バス34を介して、画像処理回路36より供給された画像データを一時記憶し、所定のタイミングで、この画像データを画像処理回路36に供給する。DRAM35にはまた、制御用マイコン31が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0040】
画像処理回路36は、CCD37による画像の撮影、およびディスプレイ38への画像の表示を制御する。また、画像処理回路36は、画像圧縮/伸長部81により、画像データの圧縮および伸長を行う。
【0041】
メモリカードコントローラ39は、携帯可能な半導体メモリとしてのメモリカード40へのデータの書き込み、書き換え、消去、および読み出し等を行う。
【0042】
EEPROM(Electrically Erasable Programmable Read Only Memory)41には、電源オフ後も記憶する必要があるデータが記憶される。
【0043】
スピーカ42は、バス34を介して供給された音声データに応じた音声を出力する。例えば、スピーカ42は、記録再生部45により再生された動画に対応する音声を出力する。また、例えばスピーカ42は、ネットワークハンディカム11の動作状況に応じた音声を出力する。マイクロホン43は、音声信号を取り込む。
【0044】
通信部44は、ブルートゥースによりブルートゥースアダプタ12との間で近距離無線通信を行う。
【0045】
記録再生部45は、装着されたカセット磁気テープに、CCD37で撮像された映像データと、マイクロホン43により収音された音声データ等を記録する。また、記録再生部45は、カセット磁気テープに記録されている映像データと音声データを再生し、映像データを画像処理回路36に供給し、音声データをスピーカ42に供給する。画像処理回路36は、記録再生部45から供給された映像データに対応する画像をディスプレイ38に出力し、表示させ、スピーカ42は、音声データに対応する音声を出力する。
【0046】
記憶部46は、例えば、ドライブ48を介して磁気ディスク51、光ディスク52、光磁気ディスク53、或いは半導体メモリ54などから、コンピュータプログラムを取得し、記憶する。記憶されたコンピュータプログラムは、所定のタイミングで、DRAM35にロードされ、実行される。
【0047】
このバス34にはまた、入出力インターフェース(入出力I/F)47も接続されている。入出力インターフェース76には、必要に応じてドライブ48が接続され、磁気ディスク51、光ディスク52、光磁気ディスク53、或いは半導体メモリ54などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部46にインストールされる。
【0048】
図3は、日記サービス提供サーバ15の構成例を表している。図3において、CPU101は、ROM102に記憶されているプログラム、または記憶部109からRAM103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0049】
CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インターフェース105も接続されている。
【0050】
入出力インターフェース105には、キーボード、マウスなどよりなる操作部106、スピーカなどよりなる音声出力部107、CRT(Cathode-Ray Tube)、LCD(Liquid Crystal Display)などよりなるディスプレイ108、ハードディスクなどより構成される記憶部109、モデム、ターミナルアダプタなどより構成される通信部110が接続されている。通信部110は、インターネット10を含むネットワークを介しての通信処理を行う。
【0051】
入出力インターフェース105にはまた、必要に応じてドライブ111が接続され、磁気ディスク121、光ディスク122、光磁気ディスク123、或いは半導体メモリ124などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部109にインストールされる。
【0052】
Webサーバ16−1,16−2,16−3のハードウェア構成は、図示は省略するが、日記サービス提供サーバ15と基本的に同様とされる。
【0053】
図4は、日記サービス提供サーバ15の記憶部109に記憶されるデータの例を示している。図4に示されるように、記憶部109には、天気情報データベース131、ニュースデータベース132、JPOPデータベース133、地図データベース134、地名データベース135、および日記ファイル136が記憶されている。
【0054】
天気情報データベース131は、日時、天気、湿度、最高気温、最高気温平年値、最低気温、気圧、降水量、および風速を、この順番で、日付毎に記録したデータベースである。
【0055】
例えば、ある1日の天気情報が、
日時 2001年9月17日
天気 曇
湿度 60%
最高気温 27.8℃
最高気温平年値 26℃
最低気温 21.2℃
気圧 1005hPa
降水量 0ミリ
風速 3m/s
である場合、天気情報データベース131には、これらの情報がスペースで区切られて、日時、天気、湿度、最高気温、最高気温平年値、最低気温、気圧、降水量、風速の順番で、以下のように記録される。
【0056】
20010917 曇 26.9 60 27.8 26 21.2 1005 0 3
【0057】
天気情報データベース131には、過去の天気情報が、日付毎に、以上のような書式で記録されている。日記サービス提供サーバ15は、毎日、Webサーバ16−1から天気情報を取得し、これを天気情報データベース131に記録する。従って、天気情報データベース131は、毎日更新され、新しい日付の天気情報が追加される。結果的に、天気情報データベース131には、天気情報の記録開始日以降の、全ての日にち分の天気情報が記録される。
【0058】
図4のニュースデータベース132は、日毎のニュース情報を記録したデータベースである。ニュースデータベース132には、日時と、ニュース情報の本文が、カンマ(,)により区切られて記録されている。
【0059】
例えば、2001年9月20日のニュース情報が、「米大リーグのチームAは19日、4年ぶり3度目のAリーグ西地区優勝を決めた。この日2位で追っていたチームBがチームCに敗れたため、優勝が決まった。(12:49)」である場合、ニュースデータベース132には、日時と、ニュースの本文が、カンマ(,)により区切られて以下のように記録される。
【0060】
20010920,米大リーグのチームAは19日、4年ぶり3度目のAリーグ西地区優勝を決めた。この日2位で追っていたチームBがチームCに敗れたため、優勝が決まった。(12:49)
【0061】
ニュースデータベース132には、過去のニュース情報が、日付毎に、以上のような書式で記録されている。日記サービス提供サーバ15は、毎日、Webサーバ16−2からニュース情報を取得し、これをニュースデータベース132に記録する。従って、ニュースデータベース132は、毎日更新され、新しい日付のニュース情報が追加される。結果的に、ニュースデータベース132には、ニュース情報の記録開始日以降の、全ての日にち分のニュース情報が記録される。
【0062】
図4のJPOPデータベース133は、日毎の音楽の売上順位に関する情報(以下、売上情報とも称する)を記録したデータベースである。JPOPデータベース133には、日時、順位、曲名、および歌手名が、この順番で、カンマで区切られて記録されている。
【0063】
例えば、2001年9月17日の売上順位1位の曲名が「タイトルA」で歌手名が「歌手A」で、売上順位2位の曲名が「タイトルB」で歌手名が「歌手B」で、売上順位3位の曲名が「タイトルC」で歌手名が「歌手C」で、売上順位4位の曲名が「タイトルD」で歌手名が「歌手D」で、売上順位5位の曲名が「タイトルE」で歌手名が「歌手E」である場合、JPOPデータベース133には、これらの情報がカンマで区切られて、日時、順位、曲名、歌手名の順番で、以下のように記録される。
【0064】
20010917,1,タイトルA,歌手A
20010917,2,タイトルB,歌手B
20010917,3,タイトルC,歌手C
20010917,4,タイトルD,歌手D
20010917,5,タイトルE,歌手E
【0065】
JPOPデータベース133には、過去の売上情報が、日付毎に、以上のような書式で記録されている。日記サービス提供サーバ15は、毎日、Webサーバ16−3から売上情報を取得し、これをJPOPデータベース133に記録する。従って、JPOPデータベース133は、毎日更新され、新しい日付の売上順位が追加される。結果的に、JPOPデータベース133には、売上情報の記録開始日以降の、全ての日にち分の売上順位情報が記録される。
【0066】
図4の地図データベース134は、複数の地図画像ファイルと、これらの地図画像ファイルの情報を有する地図画像情報管理ファイルにより構成される。地図データベース134の詳細な説明は後述する。
【0067】
図4の地名データベース135は、地図上において目印となるランドマークの地図上の位置(緯度・経度)を、複数のランドマーク分だけ記録したデータベースである。地名データベース135には、北緯(秒換算)、東経(秒換算)、ランドマーク名、東経(度分秒)、および北緯(度分秒)が、この順番で、カンマで区切られて記録されている。
【0068】
例えば、あるランドマーク(例として「野球場A」をランドマークとする)の地図上の位置が、北緯35度42分10.0秒(秒換算では503118.0秒)、東経139度45分18.0秒(秒換算では128530.0秒)である場合、地名データベース135には、これらの情報がカンマで区切られて、北緯(秒換算)、東経(秒換算)、ランドマーク名、東経の度、東経の分、東経の秒、東経の小数点以下の秒、北緯の度、北緯の分、北緯の秒、北緯の小数点以下の秒の順番で、以下のように記録される。
【0069】
128530.0,503118.0,野球場A,139,45,18,0,35,42,10,0
【0070】
地名データベース135には、ランドマークの地図上の位置が以上のような書式で記録されている。また、ランドマークとなる建物に関するWebページが存在する場合、ランドマーク名がHTMLの<A>タグによりマークアップされて、地名データベース135に記録される。
【0071】
128234.7,503050.7,<A HREF="http://www.xxxxxxx.co.jp/index.html"target=" _new">ランドマークA<A/>,139,44,10,70,35,37,14,70
【0072】
図4の日記ファイル136は、後述するアップロード処理、または依頼状受信処理によって、受信した画像データ、日記用の文章などをユーザ毎に記録したデータベースである。
【0073】
図5は、情報端末装置17の構成例を表している。この情報処理装置17を構成するCPU151乃至半導体メモリ174は、図3の日記サービス提供サーバ15を構成するCPU101乃至半導体メモリ124と基本的に同様の構成とされ、対応する名称のものは、対応する機能を有する。従って、それらの説明は、繰り返しになるので省略する。
【0074】
ユーザが、ネットワークハンディカム11の操作入力部32を操作して、カメラモードを設定して撮影が行われると、CCD37で撮影された画像データは、記録再生部45により、カセット磁気テープに記録される。また、ユーザが操作入力部32を操作して、メモリモードを設定して、撮影を行うと、CCD37で撮影された画像が、画像処理回路36内の画像圧縮/伸長部81で圧縮され、メモリカードコントローラ39を介してメモリスティック40に記録される。
【0075】
次に、図6のフローチャートを参照して、ネットワークハンディカム11の静止画像撮影処理について説明する。なお、ネットワークハンディカム11は、操作入力部32からの操作の入力により、すでにメモリモードになっているものとする。また、ネットワークハンディカム11の操作入力部32の中には、静止画像の撮影を指示するためのボタン(シャッタボタン)が設けられており、ユーザは、このシャッタボタンを押下することにより、静止画像撮影の指示を入力することができる。
【0076】
図6のステップS31において、制御用マイコン31は、操作入力部32からの、操作の入力に基づいて、静止画像撮影の指示が入力されたか否かを判定し、静止画像撮影の指示が入力されるまで待機する。静止画像撮影の指示が入力された場合、処理はステップS32に進む。
【0077】
ステップS32において、制御用マイコン31は、画像処理回路36に静止画像の撮影を指示する。画像処理回路36は、CCD37により静止画像を撮影して画像データを生成し、この画像データを、DRAM35に供給する。DRAM35は、画像処理回路36より供給された画像データを記憶する。
【0078】
ステップS33において、制御マイコン31は、画像処理回路36が画像データを生成した瞬間の現在時刻を時計72より取得し、これを含む日付情報を生成し、DRAM35に供給し、記憶させる。
【0079】
ステップS33の処理の後、ステップS34において、制御用マイコン31は、シリアルインターフェース71を介して、GPS受信機33より、ネットワークハンディカム11の現在位置を示す位置情報を取得し、この位置情報をDRAM35に供給する。DRAM35は、制御用マイコン31より供給された位置情報を記憶する。なお、位置情報とは、ネットワークハンディカム11の現在位置の緯度、および経度の情報により構成される。
【0080】
ステップS34の処理の後、処理はステップS35に進み、制御用マイコン31は、画像処理回路36に、メモリカード40に記録させる画像ファイルの作成を指令する。画像処理回路36は、ステップS32でDRAM35に記憶された画像データを読み出す。ステップS36において、画像処理回路36は、ステップS35で読み出した画像データを、画像圧縮/伸長部81により圧縮して、画像ファイルを作成する。
【0081】
ステップS36の処理の後、ステップS37において、画像処理回路36は、ステップS34でDRAM35に記憶させた位置情報、およびステップS33でDRAM35に記憶させた日付情報を読み出す。ステップS38において、画像処理回路36は、ステップS36で圧縮された画像ファイルのヘッダに、ステップS36で読み出した位置情報および日付情報を記録する。
【0082】
ステップS39において、制御用マイコン31は、ステップS38で画像処理回路36により作成された、位置情報と日付情報がヘッダに記録された画像ファイルを画像処理回路36からメモリカードコントローラ39に供給させ、メモリカード40に記録させる。
【0083】
以上のようにして、ネットワークハンディカム11により静止画像が撮影され、撮影された静止画像は、位置情報を付加された画像ファイルとして、メモリカード40に記憶される。
【0084】
ネットワークハンディカム11により撮影され、メモリカード40に記録された画像ファイルは、インターネット10を介して日記サービス提供サーバ15に転送し、登録させることができる。次にこの処理について説明する。なお、この処理を行うためには、ネットワークハンディカム11のユーザは、ユーザ情報を予め登録し、IDとパスワードの割り当てを受けておき、EEPROM41に記憶させておく必要がある。IDとパスワードの割り当てを受けたユーザは、その同一のIDとパスワードを利用して、日記サービス提供サーバ15により提供されるサービスを利用することが可能とされる。
【0085】
次に、図7のフローチャートを参照して、ネットワークハンディカム11のアップロード処理について説明する。
【0086】
制御用マイコン31は、ユーザが操作入力部32を操作することで、画像ファイルのアップロードを指示したとき、ステップS51において、記憶部46に予め記憶されているアップロード用画面のデータを読み出し、これを画像処理回路36を介して、ディスプレイ38に出力し、表示させる。図8は、この場合の表示例を表している。この例においては、複数個あるアルバムの中から、所定のアルバムを選択するとき操作されるアルバムボタン201が表示されている。ネットワークハンディカム11は、画像を複数のアルバムに分類して、日記サービス提供サーバ15にアップロードさせることもでき、アルバムボタン201は、アルバムに分類して記録させる場合に、操作される。
【0087】
画像選択ボタン203は、アップロードする画像を選択するとき操作される。画像選択ボタン203の右側には、表示部204と表示部205が設けられている。表示部204には、それまでに選択された画像の枚数が表示される。その右側の表示部205には、表示部204に表示されている枚数の画像の合計のデータ量が、キロバイト単位で表示される。
【0088】
依頼状ボタン206は、画像をアップロードする際に、日記用の文章を画像と共に送信するとき操作される。
【0089】
送信ボタン207は、日記サービス提供サーバ15に、選択した画像(表示部204と205に表示されている枚数とデータ量の画像)を送信し、登録させるとき操作される。終了ボタン208は、アップロード処理を終了させるとき、操作される。
【0090】
画像選択ボタン203が操作された場合、ステップS53において、制御用マイコン31は、メモリカード40に記憶されている画像ファイルに記憶されている各画像(静止画)のサムネイル画像を生成し、これを画像処理回路36を介して、ディスプレイ38に出力し、表示させる。
【0091】
図9は、このような場合におけるサムネイル画像の表示例を表している。ユーザは、表示されているサムネイル画像のうちの所定のものをアップロードする画像として指定することができる。画像処理回路36は、所定のサムネイル画像が指定されたとき、そのサムネイル画像の左上にチェックマークを表示させる。図9の例においては、番号7,8,12の3つのサムネイル画像が、アップロードする画像として選択されていることになる。
【0092】
ボタン233は、表示するサムネイル画像を、より下位の番号のサムネイル画像にするとき操作される。逆に、ボタン234は、表示されるサムネイル画像を、より大きい番号のサムネイル画像にするとき操作される。
【0093】
全取消ボタン231は、この画面に表示されているチェックを全て取り消し、アップロード画面(図8)に移動するとき操作される。決定ボタン232は、表示されているサムネイル画像に対する選択を決定するとき操作される。
【0094】
ステップS53において、制御用マイコン31は、図9に示されるように、所定のサムネイル画像が選択された状態で決定ボタン232が操作されたとき、その選択されたサムネイル画像に対応する画像を指定する(特定する)指定情報を取得する。
【0095】
また、ステップS54において、制御用マイコン31は、依頼状の送信が指示されたか否かを判定する。図8に示される依頼状ボタン206が操作された場合には、ステップS54において、制御用マイコン31は、依頼状の送信が指示されたと判定し、ステップS55において、記憶部46に記憶されている依頼状画面のデータを読み出し、画像処理回路36を介して、ディスプレイ38に出力し、表示させる。これにより、例えば、図10に示されるような依頼状画面が表示される。この表示例においては、宛先ボタン251の右側に、入力表示部252が設けられている。
【0096】
ユーザが、宛先ボタン251をクリックすると、入力表示部252に、日記用の文章を記録する日記の日付が入力可能な状態となる。ユーザは、操作入力部32を操作して、この入力表示部252に、日記用の文章を記録する日記の日付を入力する。日付は、年、月、日が、この順番で、「.」で区切られて入力される。例えば、2001年8月21日の場合、入力表示部252には、「2001.08.21」が入力される。ただし、図7のアップロード処理においては、入力表示部252には、予め設定されたキーワード(図10の例においてはキーワードを「cam-chan」とする)が、予め入力済みの状態になっている。本実施の形態においては、予めキーワードを設定しておき、入力表示部252にそのキーワードが入力された場合、日記用の文章は1番新しい日付の日記に記録される。従って、図7のアップロード処理においては、入力表示部252に、予め設定されたキーワードが入力済みの状態になっているため、日記用の文章は、1番新しい日付の日記に記録される。
【0097】
ユーザが、本文ボタン253を操作すると、その右側の入力表示部254に、日記用の文章が入力可能な状態となる。ユーザは、操作入力部32を操作して、この入力表示部254に、日記用の文章を入力する。
【0098】
決定ボタン255は、依頼状の宛先と本文(日記用の文章)の入力が完了したとき、ユーザにより操作される。制御用マイコン31は、この決定ボタン255が操作されたとき、入力表示部252,254に入力されている宛先データと本文データを取得する。
【0099】
図8に示される依頼状ボタン206が操作されなかった場合には、ステップS54において、制御用マイコン31は、依頼状の送信が指示されなかったと判定し、ステップS55の処理はスキップする。
【0100】
以上のステップS51乃至ステップS55の処理は、オフラインで実行される。これにより、長い時間、ネットワークハンディカム11を、日記サービス提供サーバ15に、インターネット10を介して接続しておく必要がなくなる。
【0101】
図8に示される送信ボタン207が操作されると、制御用マイコン31は、ステップS56において、日記サービス提供サーバ15にアクセスする処理を実行する。すなわち、制御用マイコン31は、記憶部46に記憶されているネットワークアドレスを読み出し、通信部44を制御し、アクセスさせる。
【0102】
その結果、ブルートゥースアダプタ12、公衆回線網13、インターネットサービスプロバイダ14、インターネット10を介して、日記サービス提供サーバ15にアクセスが行われる。そして、制御用マイコン31は、EEPROM41に登録されているIDとパスワードを読み出し、日記サービス提供サーバ15に送信する。
【0103】
なお、より詳細には、日記サービス提供サーバ15に接続する前に、インターネット10に接続するために、インターネットサービスプロバイダ14に対してIDとパスワードが送信され、その正しい認証結果が得られた後、日記サービス提供サーバ15に対してIDとパスワードが送信される。
【0104】
このとき、制御用マイコン31は、記憶部46に予め記憶されている画像データを読み出し、画像処理回路36を介して、ディスプレイ38に出力し、表示させる。これにより、例えば、図11に示されるような「ダイアル中」のメッセージの画像が表示される。その後、さらに、例えば、図12に示されるような「ID、パスワード認証中」のメッセージが表示される。
【0105】
日記サービス提供サーバ15が、ネットワークハンディカム11から送信されてきたIDとパスワードを認証し、正規のユーザであることが認証されたとき、その認証結果が、インターネット10、インターネットサービスプロバイダ14、公衆回線網13、ブルートゥースアダプタ12を介して、ネットワークハンディカム11に送信されてくる。
【0106】
制御用マイコン31は、ステップS57において、日記サービス提供サーバ15から、認証OKの信号が送信されてきたか否かを判定し、送信されてきた場合(図16のステップS75で送信された認証OKの信号が受信されたと判定された場合)には、ステップS58に進み、制御用マイコン31は、アップロードする画像ファイルを、日記サービス提供サーバ15に送信する。ここで、送信される画像ファイルは、ステップS53の処理で指定された画像ファイル(図9の表示例でチェックがなされたサムネイル画像に対応する画像ファイル)である。また、ステップS54で依頼状の送信が指示され、ステップS55で、図10の入力表示部252,254に宛先データと本文データが入力された場合、制御用マイコン31は、ステップS58において、画像ファイルと共に、宛先データと本文データを含む依頼状も、日記サービス提供サーバ15に送信する。
【0107】
ステップS58において、制御用マイコン31は、画像ファイルを送信している最中に、画像処理回路36を介してディスプレイ38に、例えば、図13に示されるように「アップロード中」のメッセージを表示させる。そして、全ての画像データが送信され、アップロード完了が、日記サービス提供サーバ15から通知されてきたとき、制御用マイコン31は、画像処理回路36を介してディスプレイ38に、例えば、図14に示されるように「アップロード完了」のメッセージを表示させる。
【0108】
ステップS57において、日記サービス提供サーバ15から認証OKの信号が受信されなかったと判定された場合(図16のステップS81で送信された認証NGの信号が受信されたと判定された場合)、パスワードとIDが正しくなかったことになるので、この場合には、ステップS59に進み、制御用マイコン31は、エラー処理を実行する。すなわち、この場合には、ユーザは、画像ファイルを日記サービス提供サーバ15にアップロードすることができない。
【0109】
ステップS58、またはステップS59の処理の後、ステップS60に進み、制御用マイコン31は、通信部44を制御して、ネットワークを切断する処理を実行する。
【0110】
ステップS60において、ネットワークを切断したとき、制御用マイコン31は、画像処理回路36を介してディスプレイ38に、例えば、図15に示されるように「ネットワーク切断」のメッセージを表示させる。
【0111】
このように、ネットワークハンディカム11が、日記サービス提供サーバ15に実際に接続されるのは、画像ファイルを実際に送信しているときだけであるから、その接続時間を短くすることができる。その結果、ユーザのネットワーク使用に対する料金が、使用時間に対応しているような場合、その使用料を低減することができる。また、ネットワークのトラフィックをより軽減し、より多くのユーザが、効率的に画像データを転送することが可能となる。
【0112】
次に、以上のネットワークハンディカム11の処理に対応して実行される日記サービス提供サーバ15の処理について、図16のフローチャートを参照して説明する。
【0113】
ステップS71において、日記サービス提供サーバ15のCPU101は、ネットワークハンディカム11からアクセスを受けると、ステップS72において、ネットワークハンディカム11から送信されてきた認証データを受信する。この認証データは、IDとパスワードにより構成されている。
【0114】
CPU101は、通信部110を介して、この認証データを受信すると、記憶部109に記憶されているデータベースに基づいて、ステップS73において、この認証データを確認する。そして、CPU101は、その確認の結果に基づいて、ステップS74において認証がOKであったか否かを判定し、OKであった場合には、ステップS75に進み、認証OKの信号をネットワークハンディカム11に送信する。この認証OKが通知された場合には、上述したように、ネットワークハンディカム11において、図7のステップS58の処理が実行され、ネットワークハンディカム11から画像ファイルが送信されてくる。
【0115】
そこで、ステップS76において、CPU101は、通信部110を介して、この画像ファイルを受信すると、ステップS77において、受信した画像ファイルを、指定された日記に記録する。ここで、ステップS77の画像ファイル記録処理について、図17のフローチャートを参照して詳細に説明する。
【0116】
図17のステップS91において、日記サービス提供サーバ15のCPU101は、図16のステップS76で受信された画像ファイルのヘッダを解析し、日付情報を抽出する。画像ファイルは、図18に示されるようなヘッダを有している。
【0117】
図18には、デジタルスチルカメラ用画像ファイルフォーマット規格(Exif;Exchangeable image file format)を示している。図18において、左側の1番上に示されているSOI(Start of Image)271は、圧縮データの先頭を示すマーカコードである。APP1(Application Segment1)272は、Exifの付属情報である。APP1272の大きさは、JPEGの規格により64Kバイトを越えないものとされる。
【0118】
APP1272は、具体的には、図18の右側に示されているAPP1 Marker291乃至1st IFD 画像データ298により構成されている。APP1 Marker291は、アプリケーション領域であることを表すマーカである。APP1 Length292は、アプリケーション領域の大きさを表す。Exif識別コード293は、APP1272の内部がExifであることを表す識別コードである。0th IFD294は、圧縮されている画像(画像本体)に関する付属情報が記録される。0th IFD294にGPS IFDが含まれる。このGPS IFDは、GPS(Global Positioning System)情報を記載するためのもので、ここに撮影場所の位置情報の緯度、経度が記録されている。他に撮影日時を表す取得時間等も記録される。1th IFD296、1th IFD Value297、および1th IFD 画像データ298は、サムネイル画像の記録に関係する。
【0119】
図18の左側に戻って、DQT(Define Quantization Table)274は、量子化テーブルを定義するマーカコードである。DHT(Define Huffman Table)275は、ハフマンテーブルを定義するマーカコードである。DRI(Define Restart Interval)276は、リスタートマーカ挿入間隔を定義するマーカである。SOF(Start of Frame)277は、フレームセグメントの始まりに位置し、そのフレームに関する各種パラメータを示すマーカコードである。SOS(Start of Scan)278は、スキャンに関する各種パラメータを表すマーカコードである。圧縮データ279は、Y,Cb,Crが所定の比率でブロックインターリーブされ、ハフマン符号化されたバイトデータである。EOI(End of Image)280は、エントロピ符号化データの終了を表すマーカコードで、SOI271と対を成している。
【0120】
本発明においては、0th IFD294に記録されている撮影場所の位置情報(緯度・経度)、および撮影日時を示す日付情報が利用される。
【0121】
ステップS92において、CPU101は、ステップS91で読み出した日付情報より、画像が撮影された日付を読み出し、この日付をフォルダ名とした日付ディレクトリが、日記ファイル136の中に作成されているか否かを判定する。図19は、日記サービス提供サーバ15の記憶部109に記憶されている日記ファイル136の構成を表している。
【0122】
図19に示されるように、日記ファイル136は、ルートディレクトリ321を最上位とした階層ディレクトリ構造をしており、次の階層は、ユーザ毎に分類されたサブディレクトリ322,324により構成されている。この階層は、日記サービス提供サーバ15が提供するサービスに登録している複数のユーザのそれぞれに対応するサブディレクトリ(以下、この階層のサブディレクトリのことを、ユーザディレクトリとも称する)により構成されている。サブディレクトリ322には、さらに下位の階層に、日付毎に分類されたサブディレクトリ323−1乃至323−4が構成されている。同様に、サブディレクトリ324の下位の階層には、日付毎に分類されたサブディレクトリ325−1乃至325−3が構成されている。以下、この日付毎に分類されたディレクトリを、日付ディレクトリとも称する。
【0123】
これらのサブディレクトリ323−1乃至323−4、並びにサブディレクトリ325−1乃至325−3は、日付をフォルダ名としている。例えば、サブディレクトリ323−1は、フォルダ名が「2001.08.21」となっており、これは、2001年8月21日の日付を意味している。また、同様にサブディレクトリ323−2は、フォルダ名が「2001.08.22」となっており、これは、2001年8月22日の日付を意味している。その他のサブディレクトリ323−3およびサブディレクトリ323−4、並びにサブディレクトリ325−1乃至325−3も、同様である。サブディレクトリ323−1乃至323−4、並びにサブディレクトリ325−1乃至325−3のそれぞれには、フォルダ名に対応する日付に撮影された画像ファイルや日記用の文章が格納されている。
【0124】
そこで、ステップS92において、CPU101は、画像ファイルを送信してきたネットワークハンディカム11のユーザ(例えば、ユーザAとする)に対応するユーザディレクトリ(サブディレクトリ322)の下位の日付ディレクトリの中から、サブディレクトリ名を検索し、受信した画像ファイルの撮影日時と同じ日をフォルダ名とした日付ディレクトリが存在するか否かを判定する。その結果、受信した画像ファイルの撮影日時と同じ日をフォルダ名とした日付ディレクトリが存在しなかった場合、処理はステップS93に進む。
【0125】
ステップS93において、CPU101は、画像ファイルを送信してきたネットワークハンディカム11のユーザ(例えば、ユーザAとする)に対応するユーザディレクトリ(サブディレクトリ322)の下位に、受信した画像ファイルの撮影日をフォルダ名とする日付ディレクトリを作成する。その後、処理はステップS94に進む。
【0126】
ステップS92において、CPU101が受信した画像ファイルの撮影日時と同じ日をフォルダ名とした日付ディレクトリが存在すると判定した場合、ステップS93はスキップされ、処理はステップS94に進む。
【0127】
ステップS94において、CPU101は、図16のステップS76で受信された画像ファイルを、画像ファイルの撮影日に対応する日付ディレクトリに保存(記録)する。
【0128】
以上で、画像ファイル記録処理を終了する。
【0129】
図16に戻って、ステップS77の処理の後、ステップS78において、CPU101は、ステップS76で画像ファイルと共に、依頼状(宛先データと本文データ)が受信されているか否かを判定し、依頼状が受信されていた場合、ステップS79に進む。
【0130】
ステップS79において、CPU101は、日記の本文記録処理を実行する。ここで、図20のフローチャートを参照して、本文記録処理の詳細について説明する。
【0131】
図20のステップS101において、CPU101は、画像ファイルと共に受信された宛先データを解析し、宛先が日付であるか否かを判定し、宛先が日付であった場合、処理はステップS102に進み、CPU101は、宛先データの日付に対応する日付ディレクトリ下に、「honbun.txt」という名称のテキストファイルを作成し、そのテキストファイルに、本文データを貼り付けて記録する。
【0132】
ステップS101において、CPU101が、宛先は日付ではないと判定した場合、処理はステップS103に進み、CPU101は、宛先はキーワードであるか否かを判定する。その結果、CPU101が、宛先はキーワードであると判定した場合、処理はステップS104に進み、CPU101は、最も新しい日付に対応する日付ディレクトリ下に、「honbun.txt」という名称のテキストファイルを作成し、そのテキストファイルに、本文データを貼り付けて記録する。
【0133】
ステップS103において、CPU101が、宛先はキーワードではないと判定した場合、処理はステップS105に進み、CPU101は、本文データを記録することができない旨のエラーを出力する。
【0134】
なお、今回は、図7のステップS55において、図10の入力表示部252には、予めキーワードが入力済みであったので、CPU101は、ステップS101において、宛先は日付ではないと判定し、ステップS103において、宛先がキーワードであると判定し、ステップS104において、最新の日付に対応する日付ディレクトリ下の「honbun.txt」に本文データを貼り付けて記録する。
【0135】
以上で、日記サービス提供サーバ15の本文記録処理が終了される。以上のステップS79の本文記録処理が終了した後、処理はステップS80に進む。
【0136】
図16に戻って、ステップS78において、CPU101が、画像ファイルと共に依頼状を受信していないと判定した場合、ステップS79の処理はスキップされ、処理はステップS80に進む。
【0137】
ステップS80において、CPU101は、通信部110から、インターネット10、インターネットサービスプロバイダ14、公衆回線網13、およびブルートゥースアダプタ12を介して、ネットワークハンディカム11に画像ファイルの登録完了を通知する。ステップS80の処理が終了すると、日記サービス提供サーバ15のアップロード処理が終了される。
【0138】
ここで、ステップS74に戻って、CPU101が、認証がOKではなかったと判定した場合、すなわち認証がNGであったと判定した場合、処理はステップS81に進む。ステップS81において、CPU101は、通信部110から、インターネット10、インターネットサービスプロバイダ14、公衆回線網13、およびブルートゥースアダプタ12を介して、ネットワークハンディカム11に認証のNGを通知する。ネットワークハンディカム11は、この認証NGを受信すると、上記したようにステップS57で認証OKではないと判定し、ステップS59でエラー処理を行う。
【0139】
ステップS81の処理が終了すると、日記サービス提供サーバ15のアップロード処理が終了される。
【0140】
以上で、図16のフローチャートの説明を終了する。
【0141】
ところで、図7のネットワークハンディカム11のアップロード処理中のステップS54において、依頼状の送信が指示されなかった場合、すなわち、図8において依頼状ボタン206がクリックされなかった場合、ネットワークハンディカム11から日記サービス提供サーバ15に、画像ファイルがアップロードされるとき、依頼状(宛先データおよび本文データ)は送信されない。その場合、日記サービス提供サーバ15の所定の日付ディレクトリには、画像ファイルだけが格納され、本文データが貼り付けられたテキストファイルは格納されないことになる。よって、その日付には、日記用の文章がなくなってしまう。
【0142】
そこで、本発明においては、画像ファイルと共に依頼状を送信しなかった場合でも、後から、依頼状のみを送信することができるようになっている。
【0143】
次に、依頼状のみを送信する処理、すなわちネットワークハンディカム11の依頼状送信処理について、図21のフローチャートを参照して説明する。また、ネットワークハンディカム11により送信された依頼状を受信する日記サービス提供サーバ15の処理、すなわち、依頼状受信処理について、図22のフローチャートを参照して説明する。
【0144】
ユーザにより操作入力部32に、依頼状の送信の指示が入力された後、ステップS121において、制御用マイコン31は、画像処理回路36を介して、ディスプレイ38に依頼状画面を表示し、本文の入力を受け付ける。
【0145】
この場合も、ディスプレイ38には、図8に示される画面が表示される。なお、ステップS121においては、アルバムおよび画像を選択する必要は無いので、ユーザは、アルバムボタン201、および画像選択ボタン203のいずれも選択しない。ユーザは、依頼状のみを送信するために、図8の依頼状ボタン206をクリックすると、制御用マイコン31は、画像処理回路36を介して、ディスプレイ38に、図10に示される画面を表示させる。
【0146】
図10の画面において、ユーザは、宛先ボタン251をクリックして、入力表示部252に、日記用の文章を記録する日記の日付を入力する。ユーザは、操作入力部32を操作して、この入力表示部252に、日記用の文章を記録する日記の日付を入力する。先にも説明したように、日付は、年、月、日が、この順番で、「.」で区切られて入力される。また、ユーザは、予め設定されたキーワードを入力することも可能であり、この場合、入力される本文データは、1番新しい日付ディレクトリに記録される。
【0147】
ユーザは、本文ボタン253をクリックした後、操作入力部32を操作して、その右側の入力表示部254に、日記用の文章を入力する。ユーザは、入力表示部254に、日記用の文章を入力した後、決定ボタン255をクリックすると、制御用マイコン31は、入力表示部252,254に入力されている宛先データと本文データを取得する。そして、ディスプレイ38には、再び、図8の画面が表示される。ただし、依頼状ボタン206の右側に表示されている「なし」は、「あり」に変更される。その後、送信ボタン207がクリックされたとき、処理はステップS122に進む。
【0148】
ステップS122において、制御用マイコン31は、通信部44を制御して、ブルートゥースアダプタ12、公衆回線網13、インターネットサービスプロバイダ14、およびインターネット10を介して、日記サービス提供サーバ15に、宛先データと本文データを含む依頼状を送信する。
【0149】
図22のステップS151において、日記サービス提供サーバ15のCPU101は、ステップS122でネットワークハンディカム11が送信した依頼状を通信部110を介して受信すると、ステップS152において、本文記録処理を実行する。本文記録処理の説明は、図20のフローチャートを参照して上記した通りである。
【0150】
ステップS152の本文記録処理の後、ステップS153において、CPU101は、本文記録処理の結果、エラーが出力された(図20のステップS105)か否かを判定し、エラーが出力された場合、処理はステップS154に進む。ステップS154において、CPU101は、通信部110から、インターネット10、インターネットサービスプロバイダ14、公衆回線網13、およびブルートゥースアダプタ12を介して、ネットワークハンディカム11に、本文データを登録できなかった旨のエラーを通知する。
【0151】
このとき、ネットワークハンディカム11の制御用マイコン31は、ステップS123において、日記サービス提供サーバ15よりエラーの通知を受信したか否かを判定し、日記サービス提供サーバ15よりエラーの通知を受信したので、処理はステップS124に進む。ステップS124において、制御用マイコン31は、画像処理回路36を介してディスプレイ38に、本文の日記サービス提供サーバ15への記録ができなかった旨の案内を表示させる。ユーザは、この案内により、日記用の文章が登録できなかったことを知ることができる。
【0152】
図22のステップS153において、CPU101が、エラーは出力されなかったと判定した場合、処理はステップS155に進み、CPU101は、通信部110から、インターネット10、インターネットサービスプロバイダ14、公衆回線網13、およびブルートゥースアダプタ12を介して、ネットワークハンディカム11に、本文データの登録完了を通知する。
【0153】
このとき、ネットワークハンディカム11の制御用マイコン31は、ステップS123において、日記サービス提供サーバ15よりエラーの通知を受信しなかったと判定し、ステップS124の処理をスキップして、依頼状送信処理を終了する。
【0154】
以上のようにして、ユーザは、依頼状のみを送信させることも可能である。
【0155】
以上のようにして、ネットワークハンディカム11から日記サービス提供サーバ15に送信され、日記サービス提供サーバ15に管理された画像ファイルおよび日記用の文章は、インターネット10に接続された情報端末装置17により閲覧することが可能である。次に図23および図24のフローチャートを参照して、ユーザが情報端末装置17から、日記サービス提供サーバ15により管理されている画像ファイルおよび日記用の文章を閲覧する処理、すなわち、日記閲覧処理について説明する。
【0156】
なお、図23は情報端末装置17の処理を、図24は日記サービス提供サーバ15の処理を、それぞれ示している。
【0157】
情報端末装置17は、操作部156から、日記閲覧の指示が入力されたとき、図23の処理を開始する。図23のステップS181において、情報端末装置17のCPU101は、通信部160を介して、日記サービス提供サーバ15に、日記閲覧の要求を送信する。このとき、情報端末装置17から送信される要求信号には、ユーザを特定するための識別情報が含まれている。
【0158】
図24のステップS201において、日記サービス提供サーバ15のCPU101は、情報端末装置17より、日記閲覧の要求を受信する。ステップS202において、日記サービス提供サーバ15のCPU101は、ステップS201で受信した要求に含まれているユーザの識別情報に基づいて、図19に示されているユーザディレクトリの中から、識別情報に対応するユーザディレクトリを特定し、特定したユーザディレクトリ下の日付ディレクトリに基づいて、日記リストを作成する。例えば、識別情報に基づいて、図19のサブディレクトリ322「ユーザA」が特定された場合、CPU101は、サブディレクトリ322の下位にあるサブディレクトリ323−1乃至323−4の名称に基づいて、「2001年8月21日」、「2001年8月22日」、「2001年8月23日」、および「2001年9月5日」からなる日記リストを作成する。
【0159】
次に、ステップS203において、日記サービス提供サーバ15のCPU101は、通信部110を介して情報端末装置17に、ステップS202で作成された日記リストを送信する。
【0160】
情報端末装置17のCPU151は、図23のステップS182において、図24のステップS203で日記サービス提供サーバ15が送信した日記リストを、通信部160を介して受信する。
【0161】
ステップS183において、情報端末装置17のCPU151は、ステップS182で受信した日記リストを、ディスプレイ158に表示させ、日付の選択を受け付ける。図25は、ステップS183において、情報端末装置17のディスプレイ158に表示される画面の例を示している。
【0162】
ディスプレイ158には、図25のブラウザ401が表示され、その中に、日記リストの日付項目402−1乃至402−4が表示されている。これらの日付項目402−1乃至402−4は、日記の日付が記載されている(例えば、日付項目402−1は、「2001年09月05日」のように記載されている)。ユーザは、操作部156を操作することにより、日付項目402−1乃至402−4の表示の中から、いずれか所望する日付の日付項目を選択することができる。
【0163】
また、日付項目402−1には、対応する更新選択欄403−1および削除選択欄404−1が設けられている。ユーザは、操作部156を操作して、更新選択欄403−1および削除選択欄404−1のいずれか一方を選択することが可能である。勿論、更新選択欄403−1および削除選択欄404−1のどちらも選択しないことも可能である。同様に、日付項目402−2には、対応する更新選択欄403−2および削除選択欄404−2が設けられている。同様に、日付項目402−3には、対応する更新選択欄403−3および削除選択欄404−3が設けられている。同様に、日付項目402−4には、対応する更新選択欄403−4および削除選択欄404−4が設けられている。
【0164】
日付項目402−4の下方には、更新/削除ボタン405、およびリセットボタン406が設けられている。更新選択欄403−1乃至403−4並びに削除選択欄404−1乃至404−4のいずれかが選択された状態で、更新/削除ボタン405がクリックされた場合、CPU151は、更新選択欄403−1乃至403−4、および削除選択欄404−1乃至404−4のうちいずれかの選択欄が選択された日記項目に対して日記の更新・削除処理を実行する。日記の更新・削除処理については、図28および図29のフローチャートを参照して後述する。
【0165】
また、更新選択欄403−1乃至403−4並びに削除選択欄404−1乃至404−4のいずれかが選択された状態で、リセットボタン406がクリックされた場合、CPU151は、更新選択欄403−1乃至403−4並びに削除選択欄404−1乃至404−4の全ての選択を解除する。
【0166】
ステップS183において、日付項目402−1乃至402−4のうち、いずれか1つがクリックされた場合、処理はステップS184に進む。
【0167】
ステップS184において、情報端末装置17のCPU151は、通信部160を介して、日記サービス提供サーバ15に、ステップS183で選択された日記項目に対応する日付の日記ファイルの閲覧要求を送信する。
【0168】
日記サービス提供サーバ15のCPU101は、図24のステップS204において、情報端末装置17が図23のステップS184で送信した日記ファイルの閲覧要求を、通信部110を介して受信すると、ステップS205において、要求された日記ファイルが、対応する日付ディレクトリ内に格納されているか否かを判定する。日記サービス提供サーバ15に、ある日付の日付ディレクトリが作成されて(図17のステップS93)、初めて、その日付ディレクトリに格納されている画像ファイルおよび日記用の文章の閲覧要求を受信した場合、日記ファイルはまだ作成されていないので、日記サービス提供サーバ15のCPU101は、ステップS205において、要求された日記ファイルは対応する日付ディレクトリ内に格納されていないと判定し、処理はステップS206に進む。
【0169】
ステップS206において、日記サービス提供サーバ15のCPU101は、日記作成処理、すなわち日記ファイルを作成する処理を実行する。次に、図26のフローチャートを参照して、日記サービス提供サーバ15の日記作成処理について詳細に説明する。
【0170】
図26のステップS221において、日記サービス提供サーバ15のCPU101は、図24のステップS204で閲覧が要求された日付に対応する日付ディレクトリに格納されている画像ファイルを読み出し、各画像ファイルのヘッダに記録されている日付情報に基づいて、画像ファイルを撮影時間に従って、ソートする。
【0171】
次に、ステップS222において、日記サービス提供サーバ15のCPU101は、ステップS221でソートした画像ファイルの中から、1つの画像ファイルを選択する。そして、CPU101は、選択された画像ファイルのヘッダに記録されている位置情報を抽出して、画像ファイルの撮影場所の緯度・経度を取得する。この緯度・経度は、球面座標系で記述されている。すなわち、地球の中心を基準にして1度を60分に分割し、さらに1分を60秒に分割する。
【0172】
日記サービス提供サーバ15の記憶部109には、予め地図データベース135が記録されている。そこで、CPU101は、画像ファイルの撮影場所を含む地図画像を地図データベース135より読み出し、読み出した地図画像の撮影場所に相当する位置にマーカ(しるし)を付けて、マーカ付き地図画像を作成する。なお、この処理の詳細な説明は、図38のフローチャートを参照して後述する。
【0173】
ステップS222の処理の後、処理はステップS223に進み、日記サービス提供サーバ15のCPU101は、ステップS222で選択された画像ファイルのサムネイルを作成すると共に、ステップS222で作成されたマーカ付き地図画像のサムネイルを作成する。
【0174】
ステップS224において、日記サービス提供サーバ15のCPU101は、天気情報データベース131より、ステップS222で選択された画像ファイルの撮影日時に対応する天気情報を取得する。ステップS224の処理の後、ステップS225において、日記サービス提供サーバ15のCPU101は、ニュースデータベース132より、ステップS222で選択された画像ファイルの撮影日時に対応するニュース情報を取得する。ステップS225の処理の後、ステップS226において、日記サービス提供サーバ15のCPU101は、JPOPデータベース133より、ステップS222で選択された画像ファイルの撮影日時に対応する音楽の売上順位情報を取得する。ステップS226の処理の後、ステップS227において、日記サービス提供サーバ15のCPU101は、地名データベース135より、ステップS222で選択された画像ファイルの撮影場所に対応する地名を検索する。
【0175】
ステップS227の処理の後、処理はステップS228に進み、日記サービス提供サーバ15のCPU101は、ステップS221でソートされた全ての画像ファイルに対してステップS222乃至ステップS227の処理を実行したか否かを判定し、まだ、ステップS221でソートされた全ての画像ファイルに対しては、ステップS222乃至ステップS227の処理を実行していない(ステップS222乃至ステップS227の処理を実行していない画像ファイルが存在する)と判定した場合、処理はステップS222に戻って、ステップS222以降の処理を繰り返し実行する。ただし、ステップS222においては、すでに選択された画像ファイルは、選択されないようになっている。
【0176】
以上のステップS222乃至ステップS228の処理を、画像ファイルの数だけ繰り返し実行した場合、ステップS228において、日記サービス提供サーバ15のCPU101は、ステップS221でソートされた全ての画像ファイルに対してステップS222乃至ステップS227の処理を実行したと判定し、処理はステップS229に進む。
【0177】
ステップS229において、日記サービス提供サーバ15のCPU101は、ステップS222において作成したサムネイル、並びにステップS223乃至ステップS227において取得した天気情報、ニュース情報、JPOP情報、および地名を含む日記ファイルを作成する。
【0178】
ステップS229の処理の後、ステップS230において、日記サービス提供サーバ15のCPU101は、図24のステップS204で閲覧が要求された日付に対応する日付ディレクトリ内に、日記用の文章が記されたテキストファイルが格納されているか否かを判定し、図24のステップS204で閲覧が要求された日付に対応する日付ディレクトリ内に、日記用の文章が記されたテキストファイルが格納されている場合、処理はステップS231に進む。
【0179】
ステップS231において、日記サービス提供サーバ15のCPU101は、図24のステップS204で閲覧が要求された日付に対応する日付ディレクトリ内に格納されたテキストファイルより、日記用の文章を読み出し、これを、ステップS229で作成された日記ファイル内に記録し、日記用の文章入りの日記ファイルを作成する。ステップS231の処理が終了すると、日記作成処理が終了する。
【0180】
ステップS230において、日記サービス提供サーバ15のCPU101が、図24のステップS204で閲覧が要求された日付に対応する日付ディレクトリ内に、日記用の文章が記されたテキストファイルが格納されていないと判定した場合、ステップS231の処理はスキップされ、日記作成処理が終了される。
【0181】
日記作成処理が終了した後、処理は図24のステップS207に進む。
【0182】
図24のステップS205において、日記サービス提供サーバ15のCPU101が、要求された日記ファイルが、対応する日付ディレクトリ内に格納されていると判定した場合、ステップS206の処理はスキップされ、処理はステップS207に進む。
【0183】
図24のステップS207において、日記サービス提供サーバ15のCPU101は、通信部110を介して、情報端末装置17に、ステップS204で閲覧が要求された日付の日記ファイルを送信する。
【0184】
図23のステップS185において、情報端末装置17のCPU151は、図24のステップS207で日記サービス提供サーバ15が送信した日記ファイルを、通信部160を介して受信すると、ステップS186において、ステップS185で受信した日記ファイルを、ディスプレイ158に表示させる。図27は、ステップS186で、ディスプレイ158に表示された日記ファイルの例である。
【0185】
ディスプレイ158には、図27に示されるブラウザ451が表示され、このブラウザ451のウィンド内に、日記ファイルが表示される。ブラウザ451内の上方には、「前ページへ」表示452、「インデックス」表示453、および「次ページへ」表示454が表示されている。ユーザが操作部156をクリックすることにより「前ページへ」表示452が選択された場合、CPU151は、今表示している日記ファイルより1つだけ古い日付の日記ファイルを日記サービス提供サーバ15より取得し、ディスプレイ158に表示させる。この場合、情報端末装置17は、図23のステップS184乃至ステップS186の処理を実行する(また、日記サービス提供サーバ15は、情報端末装置17に対応する処理、すなわちステップS204乃至ステップS207の処理を実行する)。
【0186】
図27において、ユーザが操作部156をクリックすることにより「インデックス」表示453が選択された場合、CPU151は、ディスプレイ158に表示されている図27の日記ファイルを消去し、図25の画面を表示させる。図27において、ユーザが操作部156をクリックすることにより「次ページへ」表示454が選択された場合、CPU151は、今表示している日記ファイルより1つだけ新しい日付の日記ファイルを日記サービス提供サーバ15より取得し、ディスプレイ158に表示させる。この場合も、「前ページへ」表示452が選択された場合と同様に、情報端末装置17は、図23のステップS184乃至ステップS186の処理を実行する(また、日記サービス提供サーバ15は、情報端末装置17に対応する処理、すなわちステップS204乃至ステップS207の処理を実行する)。
【0187】
「前ページへ」表示452、「インデックス」表示453、および「次ページへ」表示454の下方には、日付表示456「2001年08月22日」、および天気情報表示457が表示されている。さらに日付表示456の下方には、天気情報の続きである天気情報表示458「気温27.5/25.1度(最高/最低)」が表示されている。天気情報表示457,458は、日記サービス提供サーバ15が、図26のステップS224で取得し、ステップS229で日記ファイルに書き出し、図24のステップS207で情報端末装置17に送信したものである。ユーザは、日付表示456により、日記ファイルに表示された画像を撮影した日付を知ることができる。ユーザは、天気情報表示457により、画像を撮影した日の天気を知ることができる。また、ユーザは、天気情報表示458により、画像を撮影した日の最高気温と最低気温を知ることができる。
【0188】
天気情報表示458の下方には、地図サムネイル459および撮影画像サムネイル461が表示されている。地図サムネイル459内には、画像の撮影場所を示すマーカ460が表示されている。これらのサムネイルは、日記サービス提供サーバ15が、図26のステップS223で作成し、ステップS229で日記ファイルに書き出し、図24のステップS207で情報端末装置17に送信したものである。ユーザが操作部156を操作することにより、地図サムネイル459、または撮影画像サムネイル461がクリックされた場合、情報端末装置17のCPU151は、クリックされたサムネイルに対応する元の画像ファイルを日記サービス提供サーバ15から取得し、これをディスプレイ158に表示させる。
【0189】
地図サムネイル459および撮影画像サムネイル461の下方には、撮影時刻表示462「12:50:18」、および撮影場所の地名表示463「○○インターシティ(港区港南)」が表示されている。撮影時刻表示462「12:50:18」は、撮影時刻が、12時50分18秒であることを示している。また、地名表示463は、日記サービス提供サーバ15が、ステップS227で検索し、ステップS229で日記ファイルに書き出し、図24のステップS207で情報端末装置17に送信したものである。ユーザが、操作部156を操作して、地名表示463をクリックした場合、その地名表示463に、関連するURL(Uniform Resource Locator)がリンクされていたとき、情報端末装置17のCPU151は、ブラウザ451とは異なるブラウザをディスプレイ158に表示させ、そのブラウザ内に、地名表示463とリンクされたURLのWebサイトを表示させる。
【0190】
地名表示463の下方には、画像変更ボタン464が表示されている。ユーザが、操作部156を操作して、画像変更ボタン464のうち、左側に向いた矢印をクリックした場合、情報端末装置17のCPU151は、今表示されている撮影画像サムネイル461より1つ前に撮影された撮影画像サムネイルを撮影画像サムネイル461の位置に表示させると共に、撮影画像サムネイル461より1つ前に撮影された撮影画像サムネイルに対応する地図サムネイルを、地図サムネイル459の変わりに表示させる。
【0191】
ユーザが、操作部156を操作して、画像変更ボタン464のうち、右側に向いた矢印をクリックした場合、情報端末装置17のCPU151は、今表示されている撮影画像サムネイル461より1つ後に撮影された撮影画像サムネイルを撮影画像サムネイル461の位置に表示させると共に、撮影画像サムネイル461より1つ後に撮影された撮影画像サムネイルに対応する地図サムネイルを、地図サムネイル459の変わりに表示させる。
【0192】
画像変更ボタン464の下方には本文表示欄465が表示され、本文表示欄465内に、日記用の文章「研修のデモのため、台風の中写真撮影にいった。柳が激しく風に吹かれていたよ。こわいこわい。」が表示されている。本文表示欄465内に表示された日記用の文章は、日記サービス提供サーバ15が、図26のステップS231で日記ファイルに書き出し、図24のステップS207で情報端末装置17に送信したものである。
【0193】
本文表示欄465の下方には、ニュース表示欄466が表示され、ニュース表示欄466内に、画像の撮影日のニュース情報「6月の東京都議選で再選された△主党の○○○○都議が運動員買収に関与していたとして、警視庁は22日、公職選挙法違反容疑で○○都議を逮捕した。(15:48)」が表示されている。ニュース表示欄466内に表示されたニュース情報は、日記サービス提供サーバ15が、図26のステップS225で取得し、ステップS229で日記ファイルに書き出し、図24のステップS207で情報端末装置17に送信したものである。
【0194】
ニュース表示欄466の下方には、売上情報表示欄467が表示されている。売上情報表示欄467には、画像の撮影日の音楽の売上順位が表示されている。売上情報表示欄467に表示された音楽の売上順位に関する情報は、日記サービス提供サーバ15が、図26のステップS226で取得し、ステップS229で日記ファイルに書き出し、図24のステップS207で情報端末装置17に送信したものである。
【0195】
図23のステップS186で、ディスプレイ158には、以上、図27に示されるようにして日記ファイルが表示される。
【0196】
以上で、日記閲覧処理の説明を終了する。
【0197】
ところで、図25において、先に説明したように、更新選択欄403−1乃至403−4、並びに削除選択欄404−1乃至404−4のうちいずれかが選択された状態で、更新/削除ボタン405がクリックされた場合、日記更新・削除処理が実行される。日記の更新処理とは、日付ディレクトリ内に格納された日記ファイルを削除する処理のことである。一旦作成された日記ファイルに変更したい点があった場合、この日記更新処理を実行して日記ファイルを削除した後、改めて図26の日記作成処理を実行して、新たな日記ファイルを作成することができる。従って、例えば、ある日付ディレクトリに格納する画像ファイルを追加する場合や日記用の文章を変更する場合などには、日記の更新処理が実行され、その後、日記作成処理が実行される。
【0198】
また、日記の削除処理とは、日付ディレクトリを削除する処理のことである。図25に示されるような日付項目402−1乃至402−4の中から、ユーザが削除したい日付項目がある場合、日記の削除処理が実行される。日記の削除処理が行われると、日付ディレクトリ、および日付ディレクトリに格納された全てのファイル(画像ファイル、およびテキストファイルを含む)が削除される。
【0199】
次に、図28および図29のフローチャートを参照して、日記更新・削除処理について説明する。なお、図28は情報端末装置17の処理を示し、図29は日記サービス提供サーバ15の処理を示している。
【0200】
図28のステップS241において、情報端末装置17のCPU151は、図25の更新/削除ボタン405がクリックされるまで待機し、更新/削除ボタン405がクリックされたとき、処理はステップS242に進む。ステップS242において、CPU151は、図25の更新選択欄403−1乃至403−4の中から、選択されている更新選択欄を特定し、特定した選択欄に対応する日付項目を、日付項目402−1乃至402−4の中から特定する。なお、更新選択欄403−1乃至403−4のうち、複数の更新選択欄が選択されている場合もあり、その場合、CPU151は、更新選択欄が選択されている全ての日付項目を特定する。
【0201】
ステップS242の処理の後、ステップS243において、CPU151は、図25の削除選択欄404−1乃至404−4の中から、選択されている削除選択欄を特定し、特定した削除選択欄に対応する日付項目を、日付項目402−1乃至402−4の中から特定する。なお、削除選択欄404−1乃至404−4のうち、複数の削除選択欄が選択されている場合もあり、その場合、CPU151は、削除選択欄が選択されている全ての日付項目を特定する。
【0202】
なお、先にも説明したように、同一の日付項目に対応する更新選択欄と削除選択欄を、同時に選択することはできない。
【0203】
ステップS243の処理の後、ステップS244において、CPU151は、ステップS242で特定された更新する日付を示す情報、およびステップS243で特定された削除する日付を示す情報を、通信部160を介して日記サービス提供サーバ15に送信し、日付に対応する日記の更新、または日記の削除を要求する。
【0204】
なお、ステップS242、およびステップS243の処理は、説明の便宜上、上記した順番で実行したが、これらの処理は、どちらを先に実行しても良い。また、同時に実行してもよい。
【0205】
また、ステップS242において、更新が選択された日付項目が無かった場合、ステップS244において、削除が選択された日付を示す情報のみが日記サービス提供サーバ15に送信される。同様に、ステップS243において、削除が選択された日付項目が無かった場合、ステップS244において、更新が選択された日付を示す情報のみが日記サービス提供サーバ15に送信される。また、ステップS242において、更新が選択された日付項目が無く、かつ、ステップS243において、削除が選択された日付項目が無かった場合、情報処理装置17のCPU151は、ステップS244の処理は実行せずに、日記更新・削除処理を終了する。
【0206】
日記サービス提供サーバ15のCPU101は、情報端末装置17がステップS244で送信した要求を、通信部110を介して受信すると、ステップS251において、情報端末装置17からの要求には、日記の更新要求が含まれているか否かを判定し、情報端末装置17からの要求に、日記の更新要求が含まれていた場合、処理はステップS252に進む。ステップS252において、日記サービス提供サーバ15のCPU101は、情報端末装置17から受信した、更新する日付を示す情報に基づいて、更新する日付ディレクトリを特定し、特定した日付ディレクトリ内に格納されている日記ファイルを削除する。その後、処理はステップS253に進む。
【0207】
ステップS251において、日記サービス提供サーバ15のCPU101が、情報端末装置17からの要求には、日記の更新要求は含まれていないと判定した場合、ステップS252の処理はスキップされ、処理はステップS253に進む。
【0208】
ステップS253において、日記サービス提供サーバ15のCPU101は、情報端末装置17からの要求には、日記の削除要求が含まれているか否かを判定し、情報端末装置17からの要求に日記の削除要求が含まれていた場合、処理はステップS254に進む。ステップS254において、日記サービス提供サーバ15のCPU101は、情報端末装置17から受信した、削除する日付を示す情報に基づいて、削除する日付ディレクトリを特定し、特定した日付ディレクトリを削除する。以上で、日記更新・削除処理が終了される。
【0209】
ステップS253において、日記サービス提供サーバ15のCPU101が、情報端末装置17からの要求には、日記の削除要求が含まれていないと判定した場合、ステップS254の処理はスキップされ、日記更新・削除処理が終了される。
【0210】
ところで、日記サービス提供サーバ15は、Webサーバ16−1から、毎日、天気情報を取得し、記憶部109内の天気情報データベース131に記憶させている。また、日記サービス提供サーバ15は、Webサーバ16−2から、毎日、ニュース情報を取得し、記憶部109内のニュースデータベース132に記憶させている。また、日記サービス提供サーバ15は、Webサーバ16−3から、毎日、売上情報を取得し、記憶部109内のJPOPデータベース133に記憶させている。日記サービス提供サーバ15が、天気情報を取得して、天気情報データベース131に記憶させる処理、ニュース情報を取得して、ニュースデータベース132に記憶させる処理、および売上情報を取得して、JPOPデータベース133に記憶させる処理は、取得する情報こそ異なるが、基本的に、同様の処理である。
【0211】
そこで代表として、日記サービス提供サーバ15がニュース情報を取得して、ニュースデータベース132に記憶させる処理について、図30のフローチャートを参照して説明する。
【0212】
ステップS281において、日記サービス提供サーバ15のCPU101は、通信部110を介して、Webサーバ16−1が提供しているWebサイトのHTMLを取得する。日記サービス提供サーバ15が取得したHTMLの例を、図31に示す。図31に示されたHTMLにおいて、斜線部分481に、取得するべきニュース情報が記されている。そして、斜線部分481の前後には、<!-- Start of TopHonbun -->と<!-- End of TopHonbun -->という、日によって変わらない特徴的なタグがある。
【0213】
ステップS282において、日記サービス提供サーバ15のCPU101は、ステップS281で取得したHTMLの中から、ニュース情報を抽出する。すなわち、図31に示されるHTMLの中から、必要な情報付近の日によって変わらない特徴的なタグ・文字列を検索することで、必要な情報を特定し取得する。具体的には、日記サービス提供サーバ15の記憶部109には、予め、ニュース情報の前後にあるタグ、すなわち<!-- Start of TopHonbun -->と<!-- End of TopHonbun -->というタグが記憶されている。そこで、CPU101は、記憶部109より、これらのタグを読み出し、ステップS281で取得したHTML内に同一のタグを検索する。そして、タグが検出された後、<!-- Start of TopHonbun -->および<!-- End of TopHonbun -->の間にはさまれた斜線部分481を、ニュース情報として抽出する。
【0214】
ステップS283において、日記サービス提供サーバ15のCPU101は、ステップS282で抽出されたニュース情報を、日付と対応付けて、記憶部109内のニュースデータベース132に記憶させる。
【0215】
以上のようにして、ニュース情報が取得される。日記サービス提供サーバ15は、以上の処理を毎日実行し、日々のニュース情報をニュースデータベース132に記憶させる。
【0216】
日記サービス提供サーバ15は、上記したのと同様な方法で、Webサーバ16−1より、天気情報を取得し、天気情報データベース131に記憶させる。また、日記サービス提供サーバ15は、上記したのと同様な方法で、Webサーバ16−3より、売上情報を取得し、JPOPデータベース133に記憶させる。
【0217】
ところで、日記サービス提供サーバ15は、上記した転機情報データベース131、ニュースデータベース132、およびJPOPデータベースとは異なる方法で、地図データベース134を作成する。
【0218】
次に、図32のフローチャートを参照して、日記サービス提供サーバ15の地図データベース作成処理について説明する。
【0219】
図32のステップS301において、日記サービス提供サーバ15のCPU101は、ラスタ地図を複数に分解する。図33に、ラスタ地図の分解例を示す。図33において、ラスタ地図501は、ラスタモデルとしての広域地図である。ラスタモデルは、セルと呼ばれる細かい四角形(ドット)が並んだ画像データである(ドットの集合により作成されている)ため、地図の画像データを、容易に分解することができる。図33の左下には、ラスタ地図501が、格子状に分割されたうちの1つの地図画像502が抜き出して示されている。ステップS301において、CPU101は、図33に示されるように、ラスタ地図501を格子状に分解して、複数の地図画像を作成する。
【0220】
このとき、CPU101は、複数に分解された個々の地図画像のそれぞれに対して、ファイル名を生成し、RAM103に記憶させる。また、CPU101は、複数に分解された個々の地図画像の右上端の緯度・経度(例えば、図33の地図画像502の点B)、および左下端の緯度・経度(例えば、図33の地図画像502の点A)を、地図画像の個々とそれぞれ対応付けてRAM103に記憶させる。
【0221】
なお、ラスタ地図501は、予め通信部110を介して、インターネット10上の所定のサーバなどからダウンロードし、記憶部109に記憶しておいても良い。または、ラスタ地図501が記録された磁気ディスク121、光ディスク122、光磁気ディスク123、または半導体メモリ124から、ドライブ111を介して取得するようにしても良い。
【0222】
ステップS301の処理により、格子状に分解された複数の地図画像が作成された後、処理はステップS302に進む。ステップS302において、CPU101は、地図画像ファイルの地図情報チャンクに、ファイル名、地図画像の右上端の緯度・経度、および地図画像の左下端の緯度・経度を記録する。図34に地図画像ファイルの例を示す。
【0223】
地図画像ファイルは、地図情報チャンク511と地図画像データ512により構成される。地図画像データ512は、例えば図33の地図画像502のデータである。この地図画像データ512に、地図情報チャンク511が付加されている。地図情報チャンク511には、ファイル名、地図画像の右上端の緯度・経度、および地図画像の左下端の緯度・経度が記録される。
【0224】
CPU101は、ステップS301で分割された全ての地図画像ファイルに対して、それぞれの地図情報チャンクに、ステップS301でRAM103に記憶させたファイル名、地図画像の右上端(例えば地図画像502の点B)の緯度・経度、および地図画像の左下端(例えば地図画像502の点A)の緯度・経度を記録する。なお、この際、地図画像の右上端の緯度・経度、および地図画像の左下端の緯度・経度は、全て秒単位で表記した場合の値が、地図情報チャンクに記録される。
【0225】
ステップS302の処理の後、処理はステップS303に進み、CPU101は、地図画像情報管理ファイル作成処理を実行する。ここで、ステップS303の地図画像情報管理ファイル作成処理について、図35のフローチャートを参照して詳細に説明する。
【0226】
ステップS311において、CPU101は、図32のステップS302で地図情報チャンク511に、ファイル名、地図画像の右上端の緯度・経度(秒単位)、および地図画像の左下端の緯度・経度(秒単位)が記録された地図画像ファイルの中から、1つの地図画像ファイルを選択し、その地図画像ファイルの地図情報チャンク511から、ファイル名、左下の緯度・経度(秒単位)、右上の緯度・経度(秒単位)を読み出す。また、CPU101は、選択された地図画像ファイルの地図画像データ512に基づいて、地図画像(例えば地図画像502)の横方向のドット数、および縦方向のドット数を特定する。
【0227】
ステップS311の処理の後、ステップS312において、CPU101は、地図画像の横方向1秒当りのドット数、および縦方向1秒当りのドット数を算出する。例えば、図33の地図画像502の、左下端の点Aの経度をX1、緯度をY1とし、右上端の点Bの経度をX2、緯度をY2として、さらに、地図画像502の横方向の辺のドット数をm、地図画像502の縦方向の辺のドット数をnとする。なお、経度・緯度は、単位を秒換算したものを用いる。
【0228】
地図画像502の横方向の経度の変化量は、(X2−X1)秒である。また、地図画像502の縦方向の緯度の変化量は、(Y2−Y1)秒である。よって、地図画像502の横方向の1秒当りのドット数は、m/(X2−X1)により算出される。また、地図画像502の縦方向の1秒当りのドット数は、n/(Y2−Y1)により算出される。
【0229】
ステップS312の処理の後、ステップS313において、CPU101は、スペース区切りで、ファイル名、左下端(例えば、地図画像502の点A)の北緯・東経、右上端(例えば、地図画像502の点B)の北緯・東経、北緯のドット/秒、および東経のドット/秒を、地図画像情報管理ファイルに記録する。ここで、ファイル名、左下端(例えば、地図画像502の点A)の北緯・東経、および右上端(例えば、地図画像502の点B)の北緯・東経は、ステップS311で地図情報チャンク511から読み出されたものである。また、北緯のドット/秒、および東経のドット/秒は、ステップS312で算出されたものである。
【0230】
図36は、地図画像情報管理ファイルの例を示している。図36の上側には、地図画像情報の並び順が示されている。すなわち、図36の上側には、左側から順番に「ファイル名」、「左下北緯」、「左下東経」、「右上北緯」、「右上東経」、「ドット/秒(北緯)」、および「ドット/秒(東経)」と示されている。これらの表示の下方に、それぞれの項目に対応する実際の情報が示されている。なお、図36においては、「・・・」により省略されているが、「・・・」の部分には、実際には所定の値が記載されている。
【0231】
図36において、実際の地図画像情報管理ファイルは、二重線の区切りのすぐ下から記載されている(図36の1番上側の「ファイル名」、「左下北緯」、「左下東経」、「右上北緯」、「右上東経」、「ドット/秒(北緯)」、および「ドット/秒(東経)」は、地図画像情報管理ファイルには記録されていない)。地図画像情報管理ファイルには、図36に示されているように、地図画像のファイル名、左下端(例えば、地図画像502の点A)の北緯、左下端(例えば、地図画像502の点A)の東経、右上端(例えば、地図画像502の点B)の北緯、右上端(例えば、地図画像502の点B)の東経、北緯のドット/秒、および東経のドット/秒が、それぞれの間をスペースで区切って記録されている。地図画像情報管理ファイルは、テキストファイルである。
【0232】
図35のステップS313にの処理の後、処理はステップS314に進む。ステップS314において、日記サービス提供サーバ15のCPU101は、図32のステップS301で作成された全ての画像ファイルに関する情報が地図画像情報管理ファイルに記録されたか否かを判定し、図32のステップS301で作成された全ての画像ファイルに関する情報が地図画像情報管理ファイルに記録されていない場合、処理はステップS311に戻って、ステップS311以降の処理が繰り返される。ただし、ステップS311においては、すでに地図画像情報管理ファイルに記録された画像ファイルは、選択されないようになっている。
【0233】
以上のようにして、ステップS311乃至ステップS314の処理が繰り返され、図32のステップS301で作成された全ての画像ファイルに関する情報が地図画像情報管理ファイルに記録された場合、CPU101は、ステップS314において、図32のステップS301で作成された全ての画像ファイルに関する情報が地図画像情報管理ファイルに記録されたと判定し、地図画像情報管理ファイル作成処理を終了する。その後、処理は、図32のステップS304に戻る。
【0234】
ステップS304において、CPU101は、ステップS303で作成された地図画像情報管理ファイル、およびステップS302で作成された複数の地図画像ファイルを、MAPディレクトリ内に記録し、これを地図データベース134として、地図データベース作成処理を終了する。図37は、地図データベース134の構成例を示す図である。図37において、MAPディレクトリ531には、地図画像情報管理ファイル532、並びに、地図画像ファイル533−1乃至533−nが格納されている。
【0235】
ところで、図26のステップS222の処理、すなわちマーカ付き地図画像の作成処理については、先に簡単に説明したが、ここで、マーカ付き地図画像作成処理について、図38のフローチャートを参照して、詳細に説明する。
【0236】
図38のステップS351において、日記サービス提供サーバ15のCPU101は、ステップS221でソートした画像ファイルの中から、1つの画像ファイルを選択する。そして、CPU101は、選択された画像ファイルのヘッダに記録されている位置情報を抽出して、画像ファイルの撮影場所の緯度・経度を取得する。例えば、図39に示されるように、撮影場所Pの緯度が北緯35度37分14秒で、経度が東経139度44分17秒であるとする。
【0237】
ステップS351の処理の後、ステップS352において、CPU101は、ステップS351で取得した撮影場所の緯度・経度情報の単位を、秒の単位に換算する。すなわち、ステップS351で取得した緯度・経度情報は、度分秒(DMS)を単位とする表記方法であるので、これを、秒の単位に換算する。例えば、緯度(または経度)が、x度y分z秒であった場合、CPU101は、3600x+60y+zを演算することにより、単位を秒に換算する。その後、処理はステップS353に進む。例えば、北緯35度37分14秒は、3600×35+60×37+14=128234秒となる。また、東経139度44分17秒は、3600×139+60×44+17=503057秒となる。
【0238】
ステップS353において、CPU101は、ステップS352で秒単位に換算した撮影場所の緯度・経度情報を、地図画像情報管理ファイルに記録された地図画像情報と比較し、撮影場所の緯度・経度を含んでいる地図画像ファイルを特定する。すなわち、地図画像情報管理ファイルには、図36に示されるように、地図画像の左下端の北緯および東経、並びに右上端の北緯および東経が記録されている。そこで、CPU101は、まず、左下端の東経と右上端の東経の間に、撮影場所の東経が位置するような地図画像ファイルを選択し、選択された地図画像ファイルの中から、左下端の北緯と右上端の北緯の間に、撮影場所の北緯が位置するような地図画像ファイルを選択する。結果的に、撮影場所の緯度・経度を含む地図画像ファイルが選択される。
【0239】
例えば、撮影場所が北緯128234秒、東経503057秒である場合、選択された地図画像が、図39に示されるように、左下(Aで図示)の緯度は北緯128229.7秒、経度は東経503048.3秒であり、また、右上(Bで図示)の緯度は北緯128255.8秒、経度は東経503080.4秒であるとする。このように、撮影場所の緯度(北緯128234秒)は、地図画像ファイルの左下の緯度(北緯128229.7秒)と右上の緯度(北緯128255.8秒)の間にある。また、撮影場所の経度(東経503057秒)は、地図画像ファイルの左下の経度(東経503048.3秒)と右上の経度(東経503080.4秒)の間にある。
【0240】
ステップS353の処理の後、ステップS354において、CPU101は、ステップS353で特定された地図画像の左下(または右上)の緯度・経度と撮影場所の緯度・経度の差をとり、その差分に、地図画像情報管理ファイルに記録されたドット/秒を掛け算して、地図画像の左下(または右上)から撮影場所までのドット数を算出する。
【0241】
例えば、図39の地図画像502のドット数が、縦が160ドットで、横が160ドットであるとする。このとき、ドット/秒は、緯度が、160/(128255.8−128229.7)=6.13…ドット/秒であり、経度が、160/(503080.4−503048.3)=4.98…ドット/秒である。ここで、地図画像502の左下(A)から撮影場所Pまでのドット数を算出する場合を考える。
【0242】
まず、地図画像502の左下(A)から撮影場所Pまでの緯度のドット数は、(撮影場所の北緯−点Aの北緯)×(緯度のドット/秒)=(128234−128229.7)×6.13…=約26ドットとなる。次に、地図画像502の左下(A)から撮影場所Pまでの経度のドット数は、(撮影場所の東経−点Aの東経)×(経度のドット/秒)=(503057−503048.3)×4.98…=約43ドットとなる。
【0243】
ステップS355において、CPU101は、地図画像の左下(または右上)から、ステップS354で算出されたドット数だけカウントした位置に、マーカをつける。
【0244】
図39の例においては、ステップS354で、地図画像502の点Aから撮影場所Pまでの緯度のドット数が26ドット、経度のドット数が43ドットと算出されているので、図39に示されるように、地図画像502の点Aから北に向かって26ドット目で、東に向かって43ドット目に、撮影場所Pのマーカ(四角形で表示)がつけられる。
【0245】
以上のようにして、マーカ付きの地図画像が作成される。ユーザは、このマーカ付き地図画像により、撮影場所を忘れてしまった場合にも、撮影場所を確認すことができる。
【0246】
ところで、本実施の形態においては、ネットワークハンディカム11は、撮影した画像ファイルを、デジタルスチルカメラ用ファイルフォーマット規格であるExif(Exchangeable image file format)によりメモリカード40に記録する。従って、画像の撮影日時に関する情報、および撮影場所の位置情報も、Exifに従って、撮影された画像ファイルに記録される。よって、撮影された画像ファイルから、画像の撮影日時に関する情報、および撮影場所の位置情報を読み出す場合、Exifに従って、画像ファイルから読み出す必要がある。
【0247】
次に、図40および図41のフローチャートを参照して、日記サービス提供サーバ15が、撮影された画像ファイルから撮影日時に関する情報、および撮影場所の位置情報を読み出す処理について説明する。
【0248】
図40のステップS501において、日記サービス提供サーバ15のCPU101は、画像ファイルを開き、1バイトずつ読み込む。ステップS502において、CPU101は、0×4949(II)があるアドレスをオフセットとする。ステップS503において、CPU101は、0th IFD Offsetアドレスを読み、0th IFD Offsetアドレスに読み込み位置を移動する。ステップS504において、CPU101は、IFDに含まれるディレクトリエントリの数を読み込む。ステップS505において、CPU101は、IFDを読み込み、ステップS506において、ステップS505で読み込んだIFDのTagIDは、TagID=0×0123であるか否かを判定し、TagID=0×0123である場合、ステップS507に進み、CPU101は、Value Offsetを読み、そのアドレスに読み込み位置を移動させる。
【0249】
ステップS508において、CPU101は、Data Time Value(日時)を読み込み、これを標準出力する。このようにして、画像の撮影日時が取得される。ステップS508の処理の後、処理はステップS509に進む。
【0250】
ステップS506において、CPU101が、TagID=0×0123ではないと判定した場合、処理はステップS509に進む。
【0251】
ステップS509において、CPU101は、ステップS505で読み込んだIFDのTagIDは、TagID=0×8825であるか否かを判定し、TagID=0×8825である場合、ステップS510に進み、GPS情報抽出処理を実行する。ここで、ステップS510のGPS情報抽出処理について、図41を参照して説明する。
【0252】
図41のステップS551において、CPU101は、Value Offsetをよみ、そのアドレスへ移動する。ステップS552において、CPU101は、GPS IFD Numberを読み込む。ステップS553において、CPU101は、IFDを読み込む。ステップS554において、CPU101は、ステップS553で読み込んだIFDのTagIDは、Tag=0×0001であるか否かを判定し、Tag=0×0001である場合、ステップS555に進み、Value Offsetを読み、N(北)か、またはS(南)を標準出力する。その後、処理はステップS556に進む。
【0253】
ステップS554において、CPU101が、Tag=0×0001ではないと判定した場合、処理はステップS556に進む。
【0254】
ステップS556において、CPU101は、ステップS553で読み込んだIFDのTagIDは、Tag=0×0002であるか否かを判定し、Tag=0×0002である場合、ステップS557に進み、Value Offsetを読み込み、そのアドレスへ読み込み位置を移動する。ステップS558において、CPU101は、ステップS557で移動したアドレスから、GPSLatitude Value(緯度)を読み込み、これを標準出力する。その後、処理はステップS559に進む。
【0255】
ステップS556において、CPU101が、Tag=0×0002ではないと判定した場合、処理はステップS559に進む。
【0256】
ステップS559において、CPU101は、ステップS553で読み込んだIFDのTagIDは、Tag=0×0003であるか否かを判定し、Tag=0×0003である場合、ステップS560に進み、CPU101は、Value Offsetを読み、E(東)か、またはW(西)を標準出力する。その後、処理はステップS561に進む。
【0257】
ステップS559において、CPU101が、Tag=0×0003ではないと判定した場合、処理はステップS561に進む。
【0258】
ステップS561において、CPU101は、ステップS553で読み込んだIFDのTagIDは、Tag=0×0004であるか否かを判定し、Tag=0×0004である場合、ステップS562に進み、Value Offsetを読み込み、そのアドレスへ読み込み位置を移動する。ステップS558において、CPU101は、ステップS557で移動したアドレスから、GPSLongitude Value(経度)を読み込み、これを標準出力する。その後、処理はステップS564に進む。
【0259】
ステップS564において、CPU101は、ステップS552で読み込んだ、GPS PFD Number回だけ、処理を繰り返したか否かを判定し、GPS PFD Number回だけ、処理を繰り返していない場合、処理はステップS553に戻り、ステップS553以降の処理が繰り返される。なお、このときステップS553においては、既に読み込まれたIFDは読み込まれないようになっている。
【0260】
そして、ステップS564において、CPU101が、GPS PFD Number回だけ、処理を繰り返したと判定した場合、GPS情報抽出処理を終了し、処理は、図40のステップS511に進む。
【0261】
図40のステップS509において、CPU101が、ステップS505で読み込んだIFDのTagIDは、TagID=0×8825ではないと判定した場合、処理はステップS511に進む。
【0262】
ステップS511において、CPU101は、ステップS504で読み込んだディレクトリエントリの数だけ、処理を繰り返したか否かを判定し、ディレクトリエントリの数だけ、処理を繰り返してはいない場合、ステップS505に戻り、ステップS505以降の処理を繰り返す。なお、このとき、ステップS505においては、すでに読み込み済みのIFDは読み込まれないようになっている。
【0263】
そして、ステップS511において、CPU101が、ステップS504で読み込んだディレクトリエントリの数だけ、処理を繰り返したと判定した場合、日付情報と位置情報抽出処理を終了する。
【0264】
以上のようにして、日記サービス提供サーバ15は、画像ファイルから、画像を撮影した日付と、撮影場所の緯度・経度を抽出することができる。
【0265】
以上においては、携帯用端末装置として、携帯型のカメラ一体型ビデオテープレコーダを例として説明したが、本発明は、この他、デジタルスチルカメラ、カメラ付きの携帯電話機などの画像を撮影する手段を有する電子機器に応用することが可能である。
【0266】
また、以上において情報端末装置17により実行された処理、すなわち、図23および図28のフローチャートを参照して説明した処理は、ネットワークハンディカム11により実行させることができる。その場合、例えば、情報端末装置17においてCPU151、操作部156、音声出力部157、ディスプレイ158、記憶部159、通信部160、およびドライブ161により実行された処理は、それぞれ、ネットワークハンディカム11の制御用マイコン31、操作入力部32、スピーカ42、ディスプレイ38、記憶部46、通信部44、およびドライブ48により実行される。また、情報端末装置17により実行された処理のプログラムと同様のプログラムが、例えば、ネットワークハンディカム11の記憶部46に記憶され、これが必要に応じてDRAM35にロードされ、制御用マイコン31により実行される。
【0267】
また、以上の説明においては、Webサーバ16から取得し、Webページに表示させる情報として、天気情報、ニュース情報、および音楽の売上情報を例にして、説明したが、これらの情報は、Webサーバ16から取得する情報の一例であり、その他の情報をWebサーバ16から取得し、Webページに表示させることも勿論可能である。
【0268】
また、以上の説明においては、画像ファイルのフォーマットとして、デジタルスチルカメラよう画像ファイルフォーマット規格(Exif)を採用した場合を例として説明したが、そのことは、本発明が、画像ファイルのフォーマットとして、デジタルスチルカメラよう画像ファイルフォーマット規格(Exif)を採用することに限定されることを意味するものではない。例えば、撮影場所の位置情報、および画像の撮影日時を示す日付情報を記録可能な独自のフォーマットを採用するようにしても良い。
【0269】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0270】
この記録媒体は、図4乃至図7に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク51(フレキシブルディスクを含む),121,171、光ディスク52(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む),122,172、光磁気ディスク53(MD(Mini-Disk)を含む),123,173、もしくは半導体メモリ54,124,174などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM102,152や、記憶部46,109,159に含まれるハードディスクなどで構成される。
【0271】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0272】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0273】
【発明の効果】
以上の如く、本発明によれば、Webページを作成することができる。
【0274】
また、本発明によれば、少ない手間で、容易に撮影画像が含まれたWebページを作成することができる。また、その際に、撮影画像の撮影場所、並びに撮影日の天気およびニュースなどの情報を、自動的にWebページ上に公開することができる。従って、そのWebページを閲覧する人は、撮影画像の撮影場所、撮影日、撮影日の天気、撮影日のニュースなども知ることができる。
【0275】
さらに、本発明によれば、ユーザは、Webページを作成するために、パーソナルコンピュータなどの装置を別途用意する必要がない。従って、パーソナルコンピュータの操作に不慣れなユーザ、およびパーソナルコンピュータを所有しないユーザでも、容易にWebページを作成することができる。
【0276】
また、本発明によれば、撮影画像付の日記風のWebページを、容易な操作で作成することが可能となる。従って、通常の文字だけの日記をつけるのが続かない(三日坊主になってしまう)ユーザでも、継続して日記をつけることが可能となる。
【図面の簡単な説明】
【図1】本発明のサービス提供システムの構成を示す図である。
【図2】図1のネットワークハンディカムの構成を示すブロック図である。
【図3】図1の日記サービス提供サーバの構成を示すブロック図である。
【図4】日記サービス提供サーバの記憶部に記憶されるデータベースの例を示す図である。
【図5】図1の情報端末装置の構成を示すブロック図である。
【図6】ネットワークハンディカムの静止画像撮影処理を説明するフローチャートである。
【図7】ネットワークハンディカムのアップロード処理を説明するフローチャートである。
【図8】ネットワークハンディカムのディスプレイの表示例を示す図である。
【図9】ネットワークハンディカムのディスプレイの別の表示例を示す図である。
【図10】ネットワークハンディカムのディスプレイのさらに別の表示例を示す図である。
【図11】ネットワークハンディカムのディスプレイの表示例を示す図である。
【図12】ネットワークハンディカムのディスプレイの別の表示例を示す図である。
【図13】ネットワークハンディカムのディスプレイのさらに別の表示例を示す図である。
【図14】ネットワークハンディカムのディスプレイの表示例を示す図である。
【図15】ネットワークハンディカムのディスプレイの別の表示例を示す図である。
【図16】日記サービス提供サーバのアップロード処理を説明するフローチャートである。
【図17】日記サービス提供サーバの画像ファイル記録処理を説明するフローチャートである。
【図18】画像ファイルのフォーマットを説明する図である。
【図19】画像ファイルの記録方法を説明する図である。
【図20】日記サービス提供サーバの本文記録処理を説明するフローチャートである。
【図21】ネットワークハンディカムの依頼状送信処理を説明するフローチャートである。
【図22】日記サービス提供サーバの依頼状受信処理を説明するフローチャートである。
【図23】情報端末装置の日記閲覧処理を説明するフローチャートである。
【図24】日記サービス提供サーバの日記閲覧処理を説明するフローチャートである。
【図25】情報端末装置のディスプレイの表示例を示す図である。
【図26】日記サービス提供サーバの日記作成処理を説明するフローチャートである。
【図27】情報端末装置のディスプレイの表示例を示す図である。
【図28】情報端末装置の日記更新・削除処理を説明するフローチャートである。
【図29】日記サービス提供サーバの日記更新・削除処理を説明するフローチャートである。
【図30】日記サービス提供サーバのニュースデータベース作成処理を説明するフローチャートである。
【図31】日記サービス提供サーバがWebサーバより受信したHTMLの例を示す図である。
【図32】日記サービス提供サーバの地図データベース作成処理を説明するフローチャートである。
【図33】地図画像の作成を説明する図である。
【図34】地図画像データの構造を説明する図である。
【図35】日記サービス提供サーバの地図画像情報管理ファイル作成処理を説明するフローチャートである。
【図36】地図画像情報管理ファイルの例を示す図である。
【図37】地図データベースの構造の例を示す図である。
【図38】日記サービス提供サーバのマーカ付き地図画像作成処理を説明するフローチャートである。
【図39】マーカ付き地図画像の例を示す図である。
【図40】日記サービス提供サーバの日付情報と位置情報抽出処理を説明するフローチャートである。
【図41】日記サービス提供サーバのGPS情報抽出処理を説明するフローチャートである。
【符号の説明】
11 ネットワークハンディカム, 12 ブルートゥースアダプタ, 13公衆回線網, 14 インターネットサービスプロバイダ, 15 日記サービス提供サーバ, 16 Webサーバ, 17 情報端末装置, 31 制御用マイコン, 33 GPS受信機, 36 画像処理回路, 101 CPU, 109 記憶部, 131 天気情報データベース, 132 ニュースデータベース, 133 JPOPデータベース, 134 地図データベース, 135 地名データベース, 136 日記ファイル, 151 CPU
[0001]
BACKGROUND OF THE INVENTION
  The present invention provides a service providing system,Information processing deviceAnd a service providing system that makes it possible to publish a photographed image on a web page with a simple operation, in particular,Information processing deviceAnd a method, a recording medium, and a program.
[0002]
[Prior art]
Conventionally, for example, a photographed image taken with a digital still camera or the like can be disclosed on a web page.
[0003]
[Problems to be solved by the invention]
However, publishing a Web page including a photographed image on a network has been a problem in the past, and it requires a lot of work and requires advanced technology and knowledge.
[0004]
That is, in order to publish a Web page including a photographed image on a network, first, the photographed image is taken into a personal computer from a digital image recording apparatus such as a digital still camera. Next, a file is created in HTML (Hyper Text Markup Language) taking into account the link with the image file of the photographed image. Next, upload the image file and HTML file to the Web server. For the first time through the above operations, a Web page that includes a photographed image can be published on the network.
[0005]
In order to perform the processing as described above, a complicated operation is required. Accordingly, it has been difficult for a user who is not used to operating a personal computer to publish a photographed image on a Web page. Further, since an apparatus for creating an HTML file such as a personal computer is required, an image photographed with a digital still camera or the like cannot be published on a web page immediately after photographing without a personal computer.
[0006]
By the way, in recent years, there are many users who publish Web pages that describe photographed images and diaries (texts). When a web page describing a photographed image and a diary (text) is published, if there is photographing time information and photographing location information of the photographed image, it is possible to publish such information along with the photographed image on the web page. By publishing the shooting time information and shooting location information along with the shot image, the person browsing the Web page can know when and where the shot image was taken. Also, if information such as what news was on the day of shooting and what the weather was like is published on the web page, the person who viewed the web page will see the day the image was taken You can get news and weather information.
[0007]
However, it takes time and effort for the user to input information such as shooting time, shooting location, shooting date weather, and shooting date news. In addition, with regard to past photographed images, the above-described information can be input only within a range that is remembered. There is no service that automatically incorporates this information and creates a Web page.
[0008]
In addition, there is a service in which when an e-mail is transmitted with a photographed image attached, a map indicating the position of the photographed image and the photographing location is automatically attached to the text of the e-mail and transmitted to the transmission partner. However, in this case, since the e-mail transmission time is used as time information, the other party who receives the e-mail and sees it cannot know the shooting time of the shot image.
[0009]
The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to publish a photographed image on a Web page with a simple operation.
[0010]
[Means for Solving the Problems]
  The first of the present inventionIn the service providing system, the photographing apparatus includes a first creating unit that photographs a subject and creates a photographed image, a first obtaining unit that obtains position information indicating a photographing location where the subject is photographed, and the subject is photographed. Acquired by the second acquisition means for acquiring the time information indicating the date and time, the position information acquired by the first acquisition means, and the second acquisition means for the captured image created by the first creation means First storage means for adding and storing the time information added thereto, and transmission means for transmitting the captured image stored with the position information and time information added by the first storage means to the information processing apparatus. The information processing apparatus includes: a second storage unit that stores the map image; a receiving unit that receives the captured image from the imaging device; and a positional information added to the captured image received by the receiving unit. 2 rememberers The second creation means for creating a marker-added map image by attaching a marker to the shooting location of the shot image on the map image stored in the above, the shot image received by the receiving means, and the second creation means Based on the time information added to the captured image, the marker-added map image created byEvery hourThird storage means for classifying and storingPre-set predetermined Web 3rd acquisition means for acquiring predetermined information from the site, 4th storage means for storing predetermined information acquired by the 3rd acquisition means in association with time, and received by the reception means Reading means for reading out predetermined information associated with the time when the photographed image was photographed from the predetermined information stored by the fourth storage means based on the time information added to the photographed image;By the third storage meansEvery hourCaptured images classified and stored inMap image with marker, and predetermined information read by reading meansIncludeEvery hourThe third creation means for creating the Web page, and the publication means for publishing the Web page created by the third creation means on the network.
[0017]
  The first of the present inventionThe information processing apparatus receives from the imaging device a first storage unit that stores a map image and a captured image that is captured by the imaging device and to which position information indicating a shooting location and time information indicating a shooting date and time are added. Based on the first receiving means and the positional information received by the first receiving means and added to the photographed image, the shooting location of the photographed image on the map image stored by the first storage means A first creation unit that creates a marker-added map image with a marker, the captured image received by the first reception unit, and the marker-added map image created by the first creation unit are used as a captured image. Based on the added time information,Every hourSecond storage means for classifying and storingPre-set predetermined Web An acquisition unit that acquires predetermined information from the site, a third storage unit that stores the predetermined information acquired by the acquisition unit in association with time, and a captured image received by the first reception unit. Reading means for reading out the predetermined information associated with the time when the captured image was captured from the predetermined information stored by the third storage means based on the added time information;A captured image classified and stored for each date by the second storage means;Map image with marker, and predetermined information read by reading meansIncludeEvery hourThe second creation means for creating the web page and the publication means for publishing the web page created by the second creation means on the network.
[0019]
  The predetermined information may include at least one or more of information related to weather, information related to news, and information related to music.
  The second storage means stores the marker-added map image and the photographed image classified by date, and the third storage means stores the predetermined information in association with the date. The second creation means includes a date for each date. Web You can create a page.
[0021]
When a request is received by a second receiving means for receiving a request for the list of dates on which the captured images are classified by the second storage means, and a second receiving means from another information processing apparatus. A third creation means for creating a list of the dates on which the photographed images are classified, a transmission means for sending the list of dates created by the third creation means to another information processing apparatus, And a third receiving means for receiving a request for browsing the Web page on the date selected from the date list from the information processing apparatus, wherein the publishing means includes a third receiving means. The Web page on the date on which the browsing request is received by the means can be disclosed to another information processing apparatus.
[0022]
The first storage means stores the map image decomposed into a plurality of parts, and the first creation means adds the photographed image received by the first reception means to the first image means. Based on the position information, the map image including the shooting location is selected from the plurality of map images stored by the first storage unit, and the shooting on the map image is selected. The marker may be attached to the shooting location of the image to create the map image with the marker.
[0023]
  The first of the present inventionIn the information processing method, a first storage step that stores a map image and a captured image that is captured by the imaging device and to which position information indicating a shooting location and time information indicating a shooting date and time are added are received from the imaging device. Based on the receiving step and the positional information added to the captured image received by the processing of the receiving step, a marker is placed at the shooting location of the captured image on the map image stored by the processing of the first storage step. At the same time, a first creation step for creating a marker-added map image, a captured image received by the processing of the reception step, and a map-added map image created by the processing of the first creation step are added to the captured image. Based on the time informationEvery hourA second storage step for classifying and storingPre-set predetermined Web An acquisition step for acquiring predetermined information from the site, a third storage step for storing the predetermined information acquired by the processing of the acquisition step in association with time, and a captured image received by the processing of the reception step A step of reading out predetermined information associated with the time when the captured image was captured from the predetermined information stored by the processing of the third storage step based on the time information added toBy the processing of the second storage stepEvery hourCaptured images classified and stored inMap image with marker, and predetermined information read out by the process of the reading stepIncludeEvery hourA second creation step for creating the web page, and a publication step for publishing the web page created by the processing of the second creation step on the network.
[0024]
  The first of the present inventionThe program of the recording medium is added with a first storage control step for controlling the storage of the map image, position information indicating the shooting location, and time information indicating the shooting date and time, which are shot by the shooting device from the shooting device. The storage is controlled by the process of the first storage control step based on the reception control step for controlling the reception of the photographed image and the position information added to the photographed image whose reception is controlled by the process of the reception control step. A first creation step for creating a marker-added map image by attaching a marker to the shooting location of the shot image on the map image, and a shot image whose reception is controlled by the processing of the reception control step, and the first creation Based on the time information added to the captured image of the marker-added map image created by the processing of the step,Every hourA second storage control step for controlling storage classified intoPre-set predetermined Web An acquisition step for acquiring predetermined information from the site, a third storage control step for controlling storage of the predetermined information acquired by the processing of the acquisition step in association with time, and reception by the processing of the reception control step Based on the time information added to the photographic image for which control is performed, the predetermined information associated with the time when the photographic image was captured is read out from the predetermined information stored by the processing of the third storage control step. A read step;By the processing of the second storage control stepEvery hourCaptured images classified and stored inMap image with marker, and predetermined information read out by the process of the reading stepIncludeEvery hourA second creation step for creating the web page, and a publication step for publishing the web page created by the processing of the second creation step on the network.
[0025]
  The first program of the present invention includes a first storage control step for controlling storage of a map image, position information indicating a shooting location, and time information indicating a shooting date and time, which are shot by the shooting device from the shooting device. Based on the reception control step for controlling the reception of the added photographed image and the position information added to the photographed image whose reception is controlled by the processing of the reception control step, the memory is stored by the processing of the first storage control step. A first creation step of creating a marker-added map image by attaching a marker to the shooting location of the shot image on the controlled map image, a shot image whose reception is controlled by the processing of the reception control step, and a first 2nd description which controls the memory | storage classified according to time of the map image with a marker produced by the process of 1 preparation step based on the time information added to the picked-up image. A control step, an acquisition step of acquiring predetermined information from a predetermined Web site set in advance, and a third storage for controlling storage of the predetermined information acquired by the processing of the acquisition step in association with time Based on the control step and the time information added to the captured image received by the process of the reception control step, from the predetermined information stored by the process of the third storage control step, A readout step for reading out the associated predetermined information, and a captured image, a map image with marker, and a predetermined readout read out by the processing of the readout step, classified and stored for each time by the processing of the second storage control step. The second creation step to create a web page for each hour including the information of the information, and the web page created by the processing of the second creation step Characterized in that to execute a public step of publishing on over click to the computer.
  In the second service providing system of the present invention, the imaging device acquires a first creation unit that creates a photographed image by photographing a subject, and a first acquisition that obtains position information indicating a photographing location where the subject is photographed. Means, second acquisition means for acquiring first time information indicating the date and time when the subject was photographed, and positional information acquired by the first acquisition means on the captured image created by the first creation means. , And first storage means for adding and storing the first time information acquired by the second acquisition means, first input means for inputting a sentence, and correspondence to the sentencedateThe second input means for inputting the second time information indicating the second time, and the second time information input by the second input means is added to the sentence input by the first input means and stored. Two storage means, a first transmission means for transmitting the captured image stored with the position information and the first time information added thereto by the first storage means, and a second storage means. A second transmission unit configured to transmit the text stored with the second time information added thereto to the information processing device; the information processing device includes: a third storage unit configured to store a map image; and a photographing device. The first receiving means for receiving the photographed image and the photograph on the map image stored in the third storage means based on the positional information added to the photographed image received by the first receiving means. Attach a marker to the location where the image was taken to display a map with a marker A second creating means for creating the second receiving means, a second receiving means for receiving the text to which the second time information is added from the photographing device, a photographed image received by the first receiving means, and a second Based on the first time information added to the captured image, the marker-added map image created by the creating means,dateAnd classifying and storing each sentence received by the second receiving means based on the second time information,dateBy a fourth storage means for classifying and storing each, and a fourth storage meansdateIncludes photographed images, marker-added map images, and sentences that are classified and stored for each.dateA third creation means for creating each web page; and a publication means for publishing the web page created by the third creation means on the network.And
  According to a second information processing apparatus of the present invention, the first storage means for storing a map image, the position information indicating the shooting location, and the first time information indicating the shooting date and time, which are shot by the shooting apparatus from the shooting apparatus. A map image stored in the first storage means based on the position information added to the photographed image received by the first receiver means and the first receiver means for receiving the photographed image to which is added The first creation means for creating a marker-added map image by attaching a marker to the photographing location of the photographed image above should be associated with the sentence and the sentence from the photographing apparatus.dateThe second receiving means for receiving the second time information indicating, the captured image received by the first receiving means, and the marker-added map image created by the first creating means are added to the photographed image. Based on the first time informationdateAnd classifying and storing each sentence received by the second receiving means based on the second time information,dateA second storage means for classifying and storing each, and a second storage meansdateIncludes photographed images, marker-added map images, and sentences that are classified and stored for each.dateIt is characterized by comprising second creation means for creating each web page and publication means for publishing the web page created by the second creation means on the network.
  In the second storage means, when the second time information is predetermined information, the sentence is updated.dateCan be classified and memorizedit can.
  According to a second information processing method of the present invention, a first storing step for storing a map image, position information indicating a shooting location, and first time information indicating a shooting date and time, which are shot by the shooting device from the shooting device. A marker-added map is provided by attaching a marker to the shooting location of the shot image on the map image based on the first reception step of receiving the shot image to which is added and the positional information added to the received shot image. The first creation step for creating an image should be associated with the sentence and the sentence from the photographing apparatus.dateBased on the first time information added to the captured image, the second reception step of receiving the second time information indicating the received captured image and the created map-attached map image,dateAnd classifying and storing the received sentence based on the second time information,dateA second storage step for classifying and storing each;dateIncludes photographed images, marker-added map images, and sentences that are classified and stored for each.dateA second creation step for creating each web page and a publication step for publishing the created web page on the network are included.
  The third recording medium program of the present invention or the third program of the present invention is a first storage control step for controlling the storage of a map image, and is photographed by the photographing device from the photographing device and indicates the photographing location. On the map image, based on the first reception control step for controlling the reception of the captured image to which the position information and the first time information indicating the shooting date and time are added, and the position information added to the received captured image. The first creation step of creating a map image with a marker by attaching a marker to the photographing location of the photographed image should be associated with the sentence and the sentence from the photographing devicedateThe second reception control step for controlling the reception of the second time information indicating, the received captured image, and the created map-attached map image based on the first time information added to the captured image ,dateClassify everydateWhile controlling the storage of the photographed image and the map-attached map image classified for each, the received sentence is based on the second time information,dateClassify everydateA second storage control step for controlling storage of sentences classified for each;dateIncludes photographed images, marker-added map images, and sentences that are classified and stored for each.dateA second creation step for creating each web page and a publication step for publishing the created web page on the network are included.
[0026]
  The first of the present inventionIn the service providing system, the photographing device creates a photographed image by photographing the subject, acquires position information indicating a photographing location where the subject is photographed, obtains time information indicating a date and time when the subject is photographed, The acquired position information and time information are added to and stored in the created captured image. Thereafter, the captured image added with the position information and the time information is transmitted to the information processing apparatus. In the information processing apparatus, a map image is stored in advance. Based on the position information added to the captured image received from the imaging apparatus, a marker is displayed on the stored location of the captured image on the map image. Is attached, a marker-added map image is created, and the received captured image and the created marker-added map image are based on time information added to the captured image,Every hourIt is classified and stored. AndPre-set predetermined Web Predetermined information is acquired from the site, the acquired predetermined information is stored in association with time, and based on the time information added to the received captured image, the captured image is captured from the predetermined information. The predetermined information associated with the specified time is read andCaptured images classified and stored inMap image with marker and predetermined informationIncludeEvery hourA web page is created and published on the network.
[0028]
  In the first information processing apparatus and method, recording medium, and program of the present invention, a map image is stored in advance. Then, a captured image to which position information indicating the shooting location and time information indicating the shooting date / time is added is received from the shooting device, and the map image is stored in advance based on the position information added to the shot image. A marker is attached to the shooting location of the shot image, a map image with a marker is created, and the received shot image and the created map image with a marker are based on time information added to the shot image, It is classified and stored by time. Then, predetermined information is acquired from a predetermined website set in advance, the acquired predetermined information is stored in association with time, and based on the time information added to the received captured image, Predetermined information associated with the time at which the captured image was captured is read out from the stored predetermined information, and the captured image, the map image with the marker, and the read out are classified and stored for each time. A web page for each hour containing predetermined information is created and published on the network.
  In the second service providing system of the present invention, in the photographing apparatus, a subject is photographed to create a photographed image, position information indicating a photographing location where the subject is photographed is acquired, and the date and time when the subject is photographed is indicated. First time information is acquired, and the acquired position information and first time information are added to the created captured image and stored. Then, the text is entered and associated with the textdateThe second time information indicating the second time information is input, the second time information is added to the input sentence and stored, and the captured image stored with the position information and the first time information added is processed. The sentence transmitted to the apparatus and stored with the second time information added thereto is transmitted to the information processing apparatus. Further, the information processing apparatus stores a map image, receives the captured image from the imaging apparatus, and based on the positional information added to the received captured image, the captured image on the stored map image is stored. A marker is attached to the shooting location, and a marker-added map image is created. Then, the sentence to which the second time information is added is received from the photographing device, and the received photographed image and the map image with the marker are based on the first time information added to the photographed image.dateEach received sentence is classified and stored, and the received sentence is based on the second time information.dateEach is classified and stored. further,dateIncludes photographed images, marker-added map images, and sentences that are classified and stored for each.dateEach web page is created and the created web page is published on the networkIs done.
  In the second information processing apparatus and method, recording medium, and program of the present invention, a map image is stored, and is photographed by the photographing device from the photographing device, and position information indicating the photographing location, and the first indicating the photographing date and time. A captured image to which the time information is added is received, and a marker is attached to the shooting location of the captured image on the stored map image based on the received position information added to the captured image, A map image with a marker is created, and text and text should be associated from the cameradateThe second time information indicating is received. Then, based on the first time information added to the captured image, the received captured image and the created map-attached map image aredateEach received sentence is classified and stored, and the received sentence is based on the second time information.dateIt is classified and memorized every time,dateIncludes captured images, map images with markers, and text that are classified and stored for eachdateEach web page is created and the created web page is published on the network.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a configuration example of a service providing system to which the present invention is applied. In this service providing system, an Internet service provider (ISP) 14, a diary service providing server 15, Web servers 16-1, 16-2, 16-3 (hereinafter referred to as Web servers 16-1, 16) with respect to the Internet 10. When it is not necessary to individually distinguish each of −2 and 16-3, they are collectively referred to as a Web server 16), and an information terminal device 17 is connected.
[0030]
The Internet service provider 14 is connected to the public line network 13, and the Bluetooth adapter 12 is also connected to the public line network 13. The network handycam (trademark) 11 is connected to the Bluetooth adapter 12 by short-range wireless communication using Bluetooth (trademark), and can be connected to the Internet service provider 14 via the public network 13 from there. .
[0031]
The Internet service provider 14 includes an access point that performs communication processing with the public line network 13, a customer database that registers various types of user information, and a mail server. The mail server further includes a POP server and an SMTP (Simple Mail Transfer Protocol) server. The POP server mainly manages mail transmission / reception processing with the network handycam 11. The SMTP server mainly manages mail transmission / reception with other SMTP servers.
[0032]
The diary service providing server 15 registers and manages the image data transmitted from the network handycam 11 according to the date and place where the image was taken.
[0033]
The Web server 16 establishes a Web site on the Internet 10. The Web server 16 provides information using, for example, HTTP (HyperText Transfer Protocol) and HTML. In the example of FIG. 1, the Web server 16-1 provides weather information (meteorological information), the Web server 16-2 provides daily news information, and the Web server 16-3 stores music in Japan. It provides information on sales order (including CD (Compact Disc) sales and distribution of songs via the network).
[0034]
The information terminal device 17 is a device operated by a user who is the owner of the network handycam 11. The information terminal device 17 is a general-purpose personal computer in the example of FIG. The information terminal device 17 may use a portable information terminal device, a mobile phone, or a PHS (Personal Handy-phone System) instead of a general-purpose personal computer. Further, an electronic device other than the above that can be connected to the Internet 10 may be used.
[0035]
FIG. 2 shows a configuration example of the network handycam 11. The network handycam 11 is a camera-integrated video tape recorder and has a function of accessing the Internet 10. In FIG. 2, the control microcomputer 31 controls the operation of the entire network handycam 11 via the bus 34. The control microcomputer 31 executes various processes according to a built-in program or a program loaded in a DRAM (Dynamic Random Access Memory) 35. The control microcomputer 31 executes a corresponding process in accordance with an instruction input from the operation input unit 32 by the user.
[0036]
The control microcomputer 31 is also connected to a GPS (Global Positioning System) receiver 33 via a serial interface (serial I / F) 71. The control microcomputer 31 has a built-in clock 72 and can acquire the current time.
[0037]
The operation input unit 32 includes various buttons, switches, and the like. The operation input unit 32 receives an operation input from the user and outputs operation information corresponding to the input operation to the control microcomputer 31.
[0038]
The GPS receiver 33 receives radio waves from the position measurement satellite, calculates the current position (latitude / longitude) of the network handycam 11, and outputs it to the control microcomputer 31. For example, the GPS receiver 33 calculates the current position once per second.
[0039]
The DRAM 35 temporarily stores the image data supplied from the image processing circuit 36 via the bus 34 and supplies the image data to the image processing circuit 36 at a predetermined timing. The DRAM 35 also appropriately stores data necessary for the control microcomputer 31 to execute various processes.
[0040]
The image processing circuit 36 controls image capturing by the CCD 37 and image display on the display 38. Further, the image processing circuit 36 compresses and decompresses image data by an image compression / decompression unit 81.
[0041]
The memory card controller 39 performs writing, rewriting, erasing, reading, and the like of data to the memory card 40 as a portable semiconductor memory.
[0042]
EEPROM (Electrically Erasable Programmable Read Only Memory) 41 stores data that needs to be stored even after the power is turned off.
[0043]
The speaker 42 outputs a sound corresponding to the sound data supplied via the bus 34. For example, the speaker 42 outputs sound corresponding to the moving image reproduced by the recording / reproducing unit 45. For example, the speaker 42 outputs sound corresponding to the operation status of the network handycam 11. The microphone 43 takes in an audio signal.
[0044]
The communication unit 44 performs short-range wireless communication with the Bluetooth adapter 12 using Bluetooth.
[0045]
The recording / reproducing unit 45 records video data picked up by the CCD 37, audio data picked up by the microphone 43, and the like on the attached cassette magnetic tape. The recording / reproducing unit 45 reproduces video data and audio data recorded on the cassette magnetic tape, supplies the video data to the image processing circuit 36, and supplies the audio data to the speaker 42. The image processing circuit 36 outputs and displays an image corresponding to the video data supplied from the recording / reproducing unit 45 on the display 38, and the speaker 42 outputs sound corresponding to the audio data.
[0046]
The storage unit 46 acquires and stores a computer program from the magnetic disk 51, the optical disk 52, the magneto-optical disk 53, or the semiconductor memory 54 via the drive 48, for example. The stored computer program is loaded into the DRAM 35 and executed at a predetermined timing.
[0047]
An input / output interface (input / output I / F) 47 is also connected to the bus 34. A drive 48 is connected to the input / output interface 76 as necessary, and a magnetic disk 51, an optical disk 52, a magneto-optical disk 53, a semiconductor memory 54, or the like is appropriately mounted, and a computer program read from them is necessary. Is installed in the storage unit 46 accordingly.
[0048]
FIG. 3 shows a configuration example of the diary service providing server 15. In FIG. 3, the CPU 101 executes various processes according to a program stored in the ROM 102 or a program loaded from the storage unit 109 to the RAM 103. The RAM 103 also appropriately stores data necessary for the CPU 101 to execute various processes.
[0049]
The CPU 101, ROM 102, and RAM 103 are connected to each other via a bus 104. An input / output interface 105 is also connected to the bus 104.
[0050]
The input / output interface 105 includes an operation unit 106 such as a keyboard and a mouse, an audio output unit 107 such as a speaker, a display 108 such as a CRT (Cathode-Ray Tube) and an LCD (Liquid Crystal Display), and a hard disk. Is connected to a communication unit 110 including a storage unit 109, a modem, a terminal adapter, and the like. The communication unit 110 performs communication processing via a network including the Internet 10.
[0051]
A drive 111 is connected to the input / output interface 105 as necessary, and a magnetic disk 121, an optical disk 122, a magneto-optical disk 123, a semiconductor memory 124, and the like are appropriately mounted, and a computer program read from them is Installed in the storage unit 109 as necessary.
[0052]
The hardware configurations of the Web servers 16-1, 16-2, and 16-3 are basically the same as those of the diary service providing server 15 although illustration is omitted.
[0053]
FIG. 4 shows an example of data stored in the storage unit 109 of the diary service providing server 15. As shown in FIG. 4, the storage unit 109 stores a weather information database 131, a news database 132, a JPOP database 133, a map database 134, a place name database 135, and a diary file 136.
[0054]
The weather information database 131 is a database in which date, weather, humidity, maximum temperature, maximum normal temperature, minimum temperature, atmospheric pressure, precipitation, and wind speed are recorded in this order for each date.
[0055]
For example, if the weather information for a day is
Date September 17, 2001
Weather
Humidity 60%
Maximum temperature 27.8 ℃
Maximum normal temperature 26 ℃
Minimum temperature 21.2 ℃
Atmospheric pressure 1005hPa
0 mm of precipitation
Wind speed 3m / s
In the weather information database 131, these pieces of information are separated by spaces, and in the order of date / time, weather, humidity, maximum temperature, maximum temperature normal value, minimum temperature, atmospheric pressure, precipitation, wind speed, As recorded.
[0056]
200 10917 Cloudy 26.9 60 27.8 26 21.2 1005 0 3
[0057]
In the weather information database 131, past weather information is recorded for each date in the above format. The diary service providing server 15 acquires weather information from the Web server 16-1 and records it in the weather information database 131 every day. Therefore, the weather information database 131 is updated every day, and weather information of a new date is added. As a result, the weather information database 131 records the weather information for all dates after the start date of the weather information recording.
[0058]
The news database 132 in FIG. 4 is a database that records news information for each day. In the news database 132, the date and time and the text of the news information are recorded separated by commas (,).
[0059]
For example, a news report on September 20, 2001 shows that “Team A in the US Major League League decided to win the third A-League West District for the first time in four years on the 19th. In the case of “12:49)”, the news database 132 records the date and time and the text of the news separated by a comma (,) as follows.
[0060]
20010920, US Major League Baseball Team A won the A-League West District for the first time in four years on the 19th. Team B, who was in second place this day, lost to Team C, so the championship was decided. (12:49)
[0061]
In the news database 132, past news information is recorded in the above format for each date. The diary service providing server 15 acquires news information from the Web server 16-2 and records it in the news database 132 every day. Accordingly, the news database 132 is updated every day, and news information of a new date is added. As a result, the news database 132 records news information for all dates after the start date of news information recording.
[0062]
The JPOP database 133 in FIG. 4 is a database in which information relating to the sales order of music for each day (hereinafter also referred to as sales information) is recorded. In the JPOP database 133, date / time, rank, song name, and singer name are recorded in this order, separated by commas.
[0063]
For example, on September 17, 2001, the title of the song with the highest sales ranking is “Title A”, the name of the singer is “Singer A”, the title of the song with the second highest sales ranking is “Title B”, and the name of the singer is “Singer B”. The title of the song with the third highest sales rank is “title C”, the name of the singer “singer C”, the title of the fourth highest sales title is “title D”, the name of the singer “singer D”, and the title of the fifth highest sales title is When “title E” and the singer name is “singer E”, the information is recorded in the JPOP database 133 in the order of date and time, rank, song name, and singer name, separated by commas as follows. The
[0064]
20010917,1, Title A, Singer A
20010917,2, Title B, Singer B
20010917,3, Title C, Singer C
20010917,4, Title D, Singer D
20010917,5, Title E, Singer E
[0065]
In the JPOP database 133, past sales information is recorded for each date in the above format. The diary service providing server 15 acquires the sales information from the Web server 16-3 every day and records it in the JPOP database 133. Therefore, the JPOP database 133 is updated every day, and the sales ranking of the new date is added. As a result, the sales order information for all the dates after the sales information recording start date is recorded in the JPOP database 133.
[0066]
The map database 134 shown in FIG. 4 includes a plurality of map image files and a map image information management file having information on these map image files. Detailed description of the map database 134 will be described later.
[0067]
The place name database 135 in FIG. 4 is a database in which the positions (latitude / longitude) of landmarks serving as landmarks on the map are recorded for a plurality of landmarks. In the place name database 135, north latitude (second conversion), east longitude (second conversion), landmark name, east longitude (degree minute second), and north latitude (degree minute second) are recorded in this order, separated by commas. Yes.
[0068]
For example, the position of a certain landmark (for example, “Baseball Field A” as a landmark) on the map is 35 degrees 42 minutes 10.0 seconds north (503118.0 seconds in seconds), 139 degrees 45 minutes 18.0 seconds east longitude (seconds) If converted to 128530.0 seconds), the place name database 135 will separate these information with commas, north latitude (second conversion), east longitude (second conversion), landmark name, east longitude, east longitude, east longitude Are recorded in the following order, in seconds, north latitude, north latitude, north latitude minutes, north latitude seconds, and north latitude seconds.
[0069]
128530.0,503118.0, Baseball Field A, 139,45,18,0,35,42,10,0
[0070]
In the place name database 135, the positions of landmarks on the map are recorded in the above format. When there is a Web page related to a building that is a landmark, the landmark name is marked up with an HTML <A> tag and recorded in the place name database 135.
[0071]
128234.7,503050.7, <A HREF="http://www.xxxxxxx.co.jp/index.html"target="_new"> Landmark A <A/>, 139,44,10,70,35,37 , 14,70
[0072]
The diary file 136 in FIG. 4 is a database in which received image data, diary text, and the like are recorded for each user by an upload process or a request letter receiving process described later.
[0073]
FIG. 5 illustrates a configuration example of the information terminal device 17. The CPU 151 to the semiconductor memory 174 constituting the information processing apparatus 17 are basically the same as the CPU 101 to the semiconductor memory 124 constituting the diary service providing server 15 of FIG. It has a function. Therefore, those descriptions will be repeated and will be omitted.
[0074]
When the user operates the operation input unit 32 of the network handycam 11 to set the camera mode and perform shooting, the image data shot by the CCD 37 is recorded on the cassette magnetic tape by the recording / playback unit 45. . When the user operates the operation input unit 32 to set the memory mode and perform shooting, the image shot by the CCD 37 is compressed by the image compression / decompression unit 81 in the image processing circuit 36 and stored in the memory. The data is recorded on the memory stick 40 via the card controller 39.
[0075]
Next, the still image shooting process of the network handycam 11 will be described with reference to the flowchart of FIG. It is assumed that the network handycam 11 is already in the memory mode by an operation input from the operation input unit 32. The operation input unit 32 of the network handycam 11 is provided with a button (shutter button) for instructing to capture a still image, and the user presses the shutter button to capture a still image. Can be input.
[0076]
In step S31 of FIG. 6, the control microcomputer 31 determines whether or not a still image shooting instruction has been input based on an operation input from the operation input unit 32, and the still image shooting instruction is input. Wait until If a still image shooting instruction has been input, the process proceeds to step S32.
[0077]
In step S32, the control microcomputer 31 instructs the image processing circuit 36 to shoot a still image. The image processing circuit 36 captures a still image with the CCD 37 to generate image data, and supplies the image data to the DRAM 35. The DRAM 35 stores the image data supplied from the image processing circuit 36.
[0078]
In step S <b> 33, the control microcomputer 31 acquires the current time at the moment when the image processing circuit 36 has generated the image data from the clock 72, generates date information including this, supplies it to the DRAM 35, and stores it.
[0079]
After the process of step S33, in step S34, the control microcomputer 31 acquires position information indicating the current position of the network handycam 11 from the GPS receiver 33 via the serial interface 71, and stores this position information in the DRAM 35. Supply. The DRAM 35 stores position information supplied from the control microcomputer 31. The position information is composed of information on the latitude and longitude of the current position of the network handycam 11.
[0080]
After the process of step S34, the process proceeds to step S35, and the control microcomputer 31 instructs the image processing circuit 36 to create an image file to be recorded on the memory card 40. The image processing circuit 36 reads the image data stored in the DRAM 35 in step S32. In step S36, the image processing circuit 36 compresses the image data read in step S35 by the image compression / decompression unit 81 to create an image file.
[0081]
After the process of step S36, in step S37, the image processing circuit 36 reads the position information stored in the DRAM 35 in step S34 and the date information stored in the DRAM 35 in step S33. In step S38, the image processing circuit 36 records the position information and date information read in step S36 in the header of the image file compressed in step S36.
[0082]
In step S39, the control microcomputer 31 causes the memory card controller 39 to supply the image file generated by the image processing circuit 36 in step S38 and having the position information and date information recorded in the header from the image processing circuit 36 to the memory card controller 39. The data is recorded on the card 40.
[0083]
As described above, a still image is captured by the network handycam 11, and the captured still image is stored in the memory card 40 as an image file to which position information is added.
[0084]
The image file photographed by the network handycam 11 and recorded in the memory card 40 can be transferred to the diary service providing server 15 via the Internet 10 and registered. Next, this process will be described. In order to perform this process, the user of the network handycam 11 needs to register user information in advance, receive an ID and password assignment, and store them in the EEPROM 41. A user who has been assigned an ID and password can use the service provided by the diary service providing server 15 using the same ID and password.
[0085]
Next, the upload process of the network handycam 11 will be described with reference to the flowchart of FIG.
[0086]
When the user instructs to upload an image file by operating the operation input unit 32, the control microcomputer 31 reads the data for the upload screen stored in advance in the storage unit 46 in step S51, The image is output to the display 38 via the image processing circuit 36 and displayed. FIG. 8 shows a display example in this case. In this example, an album button 201 that is operated when a predetermined album is selected from a plurality of albums is displayed. The network handycam 11 can also classify the images into a plurality of albums and upload them to the diary service providing server 15. The album button 201 is operated when classifying and recording the albums.
[0087]
The image selection button 203 is operated when selecting an image to be uploaded. On the right side of the image selection button 203, a display unit 204 and a display unit 205 are provided. The display unit 204 displays the number of images selected so far. The display unit 205 on the right side displays the total data amount of the number of images displayed on the display unit 204 in kilobytes.
[0088]
The request button 206 is operated when a diary text is transmitted together with an image when the image is uploaded.
[0089]
The send button 207 is operated when sending and registering the selected image (the number of images displayed on the display units 204 and 205 and the data amount) to the diary service providing server 15. An end button 208 is operated to end the upload process.
[0090]
When the image selection button 203 is operated, in step S53, the control microcomputer 31 generates a thumbnail image of each image (still image) stored in the image file stored in the memory card 40, and generates this thumbnail image. The image is output to the display 38 via the image processing circuit 36 and displayed.
[0091]
FIG. 9 shows a display example of thumbnail images in such a case. The user can designate a predetermined one of the displayed thumbnail images as an image to be uploaded. When a predetermined thumbnail image is designated, the image processing circuit 36 displays a check mark on the upper left of the thumbnail image. In the example of FIG. 9, three thumbnail images with numbers 7, 8, and 12 are selected as images to be uploaded.
[0092]
The button 233 is operated to change a thumbnail image to be displayed to a thumbnail image with a lower number. Conversely, the button 234 is operated when the thumbnail image to be displayed is changed to a higher-numbered thumbnail image.
[0093]
The all cancel button 231 is operated when canceling all the checks displayed on this screen and moving to the upload screen (FIG. 8). The decision button 232 is operated when deciding the selection for the displayed thumbnail image.
[0094]
In step S53, as shown in FIG. 9, when the determination button 232 is operated in a state where a predetermined thumbnail image is selected, the control microcomputer 31 specifies an image corresponding to the selected thumbnail image. Get (specify) specified information.
[0095]
In step S54, the control microcomputer 31 determines whether or not an instruction to send a request is instructed. When the request form button 206 shown in FIG. 8 is operated, the control microcomputer 31 determines in step S54 that the request form has been instructed, and is stored in the storage unit 46 in step S55. The request screen data is read out and output to the display 38 via the image processing circuit 36 for display. Thereby, for example, a request form screen as shown in FIG. 10 is displayed. In this display example, an input display unit 252 is provided on the right side of the destination button 251.
[0096]
When the user clicks the destination button 251, the input display unit 252 can enter the date of the diary for recording the diary text. The user operates the operation input unit 32 and inputs the date of the diary in which the diary text is recorded in the input display unit 252. The date is input in the order of year, month, and day, separated by “.”. For example, in the case of August 21, 2001, “2001.08.21” is input to the input display unit 252. However, in the upload process of FIG. 7, a preset keyword (in the example of FIG. 10, the keyword is “cam-chan”) is already input in the input display unit 252. . In the present embodiment, when a keyword is set in advance and the keyword is input to the input display unit 252, the diary text is recorded in the diary with the newest date. Accordingly, in the upload process of FIG. 7, since a preset keyword has already been entered in the input display unit 252, the diary text is recorded in the diary with the newest date.
[0097]
When the user operates the body button 253, the diary text can be input to the input display unit 254 on the right side. The user operates the operation input unit 32 to input a diary sentence in the input display unit 254.
[0098]
The decision button 255 is operated by the user when the address of the request form and the text (diary text) are completed. When the determination button 255 is operated, the control microcomputer 31 acquires the destination data and the body data input to the input display units 252 and 254.
[0099]
If the request form button 206 shown in FIG. 8 is not operated, in step S54, the control microcomputer 31 determines that transmission of the request form is not instructed, and skips the process of step S55.
[0100]
The processes in steps S51 to S55 described above are executed offline. This eliminates the need to connect the network handycam 11 to the diary service providing server 15 via the Internet 10 for a long time.
[0101]
When the transmission button 207 shown in FIG. 8 is operated, the control microcomputer 31 executes a process of accessing the diary service providing server 15 in step S56. That is, the control microcomputer 31 reads the network address stored in the storage unit 46, controls the communication unit 44, and makes it access.
[0102]
As a result, the diary service providing server 15 is accessed via the Bluetooth adapter 12, the public line network 13, the Internet service provider 14, and the Internet 10. Then, the control microcomputer 31 reads the ID and password registered in the EEPROM 41 and transmits them to the diary service providing server 15.
[0103]
More specifically, after connecting to the Internet 10 before connecting to the diary service providing server 15, the ID and password are transmitted to the Internet service provider 14 and the correct authentication result is obtained. The ID and password are transmitted to the diary service providing server 15.
[0104]
At this time, the control microcomputer 31 reads out image data stored in advance in the storage unit 46, and outputs it to the display 38 via the image processing circuit 36 for display. Thereby, for example, an image of the message “Dialing” as shown in FIG. 11 is displayed. Thereafter, for example, a message “ID and password is being authenticated” as shown in FIG. 12 is displayed.
[0105]
When the diary service providing server 15 authenticates the ID and password transmitted from the network handycam 11 and is authenticated as a legitimate user, the authentication result is the Internet 10, the Internet service provider 14, the public line network. 13, and transmitted to the network handycam 11 via the Bluetooth adapter 12.
[0106]
In step S57, the control microcomputer 31 determines whether or not an authentication OK signal has been transmitted from the diary service providing server 15, and if it has been transmitted (the authentication OK message transmitted in step S75 in FIG. 16). If it is determined that a signal has been received), the process proceeds to step S58, and the control microcomputer 31 transmits the image file to be uploaded to the diary service providing server 15. Here, the image file to be transmitted is the image file specified in the process of step S53 (the image file corresponding to the thumbnail image checked in the display example of FIG. 9). In addition, when transmission of a request is instructed in step S54, and destination data and body data are input to the input display units 252 and 254 in FIG. 10 in step S55, the control microcomputer 31 determines that the image file is in step S58. At the same time, a request including address data and text data is also transmitted to the diary service providing server 15.
[0107]
In step S58, the control microcomputer 31 displays an “uploading” message on the display 38 via the image processing circuit 36, for example, as shown in FIG. 13, while the image file is being transmitted. . When all image data is transmitted and upload completion is notified from the diary service providing server 15, the control microcomputer 31 is displayed on the display 38 via the image processing circuit 36, for example, as shown in FIG. Display the message “Upload complete”.
[0108]
When it is determined in step S57 that an authentication OK signal has not been received from the diary service providing server 15 (when it is determined that the authentication NG signal transmitted in step S81 in FIG. 16 has been received), the password and ID In this case, the process proceeds to step S59, and the control microcomputer 31 executes error processing. That is, in this case, the user cannot upload the image file to the diary service providing server 15.
[0109]
After step S58 or step S59, the process proceeds to step S60, where the control microcomputer 31 controls the communication unit 44 to execute processing for disconnecting the network.
[0110]
When the network is disconnected in step S60, the control microcomputer 31 causes the display 38 to display a “network disconnection” message as shown in FIG. 15, for example, via the image processing circuit 36.
[0111]
As described above, since the network handycam 11 is actually connected to the diary service providing server 15 only when the image file is actually transmitted, the connection time can be shortened. As a result, if the user's fee for using the network corresponds to the usage time, the usage fee can be reduced. Further, network traffic can be further reduced, and more users can efficiently transfer image data.
[0112]
Next, the process of the diary service providing server 15 executed corresponding to the process of the network handycam 11 will be described with reference to the flowchart of FIG.
[0113]
In step S71, when the CPU 101 of the diary service providing server 15 receives access from the network handycam 11, it receives the authentication data transmitted from the network handycam 11 in step S72. This authentication data is composed of an ID and a password.
[0114]
When the CPU 101 receives the authentication data via the communication unit 110, the CPU 101 confirms the authentication data in step S73 based on the database stored in the storage unit 109. Then, based on the result of the confirmation, the CPU 101 determines whether or not the authentication is OK in step S74. If the authentication is OK, the CPU 101 proceeds to step S75 and transmits an authentication OK signal to the network handycam 11. To do. When this authentication OK is notified, as described above, the network handycam 11 performs the process of step S58 in FIG. 7 and the image file is transmitted from the network handycam 11.
[0115]
In step S76, the CPU 101 receives the image file via the communication unit 110. In step S77, the CPU 101 records the received image file in the designated diary. Here, the image file recording process of step S77 will be described in detail with reference to the flowchart of FIG.
[0116]
In step S91 in FIG. 17, the CPU 101 of the diary service providing server 15 analyzes the header of the image file received in step S76 in FIG. 16, and extracts date information. The image file has a header as shown in FIG.
[0117]
FIG. 18 shows an image file format standard (Exif; Exchangeable image file format) for a digital still camera. In FIG. 18, SOI (Start of Image) 271 shown at the top on the left is a marker code indicating the head of the compressed data. APP1 (Application Segment1) 272 is Exif attached information. The size of APP1272 does not exceed 64K bytes according to the JPEG standard.
[0118]
Specifically, APP1272 includes APP1 Marker 291 to 1st IFD image data 298 shown on the right side of FIG. APP1 Marker 291 is a marker indicating that it is an application area. APP1 Length 292 represents the size of the application area. The Exif identification code 293 is an identification code indicating that the inside of the APP 1272 is Exif. The 0th IFD 294 records attached information related to a compressed image (image main body). The 0th IFD 294 includes the GPS IFD. This GPS IFD is for describing GPS (Global Positioning System) information, and the latitude and longitude of the position information of the shooting location are recorded here. In addition, an acquisition time indicating the shooting date and time is recorded. The 1th IFD 296, 1th IFD Value 297, and 1th IFD image data 298 are related to the recording of thumbnail images.
[0119]
Returning to the left side of FIG. 18, DQT (Define Quantization Table) 274 is a marker code that defines a quantization table. A DHT (Define Huffman Table) 275 is a marker code that defines a Huffman table. A DRI (Define Restart Interval) 276 is a marker that defines a restart marker insertion interval. SOF (Start of Frame) 277 is a marker code that is located at the beginning of a frame segment and indicates various parameters relating to that frame. SOS (Start of Scan) 278 is a marker code representing various parameters relating to scanning. The compressed data 279 is byte data in which Y, Cb, and Cr are block interleaved at a predetermined ratio and Huffman encoded. EOI (End of Image) 280 is a marker code indicating the end of entropy-encoded data, and is paired with SOI 271.
[0120]
In the present invention, position information (latitude / longitude) of the shooting location recorded in the 0th IFD 294 and date information indicating the shooting date and time are used.
[0121]
In step S <b> 92, the CPU 101 reads the date when the image was taken from the date information read in step S <b> 91, and determines whether a date directory with this date as the folder name has been created in the diary file 136. To do. FIG. 19 shows the configuration of the diary file 136 stored in the storage unit 109 of the diary service providing server 15.
[0122]
As shown in FIG. 19, the diary file 136 has a hierarchical directory structure with the root directory 321 as the highest level, and the next hierarchy is composed of subdirectories 322 and 324 classified for each user. . This hierarchy is composed of subdirectories corresponding to a plurality of users registered in the service provided by the diary service providing server 15 (hereinafter, the subdirectories in this hierarchy are also referred to as user directories). . In the subdirectory 322, subdirectories 323-1 to 323-4 classified by date are configured in a lower hierarchy. Similarly, subdirectories 325-1 to 325-3 classified by date are configured in the lower hierarchy of the subdirectory 324. Hereinafter, the directory classified for each date is also referred to as a date directory.
[0123]
These subdirectories 323-1 to 323-4 and subdirectories 325-1 to 325-3 have the folder name as the date. For example, the subdirectory 323-1 has a folder name “2001.08.21”, which means the date of August 21, 2001. Similarly, the subdirectory 323-2 has a folder name “2001.08.22”, which means the date of August 22, 2001. The same applies to the other subdirectories 323-3 and 323-4, and subdirectories 325-1 to 325-3. In each of the subdirectories 323-1 to 323-4 and the subdirectories 325-1 to 325-3, image files and diary texts captured on the date corresponding to the folder name are stored.
[0124]
Therefore, in step S92, the CPU 101 determines the subdirectory name from the date directories subordinate to the user directory (subdirectory 322) corresponding to the user (for example, user A) of the network handycam 11 that has transmitted the image file. And a determination is made as to whether or not a date directory having a folder name that is the same as the shooting date and time of the received image file exists. As a result, if there is no date directory having the same date as the shooting date and time of the received image file as the folder name, the process proceeds to step S93.
[0125]
In step S93, the CPU 101 sets the shooting date of the received image file in the folder name below the user directory (subdirectory 322) corresponding to the user (for example, user A) of the network handycam 11 that has transmitted the image file. Create a date directory. Thereafter, the process proceeds to step S94.
[0126]
If it is determined in step S92 that there is a date directory whose folder name is the same date as the shooting date and time of the image file received by the CPU 101, step S93 is skipped and the process proceeds to step S94.
[0127]
In step S94, the CPU 101 saves (records) the image file received in step S76 of FIG. 16 in a date directory corresponding to the shooting date of the image file.
[0128]
This is the end of the image file recording process.
[0129]
Returning to FIG. 16, after the process of step S77, in step S78, the CPU 101 determines whether or not a request letter (destination data and body data) is received together with the image file in step S76. If received, the process proceeds to step S79.
[0130]
In step S79, the CPU 101 executes a diary text recording process. Here, the details of the text recording process will be described with reference to the flowchart of FIG.
[0131]
In step S101 in FIG. 20, the CPU 101 analyzes the destination data received together with the image file to determine whether the destination is a date. If the destination is a date, the process proceeds to step S102, and the CPU 101 Creates a text file named “honbun.txt” under the date directory corresponding to the date of the destination data, and pastes the body data into the text file for recording.
[0132]
If the CPU 101 determines in step S101 that the destination is not a date, the process proceeds to step S103, and the CPU 101 determines whether the destination is a keyword. As a result, if the CPU 101 determines that the destination is a keyword, the process proceeds to step S104, and the CPU 101 creates a text file named “honbun.txt” under the date directory corresponding to the latest date. Then, paste the body data into the text file and record it.
[0133]
If the CPU 101 determines in step S103 that the destination is not a keyword, the process proceeds to step S105, and the CPU 101 outputs an error indicating that the body data cannot be recorded.
[0134]
Note that this time, in step S55 of FIG. 7, since the keyword has already been input to the input display unit 252 of FIG. 10, the CPU 101 determines in step S101 that the destination is not a date, and step S103. In step S104, it is determined that the destination is a keyword, and in step S104, text data is pasted and recorded in “honbun.txt” under the date directory corresponding to the latest date.
[0135]
Thus, the text recording process of the diary service providing server 15 is completed. After the text recording process in step S79 is completed, the process proceeds to step S80.
[0136]
Returning to FIG. 16, if the CPU 101 determines in step S78 that the request is not received together with the image file, the process of step S79 is skipped, and the process proceeds to step S80.
[0137]
In step S80, the CPU 101 notifies the network handycam 11 of the completion of registration of the image file from the communication unit 110 via the Internet 10, the Internet service provider 14, the public line network 13, and the Bluetooth adapter 12. When the process of step S80 ends, the upload process of the diary service providing server 15 ends.
[0138]
Here, returning to step S74, if the CPU 101 determines that the authentication is not OK, that is, if it is determined that the authentication is NG, the process proceeds to step S81. In step S <b> 81, the CPU 101 notifies the network handycam 11 of authentication NG from the communication unit 110 via the Internet 10, the Internet service provider 14, the public line network 13, and the Bluetooth adapter 12. Upon receiving this authentication NG, the network handycam 11 determines that the authentication is not OK in step S57 as described above, and performs error processing in step S59.
[0139]
When the process of step S81 ends, the upload process of the diary service providing server 15 ends.
[0140]
Above, description of the flowchart of FIG. 16 is complete | finished.
[0141]
By the way, in step S54 during the upload process of the network handycam 11 in FIG. 7, if the request for sending the request is not instructed, that is, if the request button 206 is not clicked in FIG. When the image file is uploaded to the providing server 15, the request form (destination data and body data) is not transmitted. In this case, only the image file is stored in the predetermined date directory of the diary service providing server 15, and the text file to which the body data is pasted is not stored. Therefore, there will be no diary text on that date.
[0142]
Therefore, in the present invention, even when the request is not transmitted together with the image file, only the request can be transmitted later.
[0143]
Next, a process for transmitting only a request letter, that is, a request letter sending process for the network handycam 11 will be described with reference to the flowchart of FIG. Further, the process of the diary service providing server 15 that receives the request transmitted by the network handycam 11, that is, the request reception process will be described with reference to the flowchart of FIG.
[0144]
After an instruction to send a request is input to the operation input unit 32 by the user, the control microcomputer 31 displays a request letter screen on the display 38 via the image processing circuit 36 in step S121, Accept input.
[0145]
Also in this case, the screen shown in FIG. In step S121, since it is not necessary to select an album and an image, the user selects neither the album button 201 nor the image selection button 203. When the user clicks the request letter button 206 in FIG. 8 to transmit only the request letter, the control microcomputer 31 causes the display 38 to display the screen shown in FIG. 10 via the image processing circuit 36. .
[0146]
In the screen of FIG. 10, the user clicks the destination button 251 and inputs the date of the diary in which the diary text is recorded in the input display unit 252. The user operates the operation input unit 32 to input the date of the diary in which the diary text is recorded in the input display unit 252. As described above, the date is input by separating the year, month, and day in this order by “.”. The user can also input a preset keyword. In this case, the input body data is recorded in the newest date directory.
[0147]
After the user clicks the body button 253, the user operates the operation input unit 32 to input a diary sentence in the input display unit 254 on the right side. When the user clicks the enter button 255 after entering the diary text in the input display unit 254, the control microcomputer 31 acquires the destination data and body data input in the input display units 252 and 254. . Then, the screen of FIG. 8 is displayed again on the display 38. However, “None” displayed on the right side of the request letter button 206 is changed to “Yes”. Thereafter, when the send button 207 is clicked, the process proceeds to step S122.
[0148]
In step S122, the control microcomputer 31 controls the communication unit 44 to send the destination data and the text to the diary service providing server 15 via the Bluetooth adapter 12, the public line network 13, the Internet service provider 14, and the Internet 10. Send a request with data.
[0149]
In step S151 of FIG. 22, when the CPU 101 of the diary service providing server 15 receives the request transmitted from the network handycam 11 in step S122 via the communication unit 110, in step S152, the CPU 101 executes a body text recording process. The description of the text recording process is as described above with reference to the flowchart of FIG.
[0150]
After the text recording process in step S152, in step S153, the CPU 101 determines whether an error has been output as a result of the text recording process (step S105 in FIG. 20). Proceed to step S154. In step S154, the CPU 101 notifies the network handycam 11 of an error indicating that the body text data could not be registered from the communication unit 110 via the Internet 10, the Internet service provider 14, the public line network 13, and the Bluetooth adapter 12. To do.
[0151]
At this time, the control microcomputer 31 of the network handycam 11 determines whether or not an error notification is received from the diary service providing server 15 in step S123, and the error notification is received from the diary service providing server 15. The process proceeds to step S124. In step S <b> 124, the control microcomputer 31 causes the display 38 to display a guidance that the text could not be recorded in the diary service providing server 15 via the image processing circuit 36. With this guidance, the user can know that the diary text could not be registered.
[0152]
If the CPU 101 determines in step S153 in FIG. 22 that no error has been output, the process proceeds to step S155, and the CPU 101 starts communication from the communication unit 110 with the Internet 10, the Internet service provider 14, the public line network 13, and the Bluetooth. The network handycam 11 is notified of the completion of registration of the text data via the adapter 12.
[0153]
At this time, the control microcomputer 31 of the network handycam 11 determines in step S123 that the error notification has not been received from the diary service providing server 15, skips the process of step S124, and ends the request transmission process. .
[0154]
As described above, the user can also send only a request letter.
[0155]
As described above, the image file and the diary text transmitted from the network handycam 11 to the diary service providing server 15 and managed by the diary service providing server 15 are browsed by the information terminal device 17 connected to the Internet 10. It is possible. Next, referring to the flowcharts of FIGS. 23 and 24, a process in which the user browses the image file and the diary text managed by the diary service providing server 15 from the information terminal device 17, that is, the diary browsing process. explain.
[0156]
23 shows the process of the information terminal device 17, and FIG. 24 shows the process of the diary service providing server 15.
[0157]
The information terminal device 17 starts the process of FIG. 23 when a diary browsing instruction is input from the operation unit 156. 23, the CPU 101 of the information terminal device 17 transmits a diary browsing request to the diary service providing server 15 via the communication unit 160. At this time, the request signal transmitted from the information terminal device 17 includes identification information for specifying the user.
[0158]
24, the CPU 101 of the diary service providing server 15 receives a diary browsing request from the information terminal device 17. In step S202, the CPU 101 of the diary service providing server 15 corresponds to the identification information from the user directory shown in FIG. 19 based on the user identification information included in the request received in step S201. A user directory is specified, and a diary list is created based on the date directory under the specified user directory. For example, when the subdirectory 322 “user A” in FIG. 19 is specified based on the identification information, the CPU 101 determines “based on the names of the subdirectories 323-1 to 323-4 below the subdirectory 322. Create a diary list consisting of "August 21, 2001", "August 22, 2001", "August 23, 2001", and "September 5, 2001".
[0159]
Next, in step S203, the CPU 101 of the diary service providing server 15 transmits the diary list created in step S202 to the information terminal device 17 via the communication unit 110.
[0160]
The CPU 151 of the information terminal device 17 receives the diary list transmitted by the diary service providing server 15 in step S203 of FIG. 24 via the communication unit 160 in step S182 of FIG.
[0161]
In step S183, the CPU 151 of the information terminal device 17 displays the diary list received in step S182 on the display 158 and accepts date selection. FIG. 25 shows an example of a screen displayed on the display 158 of the information terminal device 17 in step S183.
[0162]
On the display 158, the browser 401 of FIG. 25 is displayed, and date items 402-1 to 402-4 of the diary list are displayed therein. These date items 402-1 to 402-4 describe the date of the diary (for example, the date item 402-1 is described as “September 05, 2001”). By operating the operation unit 156, the user can select a date item of any desired date from the display of the date items 402-1 to 402-4.
[0163]
The date item 402-1 is provided with a corresponding update selection field 403-1 and deletion selection field 404-1. The user can operate the operation unit 156 to select one of the update selection field 403-1 and the deletion selection field 404-1. Of course, neither the update selection field 403-1 nor the deletion selection field 404-1 can be selected. Similarly, the date item 402-2 has a corresponding update selection field 403-2 and deletion selection field 404-2. Similarly, the date item 402-3 is provided with a corresponding update selection field 403-3 and deletion selection field 404-3. Similarly, the date item 402-4 is provided with a corresponding update selection field 403-4 and deletion selection field 404-4.
[0164]
An update / delete button 405 and a reset button 406 are provided below the date item 402-4. When the update / delete button 405 is clicked in a state where any one of the update selection fields 403-1 to 403-4 and the deletion selection fields 404-1 to 404-4 is selected, the CPU 151 causes the update selection field 403- The diary update / deletion process is executed for the diary item in which one of the selection columns 1 to 403-4 and the deletion selection columns 404-1 to 404-4 is selected. The diary update / deletion process will be described later with reference to the flowcharts of FIGS.
[0165]
When the reset button 406 is clicked in a state where any of the update selection fields 403-1 to 403-4 and the deletion selection fields 404-1 to 404-4 is selected, the CPU 151 causes the update selection field 403- All the selections of 1 to 403-4 and the deletion selection fields 404-1 to 404-4 are canceled.
[0166]
If any one of the date items 402-1 to 402-4 is clicked in step S183, the process proceeds to step S184.
[0167]
In step S184, the CPU 151 of the information terminal device 17 transmits a diary file browsing request for the date corresponding to the diary item selected in step S183 to the diary service providing server 15 via the communication unit 160.
[0168]
When the CPU 101 of the diary service providing server 15 receives the diary file browsing request transmitted by the information terminal device 17 in step S184 in FIG. 23 in step S204 in FIG. 24 via the communication unit 110, the request is issued in step S205. It is determined whether the recorded diary file is stored in the corresponding date directory. When a date directory of a certain date is created in the diary service providing server 15 (step S93 in FIG. 17), and when a request for browsing the image file and diary text stored in the date directory is received for the first time, the diary Since the file has not yet been created, the CPU 101 of the diary service providing server 15 determines in step S205 that the requested diary file is not stored in the corresponding date directory, and the process proceeds to step S206.
[0169]
In step S206, the CPU 101 of the diary service providing server 15 executes diary creation processing, that is, processing for creating a diary file. Next, the diary creation process of the diary service providing server 15 will be described in detail with reference to the flowchart of FIG.
[0170]
In step S221 in FIG. 26, the CPU 101 of the diary service providing server 15 reads out the image file stored in the date directory corresponding to the date requested to be browsed in step S204 in FIG. 24, and records it in the header of each image file. The image files are sorted according to the shooting time based on the date information.
[0171]
Next, in step S222, the CPU 101 of the diary service providing server 15 selects one image file from the image files sorted in step S221. Then, the CPU 101 extracts the position information recorded in the header of the selected image file, and acquires the latitude / longitude of the shooting location of the image file. The latitude and longitude are described in a spherical coordinate system. That is, 1 degree is divided into 60 minutes based on the center of the earth, and 1 minute is further divided into 60 seconds.
[0172]
A map database 135 is recorded in the storage unit 109 of the diary service providing server 15 in advance. Therefore, the CPU 101 reads a map image including the shooting location of the image file from the map database 135, adds a marker to the position corresponding to the shooting location of the read map image, and creates a map-added map image. A detailed description of this process will be described later with reference to the flowchart of FIG.
[0173]
After the process of step S222, the process proceeds to step S223, and the CPU 101 of the diary service providing server 15 creates a thumbnail of the image file selected in step S222 and a thumbnail of the marker-added map image created in step S222. Create
[0174]
In step S224, the CPU 101 of the diary service providing server 15 acquires weather information corresponding to the shooting date and time of the image file selected in step S222 from the weather information database 131. After the processing of step S224, in step S225, the CPU 101 of the diary service providing server 15 acquires news information corresponding to the shooting date and time of the image file selected in step S222 from the news database 132. After the process of step S225, in step S226, the CPU 101 of the diary service providing server 15 acquires the sales order information of music corresponding to the shooting date and time of the image file selected in step S222 from the JPOP database 133. After the process of step S226, in step S227, the CPU 101 of the diary service providing server 15 searches the place name database 135 for a place name corresponding to the shooting location of the image file selected in step S222.
[0175]
After the process of step S227, the process proceeds to step S228, and the CPU 101 of the diary service providing server 15 determines whether or not the processes of steps S222 to S227 have been executed for all the image files sorted in step S221. The processing from step S222 to step S227 has not been executed for all the image files that have been determined and sorted in step S221 (there are image files that have not been subjected to the processing from step S222 to step S227). ), The process returns to step S222, and the processes after step S222 are repeatedly executed. However, in step S222, an already selected image file is not selected.
[0176]
When the processes in steps S222 to S228 are repeated for the number of image files, in step S228, the CPU 101 of the diary service providing server 15 performs steps S222 to S222 for all the image files sorted in step S221. It is determined that the process of step S227 has been executed, and the process proceeds to step S229.
[0177]
In step S229, the CPU 101 of the diary service providing server 15 creates a diary file including the thumbnail created in step S222 and the weather information, news information, JPOP information, and place name acquired in steps S223 to S227.
[0178]
After the process of step S229, in step S230, the CPU 101 of the diary service providing server 15 stores the diary text in the date directory corresponding to the date requested to be browsed in step S204 of FIG. Is stored, and if a text file in which a diary sentence is written is stored in the date directory corresponding to the date requested to be browsed in step S204 in FIG. Proceed to step S231.
[0179]
In step S231, the CPU 101 of the diary service providing server 15 reads the diary text from the text file stored in the date directory corresponding to the date requested to be browsed in step S204 in FIG. Record in the diary file created in S229, and create a diary file with text for the diary. When the process of step S231 ends, the diary creation process ends.
[0180]
In step S230, the CPU 101 of the diary service providing server 15 determines that the text file containing the diary text is not stored in the date directory corresponding to the date requested to be browsed in step S204 in FIG. If so, the process of step S231 is skipped, and the diary creation process is terminated.
[0181]
After the diary creation process ends, the process proceeds to step S207 in FIG.
[0182]
If the CPU 101 of the diary service providing server 15 determines in step S205 of FIG. 24 that the requested diary file is stored in the corresponding date directory, the process of step S206 is skipped, and the process proceeds to step S207. Proceed to
[0183]
In step S207 of FIG. 24, the CPU 101 of the diary service providing server 15 transmits the diary file having the date requested to be browsed in step S204 to the information terminal device 17 via the communication unit 110.
[0184]
23, when the CPU 151 of the information terminal device 17 receives the diary file transmitted by the diary service providing server 15 in step S207 in FIG. 24 via the communication unit 160, in step S186, the CPU 151 receives the diary file in step S185. The completed diary file is displayed on the display 158. FIG. 27 is an example of the diary file displayed on the display 158 in step S186.
[0185]
A browser 451 shown in FIG. 27 is displayed on the display 158, and a diary file is displayed in the window of the browser 451. Above the browser 451, a “go to previous page” display 452, an “index” display 453, and a “go to next page” display 454 are displayed. When the user clicks on the operation unit 156 and the “go to previous page” display 452 is selected, the CPU 151 acquires from the diary service providing server 15 a diary file that is one date older than the currently displayed diary file. And displayed on the display 158. In this case, the information terminal device 17 executes the processing from step S184 to step S186 in FIG. 23 (and the diary service providing server 15 performs processing corresponding to the information terminal device 17, that is, processing from step S204 to step S207. Execute).
[0186]
In FIG. 27, when the “index” display 453 is selected by the user clicking the operation unit 156, the CPU 151 deletes the diary file of FIG. 27 displayed on the display 158 and displays the screen of FIG. 25. Let In FIG. 27, when the “next page” display 454 is selected by the user clicking the operation unit 156, the CPU 151 provides a diary service with a diary file having a date one newer than the currently displayed diary file. Obtained from the server 15 and displayed on the display 158. Also in this case, as in the case where the “go to previous page” display 452 is selected, the information terminal device 17 executes the processing of steps S184 to S186 in FIG. 23 (and the diary service providing server 15 Processes corresponding to the terminal device 17, that is, the processes of steps S204 to S207 are executed).
[0187]
Below the “go to previous page” display 452, the “index” display 453, and the “go to next page” display 454, a date display 456 “August 22, 2001” and a weather information display 457 are displayed. Further, below the date display 456, a weather information display 458 “temperature 27.5 / 25.1 degrees (maximum / minimum)” that is a continuation of the weather information is displayed. The weather information displays 457 and 458 are obtained by the diary service providing server 15 in step S224 in FIG. 26, written in a diary file in step S229, and transmitted to the information terminal device 17 in step S207 in FIG. The user can know the date on which the image displayed in the diary file is captured by the date display 456. The user can know the weather of the day when the image was taken by the weather information display 457. In addition, the user can know the maximum temperature and the minimum temperature on the day when the image is taken, from the weather information display 458.
[0188]
Below the weather information display 458, a map thumbnail 459 and a captured image thumbnail 461 are displayed. In the map thumbnail 459, a marker 460 indicating the shooting location of the image is displayed. These thumbnails are created by the diary service providing server 15 in step S223 in FIG. 26, written in a diary file in step S229, and transmitted to the information terminal device 17 in step S207 in FIG. When the map thumbnail 459 or the shot image thumbnail 461 is clicked by the user operating the operation unit 156, the CPU 151 of the information terminal device 17 stores the original image file corresponding to the clicked thumbnail in the diary service providing server. 15, and this is displayed on the display 158.
[0189]
Below the map thumbnail 459 and the photographed image thumbnail 461, a photographing time display 462 “12:50:18” and a place name display 463 “XX Intercity (Konan, Minato-ku)” are displayed. The shooting time display 462 “12:50:18” indicates that the shooting time is 12:50:18. Further, the place name display 463 is the one that the diary service providing server 15 searches in step S227, writes it in a diary file in step S229, and transmits it to the information terminal device 17 in step S207 of FIG. When the user operates the operation unit 156 and clicks the place name display 463, when a related URL (Uniform Resource Locator) is linked to the place name display 463, the CPU 151 of the information terminal device 17 displays the browser 451. A browser different from the above is displayed on the display 158, and the Web site of the URL linked to the place name display 463 is displayed in the browser.
[0190]
An image change button 464 is displayed below the place name display 463. When the user operates the operation unit 156 and clicks the left arrow of the image change button 464, the CPU 151 of the information terminal device 17 is one before the captured image thumbnail 461 currently displayed. The captured image thumbnail is displayed at the position of the captured image thumbnail 461, and a map thumbnail corresponding to the captured image thumbnail captured immediately before the captured image thumbnail 461 is displayed instead of the map thumbnail 459.
[0191]
When the user operates the operation unit 156 and clicks the arrow pointing to the right side of the image change button 464, the CPU 151 of the information terminal device 17 captures one image after the currently displayed captured image thumbnail 461. The captured thumbnail image is displayed at the position of the captured image thumbnail 461, and a map thumbnail corresponding to the captured image thumbnail captured immediately after the captured image thumbnail 461 is displayed instead of the map thumbnail 459.
[0192]
A text display field 465 is displayed below the image change button 464. In the text display field 465, a diary text “Take a photo of a typhoon for a training demonstration. "It was scary." Is displayed. The diary text displayed in the text display field 465 is written by the diary service providing server 15 in the diary file in step S231 in FIG. 26 and transmitted to the information terminal device 17 in step S207 in FIG.
[0193]
A news display field 466 is displayed below the body text display field 465. In the news display field 466, the news information on the date of image shooting “re-elected by the Tokyo Metropolitan election in June △ The main party's ○○○○ The Tokyo Metropolitan Police Department arrested XX Metropolitan Government for violating the Public Office Election Law on the 22nd, assuming that the Tokyo Metropolitan Government was involved in the acquisition of athletes. (15:48) "is displayed. The news information displayed in the news display field 466 is acquired by the diary service providing server 15 in step S225 of FIG. 26, written in a diary file in step S229, and transmitted to the information terminal device 17 in step S207 of FIG. Is.
[0194]
A sales information display field 467 is displayed below the news display field 466. In the sales information display field 467, the sales order of music on the date of image shooting is displayed. Information related to the sales order of music displayed in the sales information display field 467 is acquired by the diary service providing server 15 in step S226 of FIG. 26, written in a diary file in step S229, and the information terminal device in step S207 of FIG. 17 is transmitted.
[0195]
In step S186 in FIG. 23, the diary file is displayed on the display 158 as shown in FIG.
[0196]
This is the end of the description of the diary browsing process.
[0197]
In FIG. 25, as described above, the update / delete button is displayed in a state where any one of the update selection fields 403-1 to 403-4 and the deletion selection fields 404-1 to 404-4 is selected. When 405 is clicked, diary update / deletion processing is executed. The diary update process is a process of deleting a diary file stored in the date directory. If there is a point to be changed in the diary file once created, execute this diary update process to delete the diary file, and then execute the diary creation process of FIG. 26 again to create a new diary file. Can do. Therefore, for example, when an image file to be stored in a certain date directory is added or when a diary text is changed, a diary update process is executed, and then a diary creation process is executed.
[0198]
The diary deletion process is a process of deleting the date directory. If there is a date item that the user wants to delete from among the date items 402-1 to 402-4 as shown in FIG. 25, a diary deletion process is executed. When the diary deletion process is performed, the date directory and all files (including image files and text files) stored in the date directory are deleted.
[0199]
Next, diary update / deletion processing will be described with reference to the flowcharts of FIGS. 28 shows the processing of the information terminal device 17, and FIG. 29 shows the processing of the diary service providing server 15.
[0200]
In step S241 in FIG. 28, the CPU 151 of the information terminal device 17 stands by until the update / delete button 405 in FIG. 25 is clicked. When the update / delete button 405 is clicked, the process proceeds to step S242. In step S242, the CPU 151 identifies the selected update selection field from the update selection fields 403-1 to 403-4 in FIG. 25, and sets the date item corresponding to the identified selection field to the date field 402-. Specify from 1 to 402-4. Of the update selection fields 403-1 to 403-4, a plurality of update selection fields may be selected. In this case, the CPU 151 identifies all date items for which the update selection field is selected. .
[0201]
After the process of step S242, in step S243, the CPU 151 identifies the selected deletion selection field from the deletion selection fields 404-1 to 404-4 in FIG. 25, and corresponds to the identified deletion selection field. The date item is specified from the date items 402-1 to 402-4. Of the deletion selection fields 404-1 to 404-4, a plurality of deletion selection fields may be selected. In this case, the CPU 151 identifies all date items for which the deletion selection field is selected. .
[0202]
As described above, the update selection field and the deletion selection field corresponding to the same date item cannot be selected at the same time.
[0203]
After the process of step S243, in step S244, the CPU 151 transmits the information indicating the date to be updated specified in step S242 and the information indicating the date to be deleted specified in step S243 via the communication unit 160. It is transmitted to the providing server 15 to request the update of the diary corresponding to the date or the deletion of the diary.
[0204]
In addition, although the process of step S242 and step S243 was performed in the order mentioned above for convenience of explanation, either of these processes may be performed first. Moreover, you may perform simultaneously.
[0205]
If there is no date item for which update has been selected in step S242, only information indicating the date for which deletion has been selected is transmitted to the diary service providing server 15 in step S244. Similarly, if there is no date item for which deletion has been selected in step S243, only information indicating the date for which update has been selected is transmitted to the diary service providing server 15 in step S244. If there is no date item for which update has been selected in step S242 and no date item for which deletion has been selected in step S243, the CPU 151 of the information processing device 17 does not execute the process of step S244. Finally, the diary update / deletion process is terminated.
[0206]
When the CPU 101 of the diary service providing server 15 receives the request transmitted by the information terminal device 17 in step S244 via the communication unit 110, the request from the information terminal device 17 includes a diary update request in step S251. It is determined whether the request is included, and if the request from the information terminal device 17 includes a diary update request, the process proceeds to step S252. In step S252, the CPU 101 of the diary service providing server 15 identifies the date directory to be updated based on the information indicating the date to be updated received from the information terminal device 17, and stores the diary stored in the identified date directory. Delete the file. Thereafter, the process proceeds to step S253.
[0207]
If the CPU 101 of the diary service providing server 15 determines in step S251 that the request from the information terminal device 17 does not include a diary update request, the process of step S252 is skipped, and the process proceeds to step S253. move on.
[0208]
In step S253, the CPU 101 of the diary service providing server 15 determines whether or not the request from the information terminal device 17 includes a diary deletion request, and the diary deletion request is included in the request from the information terminal device 17. Is included, the process proceeds to step S254. In step S254, the CPU 101 of the diary service providing server 15 specifies the date directory to be deleted based on the information indicating the date to be deleted received from the information terminal device 17, and deletes the specified date directory. The diary update / deletion process is thus completed.
[0209]
If the CPU 101 of the diary service providing server 15 determines in step S253 that the request from the information terminal device 17 does not include a diary deletion request, the process of step S254 is skipped, and the diary update / deletion process is performed. Is terminated.
[0210]
By the way, the diary service providing server 15 acquires weather information from the Web server 16-1 every day and stores it in the weather information database 131 in the storage unit 109. The diary service providing server 15 acquires news information from the Web server 16-2 every day and stores it in the news database 132 in the storage unit 109. The diary service providing server 15 acquires sales information from the Web server 16-3 every day and stores the sales information in the JPOP database 133 in the storage unit 109. The diary service providing server 15 acquires the weather information, stores it in the weather information database 131, acquires the news information, stores it in the news database 132, and acquires the sales information, and stores it in the JPOP database 133. The process to be stored is basically the same process, although the information to be acquired is different.
[0211]
Therefore, as a representative, a process in which the diary service providing server 15 acquires news information and stores it in the news database 132 will be described with reference to a flowchart of FIG.
[0212]
In step S281, the CPU 101 of the diary service providing server 15 acquires the HTML of the website provided by the web server 16-1 via the communication unit 110. An example of HTML acquired by the diary service providing server 15 is shown in FIG. In the HTML shown in FIG. 31, news information to be acquired is written in a hatched portion 481. And before and after the hatched portion 481, there are characteristic tags such as <!-Start of TopHonbun-> and <!-End of TopHonbun-> that do not change depending on the day.
[0213]
In step S282, the CPU 101 of the diary service providing server 15 extracts news information from the HTML acquired in step S281. That is, necessary information is specified and acquired by searching a characteristic tag / character string that does not change depending on the date near the necessary information from the HTML shown in FIG. Specifically, the storage unit 109 of the diary service providing server 15 stores in advance tags before and after news information, that is, <!-Start of TopHonbun-> and <!-End of TopHonbun->. The tag is stored. Therefore, the CPU 101 reads out these tags from the storage unit 109 and searches for the same tag in the HTML acquired in step S281. Then, after the tag is detected, a hatched portion 481 between <!-Start of TopHonbun-> and <!-End of TopHonbun-> is extracted as news information.
[0214]
In step S283, the CPU 101 of the diary service providing server 15 stores the news information extracted in step S282 in the news database 132 in the storage unit 109 in association with the date.
[0215]
The news information is acquired as described above. The diary service providing server 15 executes the above process every day and stores the daily news information in the news database 132.
[0216]
The diary service providing server 15 acquires weather information from the Web server 16-1 and stores it in the weather information database 131 in the same manner as described above. Further, the diary service providing server 15 acquires sales information from the Web server 16-3 and stores it in the JPOP database 133 in the same manner as described above.
[0217]
By the way, the diary service providing server 15 creates the map database 134 by a method different from the above-described turning information database 131, news database 132, and JPOP database.
[0218]
Next, the map database creation process of the diary service providing server 15 will be described with reference to the flowchart of FIG.
[0219]
In step S301 in FIG. 32, the CPU 101 of the diary service providing server 15 decomposes the raster map into a plurality of parts. FIG. 33 shows an example of raster map decomposition. In FIG. 33, a raster map 501 is a wide area map as a raster model. Since the raster model is image data in which fine rectangles (dots) called cells are arranged (created by a set of dots), map image data can be easily decomposed. In the lower left of FIG. 33, a raster map 501 is extracted and one map image 502 out of the grid is shown. In step S301, as shown in FIG. 33, the CPU 101 decomposes the raster map 501 into a grid and creates a plurality of map images.
[0220]
At this time, the CPU 101 generates a file name for each of the individual map images decomposed into a plurality of pieces and stores the file names in the RAM 103. Further, the CPU 101 determines the latitude / longitude at the upper right end (for example, the point B of the map image 502 in FIG. 33) and the latitude / longitude at the lower left end (for example, the map image in FIG. 33) of each map image decomposed into a plurality The point A) 502 is stored in the RAM 103 in association with each map image.
[0221]
Note that the raster map 501 may be downloaded in advance from a predetermined server on the Internet 10 via the communication unit 110 and stored in the storage unit 109. Alternatively, the raster map 501 may be acquired from the magnetic disk 121, the optical disk 122, the magneto-optical disk 123, or the semiconductor memory 124 via the drive 111.
[0222]
After a plurality of map images decomposed in a lattice shape are created by the process of step S301, the process proceeds to step S302. In step S302, the CPU 101 records the file name, the latitude / longitude at the upper right corner of the map image, and the latitude / longitude at the lower left corner of the map image in the map information chunk of the map image file. FIG. 34 shows an example of a map image file.
[0223]
The map image file includes a map information chunk 511 and map image data 512. The map image data 512 is, for example, data of the map image 502 in FIG. A map information chunk 511 is added to the map image data 512. In the map information chunk 511, the file name, the latitude / longitude of the upper right corner of the map image, and the latitude / longitude of the lower left corner of the map image are recorded.
[0224]
For all the map image files divided in step S301, the CPU 101 stores, in each map information chunk, the file name stored in the RAM 103 in step S301, the upper right end of the map image (for example, point B of the map image 502). And the latitude and longitude of the lower left corner of the map image (for example, point A of the map image 502) are recorded. At this time, the latitude and longitude at the upper right corner of the map image and the latitude and longitude at the lower left corner of the map image are all recorded in the map information chunk when expressed in seconds.
[0225]
After the process of step S302, the process proceeds to step S303, and the CPU 101 executes a map image information management file creation process. Here, the map image information management file creation processing in step S303 will be described in detail with reference to the flowchart in FIG.
[0226]
In step S311, the CPU 101 adds the file name, the latitude / longitude (in seconds) at the upper right corner of the map image, and the latitude / longitude (in seconds) at the lower left corner of the map image to the map information chunk 511 in step S302 of FIG. A map image file is selected from the map image files in which is recorded, and from the map information chunk 511 of the map image file, the file name, the lower left latitude / longitude (in seconds), the upper right latitude / longitude ( Read in seconds). Further, the CPU 101 specifies the number of dots in the horizontal direction and the number of dots in the vertical direction of the map image (for example, the map image 502) based on the map image data 512 of the selected map image file.
[0227]
After step S311, in step S312, the CPU 101 calculates the number of dots per second in the horizontal direction and the number of dots per second in the vertical direction of the map image. For example, in the map image 502 of FIG. 33, the longitude of the lower left point A is X1, the latitude is Y1, the longitude of the upper right point B is X2, and the latitude is Y2. The number of dots is m, and the number of dots in the vertical direction of the map image 502 is n. Note that the longitude and latitude are converted into seconds.
[0228]
The amount of change in the longitude of the map image 502 in the horizontal direction is (X2-X1) seconds. In addition, the amount of change in the latitude in the vertical direction of the map image 502 is (Y2-Y1) seconds. Therefore, the number of dots per second in the horizontal direction of the map image 502 is calculated by m / (X2-X1). Further, the number of dots per second in the vertical direction of the map image 502 is calculated by n / (Y2−Y1).
[0229]
After the processing of step S312, in step S313, the CPU 101 separates the file name, the lower left corner (for example, point A of the map image 502) north latitude and east longitude, and the upper right end (for example, point B of the map image 502). North latitude / east longitude, north latitude dot / second, and east longitude dot / second are recorded in the map image information management file. Here, the file name, north latitude / east longitude of the lower left corner (for example, point A of the map image 502), and north latitude / east longitude of the upper right edge (for example, point B of the map image 502) are obtained from the map information chunk 511 in step S311. It has been read out. Further, the north latitude dot / second and the east longitude dot / second are calculated in step S312.
[0230]
FIG. 36 shows an example of the map image information management file. On the upper side of FIG. 36, the arrangement order of the map image information is shown. That is, on the upper side of FIG. 36, “file name”, “lower left north latitude”, “lower left east longitude”, “upper right north latitude”, “upper right east longitude”, “dot / second (north latitude)”, and “dot” / Second (east longitude) ". Below these displays, actual information corresponding to each item is shown. In FIG. 36, although omitted by “...”, A predetermined value is actually written in the portion “.
[0231]
36, the actual map image information management file is described immediately below the double line delimiter (“file name”, “lower left north latitude”, “lower left east longitude”, “upper left longitude”, “ “Upper right north latitude”, “Upper right east longitude”, “Dot / second (north latitude)”, and “Dot / second (east longitude)” are not recorded in the map image information management file). As shown in FIG. 36, the map image information management file includes a map image file name, north latitude of the lower left corner (eg, point A of the map image 502), and lower left corner (eg, point A of the map image 502). ) East longitude, north latitude of the upper right edge (eg, point B of the map image 502), east longitude, north latitude dot / second, and east longitude dot / second of the upper right edge (eg, point B of the map image 502) They are recorded with a space between them. The map image information management file is a text file.
[0232]
After the process of step S313 in FIG. 35, the process proceeds to step S314. In step S314, the CPU 101 of the diary service providing server 15 determines whether or not information related to all the image files created in step S301 in FIG. 32 has been recorded in the map image information management file, and in step S301 in FIG. When the information regarding all the created image files is not recorded in the map image information management file, the process returns to step S311 and the processes after step S311 are repeated. However, in step S311, the image file already recorded in the map image information management file is not selected.
[0233]
As described above, when the processing from step S311 to step S314 is repeated and information regarding all the image files created in step S301 in FIG. 32 is recorded in the map image information management file, the CPU 101 determines in step S314. 32, it is determined that information regarding all the image files created in step S301 of FIG. 32 has been recorded in the map image information management file, and the map image information management file creation process is terminated. Thereafter, the processing returns to step S304 in FIG.
[0234]
In step S304, the CPU 101 records the map image information management file created in step S303 and the plurality of map image files created in step S302 in the MAP directory, and creates this map database as a map database 134. End the process. FIG. 37 is a diagram illustrating a configuration example of the map database 134. In FIG. 37, a map image information management file 532 and map image files 533-1 to 533-n are stored in the MAP directory 531.
[0235]
By the way, the processing in step S222 in FIG. 26, that is, the creation processing of the marker-added map image has been briefly described above. Here, the marker-added map image creation processing will be described in detail with reference to the flowchart in FIG. Explained.
[0236]
In step S351 in FIG. 38, the CPU 101 of the diary service providing server 15 selects one image file from the image files sorted in step S221. Then, the CPU 101 extracts the position information recorded in the header of the selected image file, and acquires the latitude / longitude of the shooting location of the image file. For example, as shown in FIG. 39, it is assumed that the latitude of the shooting location P is 35 degrees 37 minutes 14 seconds north latitude and the longitude is 139 degrees 44 minutes 17 seconds east longitude.
[0237]
After the process of step S351, in step S352, the CPU 101 converts the unit of latitude / longitude information of the shooting location acquired in step S351 into a unit of second. That is, since the latitude / longitude information acquired in step S351 is a notation method in units of degree / minute / second (DMS), it is converted into a unit of second. For example, when the latitude (or longitude) is x degrees y minutes z seconds, the CPU 101 calculates 3600x + 60y + z to convert the unit into seconds. Thereafter, the process proceeds to step S353. For example, 35 degrees 37 minutes 14 seconds north latitude is 3600 × 35 + 60 × 37 + 14 = 128234 seconds. In addition, east longitude 139 degrees 44 minutes 17 seconds becomes 3600 × 139 + 60 × 44 + 17 = 503057 seconds.
[0238]
In step S353, the CPU 101 compares the latitude / longitude information of the shooting location converted into seconds in step S352 with the map image information recorded in the map image information management file, and includes the latitude / longitude of the shooting location. Specify the map image file. That is, in the map image information management file, as shown in FIG. 36, north latitude and east longitude at the lower left corner and north latitude and east longitude at the upper right corner are recorded. Therefore, the CPU 101 first selects a map image file in which the east longitude of the shooting location is located between the east longitude at the lower left corner and the east longitude at the upper right corner, and the north latitude at the lower left corner is selected from the selected map image files. A map image file is selected so that the north latitude of the shooting location is located between the north latitude of the upper right corner. As a result, a map image file including the latitude and longitude of the shooting location is selected.
[0239]
For example, if the shooting location is 128234 seconds north latitude and 503057 seconds east longitude, the selected map image has a latitude of 128229.7 seconds north latitude and 503048.3 seconds longitude east longitude as shown in FIG. In addition, it is assumed that the latitude in the upper right (illustrated by B) is 128255.8 seconds north and longitude is 503080.4 seconds east longitude. As described above, the latitude of the shooting location (north latitude 128234 seconds) is between the lower left latitude (north latitude 128229.7 seconds) and the upper right latitude (north latitude 128255.8 seconds) of the map image file. The longitude of the shooting location (east longitude 503057 seconds) is between the lower left longitude (east longitude 503048.3 seconds) and the upper right longitude (east longitude 503080.4 seconds) of the map image file.
[0240]
After the process of step S353, in step S354, the CPU 101 takes the difference between the latitude / longitude of the lower left (or upper right) of the map image specified in step S353 and the latitude / longitude of the shooting location, and uses the difference as the map image. The number of dots from the lower left (or upper right) of the map image to the shooting location is calculated by multiplying the dots / second recorded in the information management file.
[0241]
For example, it is assumed that the number of dots of the map image 502 in FIG. 39 is 160 dots in the vertical direction and 160 dots in the horizontal direction. At this time, the latitude is 160 / (128255.8-128229.7) = 6.13... Dot / second and the longitude is 160 / (503080.4-503048.3) = 4.98 .dot / second. Here, consider a case where the number of dots from the lower left (A) of the map image 502 to the shooting location P is calculated.
[0242]
First, the number of latitude dots from the lower left (A) of the map image 502 to the shooting location P is (North latitude of shooting location−North latitude of point A) × (dots of latitude / second) = (128234−128229.7) × 6.13. = About 26 dots. Next, the number of longitude dots from the lower left (A) of the map image 502 to the shooting location P is (East longitude of the shooting location−East longitude of the point A) × (dots of longitude / second) = (503057-503048.3) × 4.98 … = About 43 dots.
[0243]
In step S355, the CPU 101 attaches a marker at a position counted from the lower left (or upper right) of the map image by the number of dots calculated in step S354.
[0244]
In the example of FIG. 39, since the number of latitude dots from the point A to the shooting location P of the map image 502 is calculated as 26 dots and the number of longitude dots is 43 dots in step S354, it is shown in FIG. As described above, the marker (displayed by a rectangle) of the shooting location P is attached to the 26th dot from the point A of the map image 502 toward the north and the 43rd dot toward the east.
[0245]
As described above, a map image with a marker is created. The user can check the shooting location even when the user forgets the shooting location by using the map image with a marker.
[0246]
By the way, in the present embodiment, the network handycam 11 records the photographed image file on the memory card 40 by Exif (Exchangeable image file format) which is a file format standard for digital still cameras. Therefore, the information regarding the shooting date and time of the image and the position information of the shooting location are also recorded in the shot image file in accordance with Exif. Therefore, when information on the shooting date and time of an image and position information on the shooting location are read from the shot image file, it is necessary to read from the image file according to Exif.
[0247]
Next, with reference to the flowcharts of FIGS. 40 and 41, a description will be given of a process in which the diary service providing server 15 reads out information relating to the shooting date and time and location information of the shooting location from the shot image file.
[0248]
In step S501 of FIG. 40, the CPU 101 of the diary service providing server 15 opens the image file and reads it byte by byte. In step S502, the CPU 101 sets an address having 0 × 4949 (II) as an offset. In step S503, the CPU 101 reads the 0th IFD Offset address and moves the reading position to the 0th IFD Offset address. In step S504, the CPU 101 reads the number of directory entries included in the IFD. In step S505, the CPU 101 reads the IFD. In step S506, the CPU 101 determines whether the Tag ID of the IFD read in step S505 is TagID = 0 × 0123. If TagID = 0 × 0123, the CPU 101 reads step S507. Then, the CPU 101 reads Value Offset and moves the reading position to that address.
[0249]
In step S508, the CPU 101 reads Data Time Value (date and time) and outputs it as standard output. In this way, the shooting date / time of the image is acquired. After the process of step S508, the process proceeds to step S509.
[0250]
If the CPU 101 determines in step S506 that TagID = 0 × 0123 is not satisfied, the process proceeds to step S509.
[0251]
In step S509, the CPU 101 determines whether or not the Tag ID of the IFD read in step S505 is TagID = 0 × 8825. If TagID = 0 × 8825, the process proceeds to step S510, and GPS information extraction processing is performed. Execute. Here, the GPS information extraction processing in step S510 will be described with reference to FIG.
[0252]
In step S551 in FIG. 41, the CPU 101 reads Value Offset and moves to that address. In step S552, the CPU 101 reads a GPS IFD Number. In step S553, the CPU 101 reads the IFD. In step S554, the CPU 101 determines whether or not the Tag ID of the IFD read in step S553 is Tag = 0 × 0001. If Tag = 0 × 0001, the process proceeds to step S555, where Value Offset is read, Standard output is N (north) or S (south). Thereafter, processing proceeds to step S556.
[0253]
If the CPU 101 determines in step S554 that Tag = 0 × 0001 is not satisfied, the process proceeds to step S556.
[0254]
In step S556, the CPU 101 determines whether or not the Tag ID of the IFD read in step S553 is Tag = 0 × 0002. If Tag = 0 × 0002, the CPU 101 proceeds to step S557, reads Value Offset, Move the reading position to that address. In step S558, the CPU 101 reads GPSLatitude Value (latitude) from the address moved in step S557, and outputs it as a standard output. Thereafter, the process proceeds to step S559.
[0255]
If the CPU 101 determines in step S556 that Tag = 0 × 0002 is not satisfied, the process proceeds to step S559.
[0256]
In step S559, the CPU 101 determines whether or not the Tag ID of the IFD read in step S553 is Tag = 0 × 0003. If Tag = 0 × 0003, the process proceeds to step S560, and the CPU 101 determines that Value Offset Is read out and E (east) or W (west) is output as standard output. Thereafter, the process proceeds to step S561.
[0257]
If the CPU 101 determines in step S559 that Tag = 0 × 0003 is not satisfied, the process proceeds to step S561.
[0258]
In step S561, the CPU 101 determines whether or not the Tag ID of the IFD read in step S553 is Tag = 0 × 0004. If Tag = 0 × 0004, the process advances to step S562 to read Value Offset, Move the reading position to that address. In step S558, the CPU 101 reads GPS Longitude Value (longitude) from the address moved in step S557, and outputs it as a standard output. Thereafter, the process proceeds to step S564.
[0259]
In step S564, the CPU 101 determines whether or not the process has been repeated GPS PFD Number times read in step S552. If the process has not been repeated GPS PFD Number times, the process returns to step S553. The processes after S553 are repeated. At this time, in step S553, the already read IFD is not read.
[0260]
In step S564, if the CPU 101 determines that the process has been repeated GPS PFD Number times, the GPS information extraction process ends, and the process proceeds to step S511 in FIG.
[0261]
In step S509 of FIG. 40, if the CPU 101 determines that the Tag ID of the IFD read in step S505 is not TagID = 0 × 8825, the process proceeds to step S511.
[0262]
In step S511, the CPU 101 determines whether or not the process has been repeated by the number of directory entries read in step S504. If the process has not been repeated by the number of directory entries, the process returns to step S505, and after step S505. Repeat the process. At this time, in step S505, an already read IFD is not read.
[0263]
If the CPU 101 determines in step S511 that the process has been repeated by the number of directory entries read in step S504, the date information and position information extraction process is terminated.
[0264]
As described above, the diary service providing server 15 can extract the date when the image was taken and the latitude / longitude of the shooting location from the image file.
[0265]
In the above, a portable camera-integrated video tape recorder has been described as an example of a portable terminal device. However, the present invention also includes means for capturing images of a digital still camera, a camera-equipped cellular phone, and the like. It is possible to apply to the electronic equipment which has.
[0266]
Further, the processing executed by the information terminal device 17 above, that is, the processing described with reference to the flowcharts of FIGS. 23 and 28 can be executed by the network handycam 11. In this case, for example, the processing executed by the CPU 151, the operation unit 156, the audio output unit 157, the display 158, the storage unit 159, the communication unit 160, and the drive 161 in the information terminal device 17 is for controlling the network handycam 11. It is executed by the microcomputer 31, the operation input unit 32, the speaker 42, the display 38, the storage unit 46, the communication unit 44, and the drive 48. Further, a program similar to the processing program executed by the information terminal device 17 is stored in, for example, the storage unit 46 of the network handycam 11, loaded into the DRAM 35 as necessary, and executed by the control microcomputer 31. .
[0267]
In the above description, weather information, news information, and music sales information have been described as examples of information acquired from the Web server 16 and displayed on the Web page. It is an example of the information acquired from 16, and other information can be acquired from the Web server 16 and displayed on the Web page.
[0268]
Moreover, in the above description, the case where the image file format standard (Exif) as a digital still camera is adopted as an example of the image file format has been described as an example. It does not mean that digital still cameras are limited to adopting the image file format standard (Exif). For example, a unique format capable of recording position information of the shooting location and date information indicating the shooting date and time of the image may be adopted.
[0269]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.
[0270]
As shown in FIGS. 4 to 7, this recording medium is distributed to provide a program to the user separately from the apparatus main body, and a magnetic disk 51 (including a flexible disk) on which the program is recorded, 121, 171, optical disc 52 (including compact disk-read only memory (CD-ROM), DVD (digital versatile disk)), 122, 172, magneto-optical disk 53 (including MD (mini-disk)), 123, 173 or package media including semiconductor memories 54, 124, 174, etc., as well as ROMs 102, 152 storing programs provided to the user in a state of being preinstalled in the apparatus body, The hard disks included in the units 46, 109, and 159 are configured.
[0271]
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
[0272]
Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0273]
【The invention's effect】
As described above, according to the present invention, a Web page can be created.
[0274]
Further, according to the present invention, it is possible to easily create a web page including a photographed image with little effort. At that time, information such as the shooting location of the shot image and the weather and news of the shooting date can be automatically published on the Web page. Therefore, the person who browses the Web page can know the shooting location of the shot image, the shooting date, the weather on the shooting date, news on the shooting date, and the like.
[0275]
Furthermore, according to the present invention, the user does not need to separately prepare a device such as a personal computer in order to create a Web page. Therefore, even a user who is unfamiliar with the operation of a personal computer and a user who does not have a personal computer can easily create a Web page.
[0276]
Furthermore, according to the present invention, it is possible to create a diary-like Web page with a photographed image by an easy operation. Therefore, even a user who does not continue to keep a diary of only normal characters (becomes a three-day shaved) can keep a diary continuously.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a service providing system according to the present invention.
FIG. 2 is a block diagram showing a configuration of the network handycam of FIG. 1;
3 is a block diagram showing a configuration of a diary service providing server in FIG. 1. FIG.
FIG. 4 is a diagram illustrating an example of a database stored in a storage unit of a diary service providing server.
5 is a block diagram showing a configuration of the information terminal device of FIG. 1. FIG.
FIG. 6 is a flowchart illustrating still image shooting processing of a network handycam.
FIG. 7 is a flowchart for explaining network handycam upload processing;
FIG. 8 is a diagram showing a display example of a network handycam display.
FIG. 9 is a diagram showing another display example of the display of the network handycam.
FIG. 10 is a diagram showing still another display example of the display of the network handycam.
FIG. 11 is a diagram showing a display example of a network handycam display.
FIG. 12 is a diagram showing another display example of the display of the network handycam.
FIG. 13 is a diagram showing still another display example of the display of the network handycam.
FIG. 14 is a diagram showing a display example of a network handycam display.
FIG. 15 is a diagram showing another display example of the display of the network handycam.
FIG. 16 is a flowchart illustrating upload processing of the diary service providing server.
FIG. 17 is a flowchart illustrating image file recording processing of the diary service providing server.
FIG. 18 is a diagram illustrating a format of an image file.
FIG. 19 is a diagram for explaining an image file recording method;
FIG. 20 is a flowchart illustrating text recording processing of the diary service providing server.
FIG. 21 is a flowchart for explaining network handycam request letter transmission processing;
FIG. 22 is a flowchart for explaining request reception processing of the diary service providing server;
FIG. 23 is a flowchart illustrating diary browsing processing of the information terminal device.
FIG. 24 is a flowchart illustrating diary browsing processing of the diary service providing server.
FIG. 25 is a diagram showing a display example of the display of the information terminal device.
FIG. 26 is a flowchart illustrating a diary creation process of the diary service providing server.
FIG. 27 is a diagram showing a display example of the display of the information terminal device.
FIG. 28 is a flowchart illustrating diary update / delete processing of the information terminal device.
FIG. 29 is a flowchart for explaining diary update / deletion processing of the diary service providing server;
FIG. 30 is a flowchart illustrating news database creation processing of the diary service providing server.
FIG. 31 is a diagram illustrating an example of HTML received from the Web server by the diary service providing server.
FIG. 32 is a flowchart illustrating map database creation processing of the diary service providing server.
FIG. 33 is a diagram illustrating the creation of a map image.
FIG. 34 is a diagram illustrating the structure of map image data.
FIG. 35 is a flowchart for describing map image information management file creation processing of the diary service providing server.
FIG. 36 is a diagram showing an example of a map image information management file.
FIG. 37 is a diagram showing an example of the structure of a map database.
FIG. 38 is a flowchart for explaining marker-added map image creation processing of the diary service providing server.
FIG. 39 is a diagram showing an example of a map image with markers.
FIG. 40 is a flowchart illustrating date information and position information extraction processing of the diary service providing server.
FIG. 41 is a flowchart for describing GPS information extraction processing of the diary service providing server.
[Explanation of symbols]
11 Network Handycam, 12 Bluetooth Adapter, 13 Public Network, 14 Internet Service Provider, 15 Diary Service Providing Server, 16 Web Server, 17 Information Terminal Device, 31 Control Microcomputer, 33 GPS Receiver, 36 Image Processing Circuit, 101 CPU , 109 storage unit, 131 weather information database, 132 news database, 133 JPOP database, 134 map database, 135 place name database, 136 diary file, 151 CPU

Claims (15)

ネットワークに接続可能な撮影装置、およびWebページを公開する情報処理装置から構成されるサービス提供システムにおいて、
前記撮影装置は、
被写体を撮影して撮影画像を作成する第1の作成手段と、
前記被写体が撮影された撮影場所を示す位置情報を取得する第1の取得手段と、
前記被写体が撮影された日時を示す時間情報を取得する第2の取得手段と、
前記第1の作成手段により作成された前記撮影画像に、前記第1の取得手段により取得された前記位置情報、および前記第2の取得手段により取得された前記時間情報を付加して記憶する第1の記憶手段と、
前記第1の記憶手段により前記位置情報と前記時間情報が付加されて記憶された前記撮影画像を、前記情報処理装置に送信する送信手段と
を備え、
前記情報処理装置は、
地図画像を記憶する第2の記憶手段と、
前記撮影装置より、前記撮影画像を受信する受信手段と、
前記受信手段により受信された前記撮影画像に付加された前記位置情報に基づいて、
前記第2の記憶手段により記憶されている前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第2の作成手段と、
前記受信手段により受信された前記撮影画像、および前記第2の作成手段により作成された前記マーカ付き地図画像を、前記撮影画像に付加された前記時間情報に基づいて、時間毎に分類して記憶する第3の記憶手段と、
予め設定された所定のWebサイトより、所定の情報を取得する第3の取得手段と、
前記第3の取得手段により取得された前記所定の情報を、時間と対応付けて記憶する第4の記憶手段と、
前記受信手段により受信された前記撮影画像に付加された前記時間情報に基づいて、前記第4の記憶手段により記憶された前記所定の情報から、前記撮影画像の撮影された時間と対応付けられた前記所定の情報を読み出す読み出し手段と、
前記第3の記憶手段により時間毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記読み出し手段により読み出された前記所定の情報を含む時間毎のWebページを作成する第3の作成手段と、
前記第3の作成手段により作成された前記Webページをネットワーク上に公開する公開手段と
を備えることを特徴とするサービス提供システム。
In a service providing system composed of a photographing device connectable to a network and an information processing device that publishes a web page
The imaging device
First creating means for photographing a subject and creating a captured image;
First acquisition means for acquiring position information indicating a shooting location where the subject was shot;
Second acquisition means for acquiring time information indicating the date and time when the subject was photographed;
A second image is stored by adding the position information acquired by the first acquisition unit and the time information acquired by the second acquisition unit to the captured image generated by the first generation unit. 1 storage means;
Transmission means for transmitting the captured image stored with the position information and the time information added thereto by the first storage means to the information processing apparatus,
The information processing apparatus includes:
Second storage means for storing a map image;
Receiving means for receiving the photographed image from the photographing device;
Based on the position information added to the captured image received by the receiving means,
Second creation means for creating a marker-added map image by attaching a marker to the shooting location of the captured image on the map image stored by the second storage means;
The photographed image received by the receiving means and the marker-added map image created by the second creating means are classified and stored for each time based on the time information added to the photographed image. Third storage means for
Third acquisition means for acquiring predetermined information from a predetermined website set in advance;
Fourth storage means for storing the predetermined information acquired by the third acquisition means in association with time;
Based on the time information added to the captured image received by the receiving means, the predetermined information stored by the fourth storage means is associated with the time when the captured image was captured. Reading means for reading the predetermined information;
A Web page for each time including the captured image classified and stored by the third storage means, the map image with marker, and the predetermined information read by the reading means is created. 3 creation means;
A service providing system comprising: a publishing unit that publishes the Web page created by the third creating unit on a network.
地図画像を記憶する第1の記憶手段と、
撮影装置より、前記撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像を受信する第1の受信手段と、
前記第1の受信手段により受信された、前記撮影画像に付加された前記位置情報に基づいて、前記第1の記憶手段により記憶されている前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成手段と、
前記第1の受信手段により受信された前記撮影画像、および前記第1の作成手段により作成された前記マーカ付き地図画像を、前記撮影画像に付加された前記時間情報に基づいて、時間毎に分類して記憶する第2の記憶手段と、
予め設定された所定のWebサイトより、所定の情報を取得する取得手段と、
前記取得手段により取得された前記所定の情報を、時間と対応付けて記憶する第3の記憶手段と、
前記第1の受信手段により受信された前記撮影画像に付加された前記時間情報に基づいて、前記第3の記憶手段により記憶された前記所定の情報から、前記撮影画像の撮影された時間と対応付けられた前記所定の情報を読み出す読み出し手段と、
前記第2の記憶手段により時間毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記読み出し手段により読み出された前記所定の情報を含む時間毎のWebページを作成する第2の作成手段と、
前記第2の作成手段により作成された前記Webページをネットワーク上に公開する公開手段と
を備えることを特徴とする情報処理装置。
First storage means for storing a map image;
A first receiving unit configured to receive, from a photographing apparatus, a photographed image that is photographed by the photographing apparatus and to which position information indicating a photographing place and time information indicating a photographing date and time are added;
Based on the position information added to the captured image received by the first receiving unit, the shooting location of the captured image on the map image stored by the first storage unit A first creating means for creating a marker-added map image with a marker;
The photographed image received by the first receiving means and the marker-added map image created by the first creating means are classified for each time based on the time information added to the photographed image. Second storage means for storing
An acquisition means for acquiring predetermined information from a predetermined website set in advance;
Third storage means for storing the predetermined information acquired by the acquisition means in association with time;
Based on the time information added to the captured image received by the first receiving means, the predetermined information stored by the third storage means corresponds to the time when the captured image was captured. Reading means for reading the predetermined information attached;
Creating a web page for each time including the captured image classified and stored by the second storage means, the map image with marker, and the predetermined information read by the reading means; 2 creation means;
An information processing apparatus comprising: a publishing unit that publishes the Web page created by the second creating unit on a network.
前記所定の情報は、天気に関する情報、ニュースに関する情報、および音楽に関する情報のうち、少なくとも1つ以上の情報を含む
ことを特徴とする請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the predetermined information includes at least one of information related to weather, information related to news, and information related to music.
前記第2の記憶手段は、前記マーカ付き地図画像、および前記撮影画像を日付毎に分類して記憶し、
前記第3の記憶手段は、前記所定の情報を日付と対応付けて記憶し、
前記第2の作成手段は、日付毎のWebページを作成する
ことを特徴とする請求項2に記載の情報処理装置。
The second storage means classifies and stores the marker-added map image and the captured image for each date,
The third storage means stores the predetermined information in association with a date;
The information processing apparatus according to claim 2, wherein the second creation unit creates a Web page for each date.
他の情報処理装置より、前記第2の記憶手段により前記撮影画像が分類されている前記日付のリストの要求を受信する第2の受信手段と、
前記第2の受信手段により前記要求が受信された場合、前記撮影画像が分類されている前記日付のリストを作成する第3の作成手段と、
前記第3の作成手段により作成された前記日付のリストを前記他の情報処理装置に送信する送信手段と、
前記他の情報処理装置より、前記日付のリストの中から選択された前記日付の前記Webページの閲覧要求を受信する第3の受信手段と
をさらに備え、
前記公開手段は、前記第3の受信手段により前記閲覧要求が受信された前記日付の前記Webページを、前記他の情報処理装置に公開する
ことを特徴とする請求項4に記載の情報処理装置。
Second receiving means for receiving a request for a list of dates on which the captured images are classified by the second storage means from another information processing apparatus;
Third creation means for creating a list of the dates on which the captured images are classified when the request is received by the second reception means;
Transmitting means for transmitting the list of dates created by the third creating means to the other information processing apparatus;
A third receiving means for receiving, from the other information processing apparatus, a request for browsing the web page on the date selected from the list of dates;
The information processing apparatus according to claim 4, wherein the publishing means publishes the Web page on the date on which the browsing request is received by the third receiving means to the other information processing apparatus. .
前記第1の記憶手段は、複数に分解した前記地図画像を記憶し、
前記第1の作成手段は、前記第1の受信手段により受信された前記撮影画像に付加された前記位置情報に基づいて、前記第1の記憶手段により記憶された複数の前記地図画像の中から、前記撮影場所が含まれている前記地図画像を選択して、その前記地図画像上の、前記撮影画像の前記撮影場所に前記マーカを付けて、前記マーカ付き地図画像を作成する
ことを特徴とする請求項2に記載の情報処理装置。
The first storage means stores the map image decomposed into a plurality of parts,
The first creating unit is configured to select from among the plurality of map images stored by the first storage unit based on the position information added to the photographed image received by the first receiving unit. Selecting the map image including the shooting location, attaching the marker to the shooting location of the captured image on the map image, and generating the marker-added map image. The information processing apparatus according to claim 2.
地図画像を記憶する第1の記憶ステップと、
撮影装置より、前記撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像を受信する受信ステップと、
前記受信ステップの処理により受信された、前記撮影画像に付加された前記位置情報に基づいて、前記第1の記憶ステップの処理により記憶されている前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、
前記受信ステップの処理により受信された前記撮影画像、および前記第1の作成ステップの処理により作成された前記マーカ付き地図画像を、前記撮影画像に付加された前記時間情報に基づいて、時間毎に分類して記憶する第2の記憶ステップと、
予め設定された所定のWebサイトより、所定の情報を取得する取得ステップと、
前記取得ステップの処理により取得された前記所定の情報を、時間と対応付けて記憶する第3の記憶ステップと、
前記受信ステップの処理により受信された前記撮影画像に付加された前記時間情報に基づいて、前記第3の記憶ステップの処理により記憶された前記所定の情報から、前記撮影画像の撮影された時間と対応付けられた前記所定の情報を読み出す読み出しステップと、
前記第2の記憶ステップの処理により時間毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記読み出しステップの処理により読み出された前記所定の情報を含む時間毎のWebページを作成する第2の作成ステップと、
前記第2の作成ステップの処理により作成された前記Webページをネットワーク上に公開する公開ステップと
を含むことを特徴とする情報処理方法。
A first storage step for storing a map image;
A receiving step of receiving from the imaging device a captured image captured by the imaging device, to which position information indicating a shooting location and time information indicating a shooting date and time are added;
The shooting location of the shot image on the map image stored by the process of the first storage step based on the position information added to the shot image received by the process of the receiving step A first creation step of creating a map image with a marker by attaching a marker to
Based on the time information added to the captured image, the captured image received by the processing of the receiving step and the map image with a marker created by the processing of the first creation step are A second storage step for classifying and storing;
An acquisition step of acquiring predetermined information from a predetermined website set in advance;
A third storage step of storing the predetermined information acquired by the processing of the acquisition step in association with time;
Based on the time information added to the photographed image received by the process of the reception step, the time when the photographed image was photographed from the predetermined information stored by the process of the third storage step; A reading step of reading the predetermined information associated with;
Web page for each hour including the captured image classified and stored by time by the process of the second storage step, the map image with marker, and the predetermined information read by the process of the read step A second creation step for creating
A publishing step of publishing the Web page created by the processing of the second creation step on a network.
地図画像の記憶を制御する第1の記憶制御ステップと、
撮影装置からの、前記撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像の受信を制御する受信制御ステップと、
前記受信制御ステップの処理により受信が制御された、前記撮影画像に付加された前記位置情報に基づいて、前記第1の記憶制御ステップの処理により記憶が制御されている前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、
前記受信制御ステップの処理により受信が制御された前記撮影画像、および前記第1の作成ステップの処理により作成された前記マーカ付き地図画像の、前記撮影画像に付加された前記時間情報に基づいた、時間毎に分類した記憶を制御する第2の記憶制御ステップと、
予め設定された所定のWebサイトより、所定の情報を取得する取得ステップと、
前記取得ステップの処理により取得された前記所定の情報の、時間と対応付けた記憶を制御する第3の記憶制御ステップと、
前記受信制御ステップの処理により受信が制御された前記撮影画像に付加された前記時間情報に基づいて、前記第3の記憶制御ステップの処理により記憶された前記所定の情報から、前記撮影画像の撮影された時間と対応付けられた前記所定の情報を読み出す読み出しステップと、
前記第2の記憶制御ステップの処理により時間毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記読み出しステップの処理により読み出された前記所定の情報を含む時間毎のWebページを作成する第2の作成ステップと、
前記第2の作成ステップの処理により作成された前記Webページをネットワーク上に公開する公開ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A first storage control step for controlling storage of the map image;
A reception control step for controlling reception of a photographed image taken by the photographing apparatus, to which position information indicating a photographing location and time information indicating a photographing date and time are added;
On the map image whose storage is controlled by the processing of the first storage control step based on the position information added to the captured image, the reception of which has been controlled by the processing of the reception control step, A first creation step of creating a marker-added map image by attaching a marker to the shooting location of the shot image;
Based on the time information added to the photographed image of the photographed image whose reception is controlled by the process of the reception control step and the map image with a marker created by the process of the first creation step, A second storage control step for controlling storage classified by time;
An acquisition step of acquiring predetermined information from a predetermined website set in advance;
A third storage control step for controlling storage of the predetermined information acquired by the processing of the acquisition step in association with time;
Based on the time information added to the captured image whose reception is controlled by the process of the reception control step, the captured image is captured from the predetermined information stored by the process of the third storage control step. A step of reading out the predetermined information associated with the determined time;
Web for each hour including the captured image classified and stored by time by the process of the second storage control step, the map image with marker, and the predetermined information read by the process of the read step A second creation step for creating a page;
And a publishing step of publishing the Web page created by the process of the second creating step on a network. A recording medium on which a computer-readable program is recorded.
地図画像の記憶を制御する第1の記憶制御ステップと、
撮影装置からの、前記撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す時間情報が付加された撮影画像の受信を制御する受信制御ステップと、
前記受信制御ステップの処理により受信が制御された、前記撮影画像に付加された前記位置情報に基づいて、前記第1の記憶制御ステップの処理により記憶が制御されている前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、
前記受信制御ステップの処理により受信が制御された前記撮影画像、および前記第1の作成ステップの処理により作成された前記マーカ付き地図画像の、前記撮影画像に付加された前記時間情報に基づいた、時間毎に分類した記憶を制御する第2の記憶制御ステップと、
予め設定された所定のWebサイトより、所定の情報を取得する取得ステップと、
前記取得ステップの処理により取得された前記所定の情報の、時間と対応付けた記憶を制御する第3の記憶制御ステップと、
前記受信制御ステップの処理により受信された前記撮影画像に付加された前記時間情報に基づいて、前記第3の記憶制御ステップの処理により記憶された前記所定の情報から、前記撮影画像の撮影された時間と対応付けられた前記所定の情報を読み出す読み出しステップと、
前記第2の記憶制御ステップの処理により時間毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記読み出しステップの処理により読み出された前記所定の情報を含む時間毎のWebページを作成する第2の作成ステップと、
前記第2の作成ステップの処理により作成された前記Webページをネットワーク上に公開する公開ステップと
をコンピュータに実行させることを特徴とするプログラム。
A first storage control step for controlling storage of the map image;
A reception control step for controlling reception of a photographed image taken by the photographing apparatus, to which position information indicating a photographing location and time information indicating a photographing date and time are added;
On the map image whose storage is controlled by the processing of the first storage control step based on the position information added to the captured image, the reception of which has been controlled by the processing of the reception control step, A first creation step of creating a marker-added map image by attaching a marker to the shooting location of the shot image;
Based on the time information added to the photographed image of the photographed image whose reception is controlled by the process of the reception control step and the map image with a marker created by the process of the first creation step, A second storage control step for controlling storage classified by time;
An acquisition step of acquiring predetermined information from a predetermined website set in advance;
A third storage control step for controlling storage of the predetermined information acquired by the processing of the acquisition step in association with time;
Based on the time information added to the captured image received by the process of the reception control step, the captured image is captured from the predetermined information stored by the process of the third storage control step. A reading step of reading the predetermined information associated with the time;
Web for each hour including the captured image classified and stored by time by the process of the second storage control step, the map image with marker, and the predetermined information read by the process of the read step A second creation step for creating a page;
A program causing a computer to execute a publishing step of publishing the Web page created by the process of the second creating step on a network.
ネットワークに接続可能な撮影装置、およびWebページを公開する情報処理装置から構成されるサービス提供システムにおいて、
前記撮影装置は、
被写体を撮影して撮影画像を作成する第1の作成手段と、
前記被写体が撮影された撮影場所を示す位置情報を取得する第1の取得手段と、
前記被写体が撮影された日時を示す第1の時間情報を取得する第2の取得手段と、
前記第1の作成手段により作成された前記撮影画像に、前記第1の取得手段により取得された前記位置情報、および前記第2の取得手段により取得された前記第1の時間情報を付加して記憶する第1の記憶手段と、
文章を入力する第1の入力手段と、
前記文章に対応付ける日付を示す第2の時間情報を入力する第2の入力手段と、
前記第1の入力手段により入力された前記文章に、前記第2の入力手段により入力された前記第2の時間情報を付加して記憶する第2の記憶手段と、
前記第1の記憶手段により前記位置情報と前記第1の時間情報が付加されて記憶された前記撮影画像を、前記情報処理装置に送信する第1の送信手段と、
前記第2の記憶手段により前記第2の時間情報が付加されて記憶された前記文章を、前記情報処理装置に送信する第2の送信手段と、
を備え、
前記情報処理装置は、
地図画像を記憶する第3の記憶手段と、
前記撮影装置より、前記撮影画像を受信する第1の受信手段と、
前記第1の受信手段により受信された前記撮影画像に付加された前記位置情報に基づいて、前記第3の記憶手段により記憶されている前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第2の作成手段と、
前記撮影装置より、前記第2の時間情報が付加された前記文章を受信する第2の受信手段と、
前記第1の受信手段により受信された前記撮影画像、および前記第2の作成手段により作成された前記マーカ付き地図画像を、前記撮影画像に付加された前記第1の時間情報に基づいて、日付毎に分類して記憶するとともに、前記第2の受信手段により受信された前記文章を、前記第2の時間情報に基づいて、日付毎に分類して記憶する第4の記憶手段と、
前記第4の記憶手段により日付毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記文章を含む日付毎のWebページを作成する第3の作成手段と、
前記第3の作成手段により作成された前記Webページをネットワーク上に公開する公開手段と
を備えることを特徴とするサービス提供システム。
In a service providing system composed of a photographing device connectable to a network and an information processing device that publishes a web page
The imaging device
First creating means for photographing a subject and creating a captured image;
First acquisition means for acquiring position information indicating a shooting location where the subject was shot;
Second acquisition means for acquiring first time information indicating the date and time when the subject was photographed;
The position information acquired by the first acquisition unit and the first time information acquired by the second acquisition unit are added to the captured image generated by the first generation unit. First storage means for storing;
A first input means for inputting a sentence;
Second input means for inputting second time information indicating a date associated with the sentence;
Second storage means for adding and storing the second time information input by the second input means to the sentence input by the first input means;
First transmission means for transmitting the captured image stored with the position information and the first time information added thereto by the first storage means, to the information processing apparatus;
Second transmission means for transmitting the sentence stored with the second time information added thereto by the second storage means to the information processing apparatus;
With
The information processing apparatus includes:
Third storage means for storing a map image;
First receiving means for receiving the photographed image from the photographing device;
Based on the position information added to the captured image received by the first receiving means, a marker is placed on the shooting location of the captured image on the map image stored by the third storage means. A second creation means for creating a marker-added map image,
A second receiving means for receiving the sentence to which the second time information is added from the photographing device;
Based on the first time information added to the photographed image, the date of the photographed image received by the first receiver and the map image with marker created by the second creator A fourth storage unit that classifies and stores the sentence received by the second reception unit, and classifies and stores the sentence received by the date based on the second time information;
Third creation means for creating a Web page for each date including the captured image, the marker-added map image, and the sentence, which are classified and stored for each date by the fourth storage means;
A service providing system comprising: a publishing unit that publishes the Web page created by the third creating unit on a network.
地図画像を記憶する第1の記憶手段と、
撮影装置より、前記撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す第1の時間情報が付加された撮影画像を受信する第1の受信手段と、
前記第1の受信手段により受信された、前記撮影画像に付加された前記位置情報に基づいて、前記第1の記憶手段により記憶されている前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成手段と、
前記撮影装置より、文章、および前記文章を対応付けるべき日付を示す第2の時間情報を受信する第2の受信手段と、
前記第1の受信手段により受信された前記撮影画像、および前記第1の作成手段により作成された前記マーカ付き地図画像を、前記撮影画像に付加された前記第1の時間情報に基づいて、日付毎に分類して記憶するとともに、前記第2の受信手段により受信された前記文章を、前記第2の時間情報に基づいて、日付毎に分類して記憶する第2の記憶手段と、
前記第2の記憶手段により日付毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記文章を含む日付毎のWebページを作成する第2の作成手段と、
前記第2の作成手段により作成された前記Webページをネットワーク上に公開する公開手段と
を備えることを特徴とする情報処理装置。
First storage means for storing a map image;
First receiving means for receiving, from a photographing device, a photographed image that is photographed by the photographing device and to which position information indicating a photographing location and first time information indicating a photographing date and time are added;
Based on the position information added to the captured image received by the first receiving unit, the shooting location of the captured image on the map image stored by the first storage unit A first creating means for creating a marker-added map image with a marker;
Second receiving means for receiving, from the photographing device, second time information indicating a sentence and a date to which the sentence should be associated;
Based on the first time information added to the photographed image, the date of the photographed image received by the first receiver and the map image with marker created by the first creator A second storage means for classifying and storing the sentence received by the second receiving means, classified and stored for each date based on the second time information;
Second creation means for creating a Web page for each date including the captured image, the marker-added map image, and the sentence, which are classified and stored for each date by the second storage means;
An information processing apparatus comprising: a publishing unit that publishes the Web page created by the second creating unit on a network.
前記第2の記憶手段は、前記第2の時間情報が予め定められた所定の情報である場合、前記文章を最新の日付に分類して記憶する
ことを特徴とする請求項11に記載の情報処理装置。
12. The information according to claim 11 , wherein the second storage unit classifies and stores the sentence as the latest date when the second time information is predetermined information. Processing equipment.
地図画像を記憶する第1の記憶ステップと、
撮影装置より、前記撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す第1の時間情報が付加された撮影画像を受信する第1の受信ステップと、
受信された前記撮影画像に付加された前記位置情報に基づいて、前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、
前記撮影装置より、文章、および前記文章を対応付けるべき日付を示す第2の時間情報を受信する第2の受信ステップと、
受信された前記撮影画像、および作成された前記マーカ付き地図画像を、前記撮影画像に付加された前記第1の時間情報に基づいて、日付毎に分類して記憶するとともに、受信された前記文章を、前記第2の時間情報に基づいて、日付毎に分類して記憶する第2の記憶ステップと、
日付毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記文章を含む日付毎のWebページを作成する第2の作成ステップと、
作成された前記Webページをネットワーク上に公開する公開ステップと
を含むことを特徴とする情報処理方法。
A first storage step for storing a map image;
A first receiving step of receiving a photographed image from the photographing device, which is photographed by the photographing device and to which position information indicating a photographing location and first time information indicating a photographing date and time are added;
A first creation step of creating a marker-added map image by attaching a marker to the shooting location of the shot image on the map image based on the position information added to the received shot image;
A second receiving step of receiving second time information indicating a sentence and a date to which the sentence should be associated, from the photographing device;
The received captured image and the created map-attached map image are classified and stored for each date based on the first time information added to the captured image, and the received text A second storage step for classifying and storing each date based on the second time information;
A second creation step of creating a web page for each date including the photographed image classified and stored for each date, the map image with marker, and the sentence;
And a publishing step of publishing the created web page on a network.
地図画像の記憶を制御する第1の記憶制御ステップと、
撮影装置より、前記撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す第1の時間情報が付加された撮影画像の受信を制御する第1の受信制御ステップと、
受信された前記撮影画像に付加された前記位置情報に基づいて、前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、
前記撮影装置より、文章、および前記文章を対応付けるべき日付を示す第2の時間情報の受信を制御する第2の受信制御ステップと、
受信された前記撮影画像、および作成された前記マーカ付き地図画像を、前記撮影画像に付加された前記第1の時間情報に基づいて、日付毎に分類し、日付毎に分類された前記撮影画像および前記マーカ付き地図画像の記憶を制御するとともに、受信された前記文章を、前記第2の時間情報に基づいて、日付毎に分類し、日付毎に分類された前記文章の記憶を制御する第2の記憶制御ステップと、
日付毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記文章を含む日付毎のWebページを作成する第2の作成ステップと、
作成された前記Webページをネットワーク上に公開する公開ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A first storage control step for controlling storage of the map image;
A first reception control step for controlling reception of a photographed image taken by the photographing device and added with position information indicating a photographing location and first time information indicating a photographing date and time;
A first creation step of creating a marker-added map image by attaching a marker to the shooting location of the shot image on the map image based on the position information added to the received shot image;
A second reception control step for controlling reception of second time information indicating a date and a date to which the sentence should be associated from the photographing device;
The received captured image and the created map image with marker are classified for each date based on the first time information added to the captured image, and the captured image is classified for each date. And controlling the storage of the marker-added map image, and classifying the received sentence for each date based on the second time information, and controlling the storage of the sentence classified for each date . Two memory control steps;
A second creation step of creating a web page for each date including the photographed image classified and stored for each date, the map image with marker, and the sentence;
And a publishing step of publishing the created web page on a network. A recording medium on which a computer-readable program is recorded.
地図画像の記憶を制御する第1の記憶制御ステップと、
撮影装置より、前記撮影装置により撮影され、撮影場所を示す位置情報、および撮影日時を示す第1の時間情報が付加された撮影画像の受信を制御する第1の受信制御ステップと、
受信された前記撮影画像に付加された前記位置情報に基づいて、前記地図画像上の、前記撮影画像の前記撮影場所にマーカを付けて、マーカ付き地図画像を作成する第1の作成ステップと、
前記撮影装置より、文章、および前記文章を対応付けるべき日付を示す第2の時間情報の受信を制御する第2の受信制御ステップと、
受信された前記撮影画像、および作成された前記マーカ付き地図画像を、前記撮影画像に付加された前記第1の時間情報に基づいて、日付毎に分類し、日付毎に分類された前記撮影画像および前記マーカ付き地図画像の記憶を制御するとともに、受信された前記文章を、前記第2の時間情報に基づいて、日付毎に分類し、日付毎に分類された前記文章の記憶を制御する第2の記憶制御ステップと、
日付毎に分類して記憶された前記撮影画像、前記マーカ付き地図画像、および前記文章を含む日付毎のWebページを作成する第2の作成ステップと、
作成された前記Webページをネットワーク上に公開する公開ステップと
をコンピュータに実行させることを特徴とするプログラム。
A first storage control step for controlling storage of the map image;
A first reception control step for controlling reception of a photographed image taken by the photographing device and added with position information indicating a photographing location and first time information indicating a photographing date and time;
A first creation step of creating a marker-added map image by attaching a marker to the shooting location of the shot image on the map image based on the position information added to the received shot image;
A second reception control step for controlling reception of second time information indicating a date and a date to which the sentence should be associated from the photographing device;
The received captured image and the created map image with marker are classified for each date based on the first time information added to the captured image, and the captured image is classified for each date. And controlling the storage of the marker-added map image, and classifying the received sentence for each date based on the second time information, and controlling the storage of the sentence classified for each date . Two memory control steps;
A second creation step of creating a web page for each date including the photographed image classified and stored for each date, the map image with marker, and the sentence;
A program for causing a computer to execute a publishing step of publishing the created web page on a network.
JP2002182332A 2002-06-24 2002-06-24 Service providing system, information processing apparatus and method, recording medium, and program Expired - Fee Related JP4123841B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002182332A JP4123841B2 (en) 2002-06-24 2002-06-24 Service providing system, information processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002182332A JP4123841B2 (en) 2002-06-24 2002-06-24 Service providing system, information processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2004032129A JP2004032129A (en) 2004-01-29
JP4123841B2 true JP4123841B2 (en) 2008-07-23

Family

ID=31178871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002182332A Expired - Fee Related JP4123841B2 (en) 2002-06-24 2002-06-24 Service providing system, information processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4123841B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0534044U (en) * 1991-10-15 1993-05-07 三菱自動車工業株式会社 High mount lamp device
JPH0534043U (en) * 1991-10-15 1993-05-07 三菱自動車工業株式会社 High mount lamp device

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224776B1 (en) 2000-07-26 2012-07-17 Kdl Scan Designs Llc Method and system for hosting entity-specific photo-sharing websites for entity-specific digital cameras
CN101124824A (en) * 2004-10-04 2008-02-13 森内拉科技有限责任公司 Method and system for integrating capture events in a user interface-based application
JP2007011452A (en) * 2005-06-28 2007-01-18 Sony Corp Program, data processing method, data processor, audio reproducing apparatus
JP2007199853A (en) * 2006-01-24 2007-08-09 Mitsubishi Electric Engineering Co Ltd Work journal preparation device and program
KR100725792B1 (en) * 2006-02-01 2007-06-08 엔에이치엔(주) System and method for providing geographic information in private webpage
JP4974669B2 (en) * 2006-12-27 2012-07-11 オリンパスイメージング株式会社 Image processing system
JP5230959B2 (en) * 2007-04-02 2013-07-10 オリンパスイメージング株式会社 Automatic document creation device and program
KR101441587B1 (en) 2008-01-30 2014-09-23 삼성전자 주식회사 An apparatus for learning photographing profiles of digital imaging devices for personal lifelong recording and learning methods thereof
JP5119288B2 (en) * 2010-03-15 2013-01-16 シャープ株式会社 Portable terminal device, information output system, information output method, program, and recording medium
JP2014048696A (en) * 2012-08-29 2014-03-17 Konami Digital Entertainment Co Ltd Management device, service provision system, method of controlling the management device, and program for the management device
JP5478747B2 (en) * 2013-02-25 2014-04-23 オリンパスイメージング株式会社 Automatic document creation device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1172348A (en) * 1997-08-28 1999-03-16 Seiko Epson Corp Camera device and method for obtaining information
JP2000171886A (en) * 1998-12-02 2000-06-23 Canon Inc Photographing device and information recorder
DE60141931D1 (en) * 2000-02-21 2010-06-10 Hewlett Packard Co Magnification of image data sets
JP2001282813A (en) * 2000-03-29 2001-10-12 Toshiba Corp Multimedia data retrieval method, index information providing method, multimedia data retrieval device, index server and multimedia data retrieval server
JP2001339594A (en) * 2000-05-25 2001-12-07 Fujitsu Ltd Image processing system
JP2002007463A (en) * 2000-06-21 2002-01-11 Kimimasa Yamakawa Contents distribution system and method for distributing document file of distribution server
JP3730110B2 (en) * 2000-09-22 2005-12-21 セイコーエプソン株式会社 Travel information providing method and travel information providing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0534044U (en) * 1991-10-15 1993-05-07 三菱自動車工業株式会社 High mount lamp device
JPH0534043U (en) * 1991-10-15 1993-05-07 三菱自動車工業株式会社 High mount lamp device

Also Published As

Publication number Publication date
JP2004032129A (en) 2004-01-29

Similar Documents

Publication Publication Date Title
JP5385598B2 (en) Image processing apparatus, image management server apparatus, control method thereof, and program
CN100530191C (en) Information processing apparatus and method
JP4123841B2 (en) Service providing system, information processing apparatus and method, recording medium, and program
EP1797707B1 (en) Place name picture annotation on camera phones
JP5386946B2 (en) Image processing apparatus, image processing method, image processing program, and image processing system
US9660979B2 (en) Information processing system, information processing apparatus, and method
US8356033B2 (en) Album system, photographing device, and server
KR100649040B1 (en) Method of managing·browsing image data
US20050052695A1 (en) Service server and print service method
JP2003319365A (en) Image server and image display system
US20030053608A1 (en) Photographing terminal device, image processing server,photographing method and image processing method
CN1327650C (en) Data upload method to data storing system and device thereof
CN101017485A (en) Method and system of storing and sharing GPS picture
JP2011078008A (en) Content sharing apparatus, content editing apparatus, content sharing program, and content editing program
JP2012005028A (en) Imaging device, information distribution device, transmission method, information distribution method, and program
JP4104055B2 (en) Image data management device
JP3910794B2 (en) Video search file creation method and homepage update method
JP2010176287A (en) Portable equipment, method for controlling portable equipment, and program for controlling portable equipment
JPH10243263A (en) Image data processing system and image-processing unit
JP2005196615A (en) Information processing system and information processing method
JP4341219B2 (en) Display image files
JP2008165373A (en) Image processing method, image processor and image processing system
CN103064865A (en) Photo directly sharing system
US8260965B2 (en) Method and system for providing blog service by using mobile terminal, and mobile blog caster therefor
JP2006126964A (en) Data creation apparatus, mobile terminal, and data creation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080428

R151 Written notification of patent or utility model registration

Ref document number: 4123841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees