JP2005057343A - Apparatus and method of registering image data - Google Patents

Apparatus and method of registering image data Download PDF

Info

Publication number
JP2005057343A
JP2005057343A JP2003206007A JP2003206007A JP2005057343A JP 2005057343 A JP2005057343 A JP 2005057343A JP 2003206007 A JP2003206007 A JP 2003206007A JP 2003206007 A JP2003206007 A JP 2003206007A JP 2005057343 A JP2005057343 A JP 2005057343A
Authority
JP
Japan
Prior art keywords
data
image data
instruction
shooting
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003206007A
Other languages
Japanese (ja)
Inventor
Hiroyuki Tanaka
博之 田中
Ryota Hayashi
亮太 林
Akihiro Tajima
章弘 田島
Kazuhiro Shin
和博 新
Hisafumi Tanaka
寿文 田中
Takashi Suzuki
隆司 鈴木
Emi Udagawa
絵美 宇田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Tokio Marine and Nichido Fire Insurance Co Ltd
Original Assignee
NTT Docomo Inc
Tokio Marine and Nichido Fire Insurance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Tokio Marine and Nichido Fire Insurance Co Ltd filed Critical NTT Docomo Inc
Priority to JP2003206007A priority Critical patent/JP2005057343A/en
Publication of JP2005057343A publication Critical patent/JP2005057343A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently collect required images at the site of an automobile accident etc. <P>SOLUTION: An insurance agency having rushed to the site or an insured person himself/herself at the site photographs moving image data of the site, and transmits them to an operator terminal 5 by using a cellular telephone 3 having a moving image photographing function. Then, suitable static image data are acquired from the image data of the moving image of the site transmitted from the cellular telephone 3 in response to an instruction of the operator of the operator terminal 5. Further, the operator terminal 5 has an instruction transmitting means for transmitting data about photographing instructions other than a voice instruction to the cellular telephone 3 in response to the instruction of the operator. Since photographing instructions by a voice are difficult to be given depending on circumstances of the site in some cases, the transmission of the data such as an image or characters about photographing instructions to the cellular telephone makes it possible to perform comparatively smooth photographing. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明が属する技術分野】
本発明は、動画像データから静止画像データを取得して登録する技術に関する。
【0002】
【従来の技術】
例えば、特開2003−141243号公報には、以下のような技術が開示されている。すなわち、保険会社PCからの調査依頼に対して調査サーバは、現場外注先PCに調査指示を、鑑定事務所PCに鑑定指示を送信し、現場外注先で撮影された事故画像データを画像センタサーバに送信して記憶させ、鑑定事務所PCが画像センタサーバにアクセスして画像データ、医療所見、過去の調査レポートを参照して作成した鑑定レポートを画像センタサーバに送信して記憶させ、画像センタサーバから鑑定レポートを調査サーバに提供し、調査会社で総合事故レポートが作成され、その総合調査レポートを調査サーバから保険会社PCに提供するものである。しかし、この公報では既に事故画像データが取得されていることを前提としており、どのように取得するかについては述べられていない。
【0003】
また、特開平5−290057号公報には、以下のような技術が開示されている。すなわち、修理工場の見積人によって用いられる事故車両画像が、カラービデオディジタイザを用いてコンピュータに入力される。入力された画像は、見積事故損害を実証する視覚的な証拠となる。修理工場の見積人はコンピュータ上で事故見積を行い、必要とされる種々の画像領域を強調表示する。見積が終了すると、見積ファイルが圧縮され、保険会社に伝送される。保険会社では、保険会社の見積人が見積もりファイルを圧縮解除し、見積を読みだし始める。更に詳しい説明が必要な場合には、保険会社の見積人がより多くの画像の撮影及び伝送を要求することができる。この技術においても、画像は修理工場などで修理工場の見積人により撮影されることを前提としている。
【0004】
従来、デジタルカメラで撮影された画像データに位置、方位および高度情報を保持し、立体画像上に表示させる際に撮影時の場所、撮影方向を表示させることにより撮影状況を明瞭に表現する仕組みが知られていた(例えば特開平11−122638号を参照のこと)。しかし、事故現場の撮影においてオペレータは保険契約者に対してどこで、どの方向に向けて撮影してほしいかを的確に指示する手段がなかった。したがって、保険契約者はオペレータが求めていない画像、または映像を撮影してしまうという課題があった。また、事故現場の状況を的確にヒヤリングし、それを地図情報と関連して記憶する手段が無かった。
【0005】
【特許文献1】
特開2003−141243号公報
【特許文献2】
特開平5−290057号公報
【特許文献3】
特開平11−122638号公報
【0006】
【発明が解決しようとする課題】
以上のような従来技術では、事故画像データを収集して自動車保険の処理において用いることについては開示されているが、例えば自動車事故の現場の画像データを効率的に収集することに関しては何ら開示が無い。
【0007】
従って、本発明の目的は、例えば自動車事故の現場など、所定の場所等において必要な画像を携帯端末を介して効率的に収集するために、携帯端末と携帯端末での操作に対する指示を行うサーバなどとの連携に関する技術を提供することである。
【0008】
【課題を解決するための手段】
本発明に係る画像データ登録装置は、動画像撮影機能を有する携帯端末機(例えば、携帯電話機)から動画像データを受信する手段と、受信した動画像データを表示装置に表示し、オペレータの指示のタイミングで表示装置に表示している画像を静止画像データとして取得し、当該静止画像データを記憶装置に格納する手段と、記憶装置に格納された静止画像データを、特定の識別情報に対応付けて画像データ記憶装置に登録する手段と、オペレータの指示に応じて音声以外の撮影指示に関するデータを、携帯端末機に送信する指示送信手段とを有する。
【0009】
このように動画像撮影機能を有する携帯端末機を利用するので、現場に急行した代理店等や現場にいる保険契約者自身が、現場の動画像データを撮影して画像データ登録装置に送信するようになる。そして、携帯端末機から送られてくる現場の動画像画像データから、画像データ登録装置のオペレータの指示に応じて適切な静止画像データを取得することができる。この際、オペレータが適切と思われる状態で静止画像データを取得できるため、携帯端末機の保有者が事故処理に精通している必要は無い。また、動画像データを受信するが、画像データ記憶装置に登録するのは静止画像データであるから、記憶容量の節約が行える。同時に、本画像データ登録装置については、オペレータの指示に応じて音声以外の撮影指示に関するデータを、携帯端末機に送信する指示送信手段をさらに有する。音声による撮影指示は、現場の状況によっては困難な場合もあり、例えば画像、文字などの撮影指示に関するデータを携帯端末機に送信するようにすれば、比較的スムーズに撮影が行えるようになる。
【0010】
また、本画像データ登録装置が、撮影指示に関するデータの選択肢となるデータを格納する撮影指示データ格納部をさらに有し、上で述べた指示送信手段が、撮影指示データ格納部に格納された撮影指示に関するデータの選択肢となるデータを読み出して表示装置に表示し、オペレータの選択指示に応じて携帯端末機に送信するようにしてもよい。このようにすれば、例えば頻繁に用いられる撮影指示に関するデータについては、直ぐに携帯端末機に送信できるようになる。なお、必ずしもこのような選択肢から撮影指示を選ばなければならないわけではなく、例えば自由文入力欄にオペレータがタイプした文字列を送信するようにしても良い。
【0011】
さらに、撮影指示に関するデータの選択肢となるデータが、事故の撮影に係る指示文データを含み、事故の撮影に係る指示文データが事故形態毎に分類されるようにしてもよい。例えば事故の撮影に係る指示を簡単な一文で複数用意しておき、オペレータが動画像の表示を見ながら、適切な文を選択してそのデータを携帯端末機に送信するものである。そして、事故の撮影に係る指示文データを事故形態毎に分類された状態で所定の領域に記憶しておき、表示可能にしておく。取得すべき静止画像データは事故形態によって異なるので、指示文についても事故形態に応じて分類されている方が、オペレータは選択しやすくなる。
【0012】
さらに、本画像データ登録装置が、撮影指示の履歴データと静止画像データの取得履歴データとのうち少なくともいずれかを記憶装置に格納する手段を有するようにしても良い。撮影指示の履歴データや静止画像データの取得履歴データによって、撮影状況を記録しておくことができ、後の静止画像データ利用時に用いることができる。
【0013】
また、上で述べた特定の識別情報が、携帯端末機の保有者に関連する保険契約の証券番号であるようにしてもよい。事故処理では証券番号が必須であるため、静止画像データも証券番号で管理する方が好ましいためである。
【0014】
本発明の第二の形態に係る画像データ登録装置は、画像撮影機能を有する携帯端末機から位置情報を取得する手段と、取得した位置情報を基に位置情報を含むエリアの地図情報を取得する手段と、取得したエリアの地図情報を用いて、当該エリアの地形タイプを判定する手段と、判定した地形タイプに基づいて、画像取得するための位置を特定する手段と、特定された位置を示すデータを、地形タイプのイメージ図のデータ又は地図情報データに付加する手段と、位置データを付加した地形タイプのイメージ図のデータ又は地図情報データを送信する手段と、送信した地形タイプのイメージ図のデータ又は地図情報データに基づいて携帯端末機によって取得された画像を受信する手段とを有する。
【0015】
さらに、第二の形態に係る画像データ登録装置が、携帯電話機の保有者からの音声を受け付ける手段と、受け付けた音声をテキスト変換処理する手段と、テキスト変換した音声から所定の語を検出する手段と、検出した所定の語に対応する絵コンテを表示装置に表示する手段と、表示された絵コンテに対するオペレータの操作に基づいて、地形タイプのイメージ図のデータ又は地図情報データを調整する手段とをさらに有するようにしてもよい。
【0016】
本発明の画像データ登録方法は、動画像撮影機能を有する携帯端末機から動画像データを受信するステップと、受信した動画像データを表示装置に表示し、オペレータの指示のタイミングで表示装置に表示している画像を静止画像データとして取得し、当該静止画像データを記憶装置に格納するステップと、記憶装置に格納された静止画像データを、特定の識別情報に対応付けて画像データ記憶装置に登録するステップと、オペレータの指示に応じて音声以外の撮影指示に関するデータを、携帯端末機に送信する指示送信ステップとを含む。
【0017】
なお、画像データ登録装置についての変形は、本画像データ登録方法に適用可能である。
【0018】
本発明に係る方法をコンピュータに実行させるためのプログラムを作成することも可能であって、当該プログラムは、例えばフレキシブル・ディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体又は記憶装置に格納される。また、ネットワークを介してディジタル信号として頒布される場合もある。なお、処理途中のデータについては、コンピュータのメモリに一時保管される。
【0019】
【発明の実施の形態】
[第1の実施例]
以下では、携帯端末の一例として携帯電話機を用いる場合を例として説明する。図1に本発明の一実施の形態に係るシステム概要図を示す。携帯電話網1aと固定電話網1bとは相互に接続しており、携帯電話機から固定電話機へ電話をかけることができ、固定電話機から携帯電話機へ電話をかけることができる。携帯電話網1aには、動画像の撮影及び動画像データの送受信が可能な1又は複数の携帯電話機3が接続する。携帯電話機3はGPS受信機にて位置情報を把握することができるものとする。また、固定電話網1aにも1又は複数の固定電話機が接続されるが、ここではゲートウェイ7が固定電話網1aに接続するものとする。なお、ゲートウェイ7は、呼の振り分け機能を有しており、例えば空いているオペレータ端末5に携帯電話機3などからの呼を振り分けるものとする。また、例えば、携帯電話網1a及び固定電話網1bでは、携帯電話機3からの動画像データが例えば3GPP 3G−324Mというプロトコルで通信され、社内ネットワーク9ではIPネットワークで動画像データが例えばH.323/SIPというプロトコルで通信される場合に、ゲートウェイ7は当該プロトコルの変換のための処理を行う。上記のプロトコル及びその変換機能については周知であるからこれ以上述べない。また、一例としてこのような構成を示しているが、必ずしもゲートウェイ7を用いなければならないわけではなく、さらに上記のプロトコルについても一例に過ぎず、各種方式を採用することが可能である。
【0020】
ゲートウェイ7には、上でも述べたようにIPネットワークである社内ネットワーク9が接続されており、当該社内ネットワーク9には、例えばパーソナル・コンピュータである1又は複数の社内端末17と、例えばパーソナル・コンピュータであり本実施の形態において主要な処理を実施する1又は複数のオペレータ端末5と、画像データ管理サーバ11とが接続されている。画像データ管理サーバ11は、オペレータ端末5から受信した画像データを格納する画像データ格納部13と、同じくオペレータ端末5から受信した撮影指示などの履歴である支援履歴データを格納する支援履歴DB15と、携帯電話機3の保有者の位置情報に基づき表示させるための地図を格納する地図情報DB18と、位置情報DB19とを管理している。位置情報DB19は、オペレータ端末5又は画像データ処理サーバ11からの指示に基づき携帯電話機の位置情報を把握した結果のデータを格納するものとする。また、図示しないが、オペレータ端末5又は画像データ管理サーバ11には、携帯電話機3の保有者から送られてくる音声をテキストデータに変換するための音声認識変換部を有している。さらに、図示しない音声認識変換部には、特定の語(例えば、「クルマ」、「自動車」、「トラック」など)を認識したときに、当該語に対応する絵コンテを表示装置に表示するための絵コンテデータと、これらの語とを対応付けた特定語テーブルを有している。これら音声認識変換部の構成が、描画支援ツールとして機能することになる。
【0021】
次に図2を用いてオペレータ端末5の機能ブロック図を示す。オペレータ端末5には、表示装置54と、スピーカ55及びマイク56とを含むヘッドセットと、入力装置であるキーボード57及びマウス58とが接続されており、オペレータ端末5では、撮影及びオペレータ支援プログラム51が実行される。なお、例えばハードディスクの一部記憶領域が、画像格納部52及び支援履歴データ格納部53になっている。撮影及びオペレータ支援プログラム51には、社内ネットワーク9に接続され通信処理を行う、図示しないハードウエアの通信部と協働し動画像データ等の通信処理を実施する通信処理部511と、携帯電話機の位置情報を地図情報に変換する位置情報処理部516と、事故などの現場の地図情報を格納する地図情報DB59と、例えば動画像データに含まれる音声データをスピーカから出力させ、マイク56から入力された音声データを通信処理部511に出力する音声処理部512と、携帯電話機3において撮影された動画像データを表示装置54に表示するための処理やオペレータからの指示に応じて表示装置54に表示されている画像を静止画像として画像格納部52に格納する動画像処理部513と、オペレータが携帯電話機3の保有者に対して撮影のための指示を出す際に支援を行うオペレータ支援処理部514と、オペレータ支援処理部514において用いられる撮影指示文のデータを含む支援データを格納する支援データ格納部515とを含む。なお、図示しないが、オペレータ端末5は、通常の音声会話のみを行うための機能や、従来から行っている事故受付処理のための機能などを有している。
【0022】
以下、図1に示したシステムの処理について図3乃至図5を用いて説明する。例えば、現場に急行した代理店等又は事故に遭った保険契約者などが、事故の通報などを行うため、携帯電話機3を操作して、コールセンタの所定の電話番号に発呼させる(ステップS1)。携帯電話機3が発呼すると、例えば携帯電話網1a及び固定電話網1b、さらにゲートウェイ7を介して特定のオペレータ端末5において着呼し、オペレータの指示に応じて接続する(ステップS3)。そして、携帯電話機3の保有者とオペレータとは通常の通話を行う(ステップS5)。ここでは、保険契約の証券番号を特定するための会話や、事故の状況を聞き出す会話などが行われる。そして、オペレータは会話から特定された証券番号や事故の状況などについてのデータを入力し、オペレータ端末5に事故受付処理を行わせる。これについては従来技術であるからこれ以上述べない。
【0023】
オペレータは、携帯電話機3の保有者に対して、当該携帯電話機3がGPS(Global Positioning System)にて位置情報を取得可能かどうかを尋ね、取得可能であれば位置情報を取得する。位置情報を取得後に事故現場の地図情報を表示させ、現場状況のヒヤリングを継続することとする。尚、オペレータが質問する内容は過去の実績から質問項目リストとして表示され、その内容について携帯電話機3から回答があると、音声認識変換部は音声認識に基づき、描画支援ツールが自動的に起動し、地図上に事故状況を描画し格納する。また、描画支援ツールは地図上にどこの撮影ポイントからどのアングルで動画、静止画を撮影してほしいかを描画することができるものとする。また、ここでオペレータは、携帯電話機3の保有者に対して、当該携帯電話機3が動画像撮影及び送受信機能(いわゆるテレビ電話機能)を有しているか尋ねる。もし、携帯電話機3に動画像撮影及び送受信機能がなければ、必要な情報を携帯電話機3の保有者から聞き出した時点で通話を終了する。すなわち、携帯電話機3とオペレータ端末5の回線を切断する。一方、携帯電話機3が動画像撮影及び送受信機能を有している場合には、オペレータ端末5は、オペレータの指示に応じて、撮影及びオペレータ支援プログラム51を起動する(ステップ7)。なお、初めから撮影及びオペレータ支援プログラム51を起動しておいてもよい。今回起動する場合には、撮影及びオペレータ支援プログラム51は、表示装置54に画面表示を行う。一方、携帯電話機3は、携帯電話機3の保有者による指示に応じて、テレビ電話モードに切り替える(ステップS9)。例えば携帯電話機3に備えられたカメラにて映像を取り込み、当該映像を、携帯電話機3の表示画面における少なくとも一部の領域に表示する。
【0024】
そして、携帯電話機3は、携帯電話網1a及び固定電話網1b、さらにゲートウェイ7を介して撮影した動画像データを継続的にオペレータ端末5に送信する(ステップS11)。オペレータ端末5における撮影及びオペレータ支援プログラム51の通信処理部511は、携帯電話機3から動画像データを受信し、動画像処理部513に出力する。そして、動画像処理部513は表示装置54に当該動画像を表示する(ステップS13)。音声データについても音声処理部512が処理を行い、スピーカ55から音声を出力する。但し、以下の処理において音声は必須ではなく、本実施の形態において主要部ではないので以下では説明を省略する。
【0025】
オペレータ端末5の表示装置54には例えば図4のような画面が表示される。図4の例では、画面上段に、電話番号入力欄401と、電話番号入力欄401に入力した電話番号に電話をかけることを通信処理部511に命じるための接続ボタン402と、通信処理部511に通信を終了することを命ずるための切断ボタン403と、事故に関連する保険契約の証券番号入力欄404とが設けられており、左側には、受信した動画像データを表示するための動画像表示欄405と、画像についての操作ボタン表示欄406と、操作ボタン表示欄406内に設けられ且つ受信した動画像データに対する拡大処理を動画像処理部513に命ずるためのズームイン・ボタン407と、操作ボタン表示欄406内に設けられ且つ受信した動画像データに対する縮小処理を動画像処理部513に命ずるためのズームアウト・ボタン408と、操作ボタン表示欄406内に設けられ且つ受信した動画像データから静止画像データを取得するための処理を動画像処理部513に命ずるための撮影ボタン409と、撮影ボタン409をクリックすることにより取得された静止画像データを表示するための静止画像表示欄410とが設けられている。なお、静止画像表示欄410には、例えばimage01として取得された静止画像の表示欄411と、当該image01として取得された静止画像についてのメモ入力欄414と、次に取得される静止画像の表示欄412と、当該次に取得される静止画像についてのメモ入力欄415と、次の次に取得される静止画像の表示欄413と、当該次の次に取得される静止画像についての、メモ入力欄416とが含まれる。なお、静止画像の表示欄410に表示される静止画像の数は3に限定されない。以上が、撮影及びオペレータ支援プログラム51の通信処理部511と動画像処理部513とに関連する表示部である。
【0026】
また図4の例では、画面左側には、オペレータが携帯電話機3の保有者に伝達すべき撮影指示文をキーボード57を用いて入力するための自由文入力欄417と、自由文入力欄417に入力された撮影指示文を携帯電話機3に送信させるための自由文入力送信ボタン425と、現在接続している携帯電話機3にこれまで送信した撮影指示文及び撮影操作の内容を支援履歴データとして表示する支援履歴データ表示欄418と、画面右側には、主に撮影開始時に用いる撮影指示文と各撮影指示文を選択するための選択ボタンとが含まれる第1定型指示文選択肢表示欄419と、事故形態をタブ421及び422などで切り替え、選択した事故形態毎に撮影指示文と各撮影指示文を選択するための選択ボタンとが含まれる第2定型指示文選択肢表示欄420と、主に撮影直前に用いる撮影指示文と各撮影指示文を選択するための選択ボタンとが含まれる第3定型指示文選択肢表示欄423と、主に撮影終了時に用いる撮影指示文と各撮影指示文を選択するための選択ボタンとが含まれる第4定型指示文選択肢表示欄424とが含まれる。以上が、撮影及びオペレータ支援プログラム51のオペレータ支援処理部514に関連する表示部である。
【0027】
第1乃至第4定型指示文選択肢表示欄に表示される撮影指示文のデータは、支援データ格納部515に格納されている。支援データ格納部515では、第1定型指示文選択肢表示欄419に表示されるべきオープニング用の撮影指示文のデータが格納される領域と、第2定型指示文選択肢表示欄420に表示されるべき事故形態毎の撮影指示文のデータが格納される領域と、第3定型指示文選択肢表示欄423に表示されるべき撮影時の撮影指示文のデータが格納される領域と、第4定型指示文選択肢表示欄424に表示されるべきクロージング用の撮影指示文が格納される領域とが設けられている。このように、撮影における場面毎に指示文を分類し、さらに事故形態毎に指示文を分類することにより、オペレータは熟練せずとも迷わず適切な撮影指示文を選択することができる。なお、第2定型指示文選択肢表示欄420は、タブにて事故形態を選択するような場合を示しているが、タブ以外の方法にて表示を切り替えるようにしても良い。また、第1乃至第4定型指示文選択肢表示欄の各々に3つの選択肢しか示していないが、例えば右側に用意したスライドバーをマウス58で移動させることにより他の選択肢を表示させることができる。
【0028】
例えば第1定型指示文選択肢表示欄419では、他にも「受話器マークの発信ボタンを長押しして下さい」などの指示文が含まれる。また第2定型指示文選択肢表示欄420の「交差点での出会い頭事故」のタブには、「相手車両の進行方向から交差点に向かって撮影して下さい」「スリップ痕があれば撮影して下さい」などが含まれている。また「路外から出てきた車と直進者の事故の場合」には、「お客様の進行方向から交差点に向かって撮影して下さい」「信号・道路標識がある場合、それを画面に入れて撮影して下さい」「相手車両の進行方向から交差点に向かって撮影して下さい」「衝突した地点を撮影して下さい」「路外から出てきた車が出てきた場所を撮影して下さい」といった指示文が含まれる。また、第3定型指示文選択肢表示欄423には、他にも「今、撮影しました」「もう少し右を撮影して下さい」「もう少し左を撮影して下さい」「もう少し前を撮影して下さい」「もう少し後を撮影して下さい」「お客様のお車の損傷部分を撮って下さい」「お客様のお車のナンバープレートを撮って下さい」「相手の車の損傷部分を撮って下さい」「相手の車のナンバープレートを撮って下さい」といった指示文が含まれる。
【0029】
図4の状態では、支援履歴データ表示欄418に表示されているように、「画面指示に従って撮影して下さい」及び「お客様の進行方向から交差点に向かって撮影して下さい」という指示文データを携帯電話機3に送信した後に、撮影ボタン409をクリックしてimage01という画像を静止画像データとして取得したところである。このように支援履歴データ表示欄418には、「>」マークの後ろに送信した撮影指示文のデータを表示し、”[”及び”]”で、画像のファイル名及び操作名を囲って表示するようになっている。
【0030】
図3の説明に戻って、オペレータは、図4のような画面において動画像表示欄405に表示された動画像をみて、適切な撮影指示文を選択するか又は自由文入力欄417に入力し、自由文入力送信ボタン425にて送信を命ずる。オペレータ端末5内の撮影及びオペレータ支援プログラム51のオペレータ支援処理部514は、撮影指示文の選択又は入力を受け付け、当該撮影指示文の例えば画像データをオペレータ端末5からの動画像データの代わりとして通信処理部511に送信させる(ステップS15)。なお、画像データではなく、例えばHTML(Hyper Text Markup Language)ファイルの形式など他の形式にて撮影指示文のデータを送信する場合もある。携帯電話機3は、オペレータ端末5から撮影指示文のデータを受信し、表示装置に表示する(ステップS17)。例えば図5に示すような画面が表示される。図5の例では、オペレータ端末5から送信された撮影指示文データを表示させるための表示領域601と、現在撮影中の画像を表示する動画像表示領域602とが含まれる。このように、携帯電話機3の保有者は、動画像表示領域602に表示された画像を見つつ、表示領域601に表示された内容を見て撮影指示を理解し、適切な撮影を行うようにする。
【0031】
そして、オペレータ端末5内の撮影及びオペレータ支援プログラム51のオペレータ支援処理部514は、オペレータにより撮影指示が行われたか、すなわち撮影ボタン409がクリックされたか判断する(ステップS19)。もし、撮影指示が行われていれば、撮影ボタン409がクリックされたタイミングで動画像表示欄405に表示されている画像を静止画像として取得し、当該静止画像データを画像格納部52に格納する(ステップS21)。なお、基本的には証券番号入力欄404に入力された証券番号に対応付けられた形で画像格納部52に格納される。例えば、証券番号のディレクトリに静止画像のファイルが格納される。なお、図4に示したように、メモ入力欄414などに入力された、画像についてのメモを併せて格納する場合もある。その後ステップS23に移行する。一方、撮影指示が行われていないと判断された場合には、ステップS23に移行する。
【0032】
ステップS23では、通信処理部511は、通信を終了するため例えば切断が指示されたか、すなわち切断ボタン403がクリックされたか判断する(ステップS23)。通信の終了が指示されていない場合には、ステップS13に戻り、ステップS13乃至S21を繰り返す。一方、撮影の終了が指示されたと判断された場合には、通信処理部511は切断処理を実施する(ステップS25)。これにより携帯電話機3でも切断処理を実施する。そして、オペレータ支援処理部514は、例えば支援履歴データ表示部418に表示されているデータから支援履歴データを生成し、支援履歴データ格納部53に格納すると共に、通信処理部511を介して画像データ管理サーバ11が管理している支援履歴DB15に登録する(ステップS27)。このように撮影履歴又は操作履歴と撮影指示文の送信履歴である支援履歴データを保存しておくことにより、後に取得した画像がどのような場面を撮影したものかを確認でき、さらにどのような指示の出し方が効果的であったかを後に解析し、支援データ格納部515に登録すべき撮影指示文の内容や組み合わせなどを更新することができるようになる。
【0033】
また、動画像処理部513は、画像格納部52に格納された静止画像データを、通信処理部511を介して、画像データ管理サーバ11が管理している画像データ格納部13に登録する(ステップS29)。なお、この際にも証券番号に対応して画像データ格納部13に登録する。例えば、保険金を算定するような業務を行う社員は、社内端末17を操作して画像データ管理サーバ11にアクセスすれば、画像データ格納部13から、事故に関連する保険契約の証券番号に基づき、取得された静止画像データを参照することができるようになる。従って、より適切な保険金を決定することができる。
【0034】
以上のような処理を行うことにより、動画像撮影機能及び送受信機能を有する携帯電話機3などの携帯端末を有する者が、事故などの現場にいる場合には、当該携帯端末を用いて保険金の算定業務に必要な画像データを取得することができる。よって、業務を効率化できると共に、より適切な保険金算定が可能となる。なお、図4に示した画面を表示装置54に表示させる撮影及びオペレータ支援プログラム51を実行することにより、オペレータは特段習熟していなくとも、撮影のための指示を出すことができ、必要な画像を撮影させることができる。
【0035】
[第2の実施例]
以上では、主にオペレータ端末5を介したオペレータの指示によって携帯端末からの撮影動画像を適切に取得したが、さらに、図1における画像データ管理サーバ11又はオペレータ端末5に、オペレータの行う操作の一部又はすべてを代替させ、さらに付加的な機能を実現させることが出来る。ここでは、画像データ管理サーバ11がこの機能を実現する場合を例として示す。
【0036】
まず、図6に画像データ管理サーバ11の機能ブロック図を示す。画像データ管理サーバ11には、制御部611、通信処理部613、地形タイプ判定部615、撮影ポイント設定部617、支援データ格納部619、オペレータ端末5(図1参照)からの入力指示データなどを受け付ける入力受付部621、さらに制御部611が画像取得処理をした静止画を格納する画像格納部623が設けられる。また、画像データ管理サーバ11は、社内ネットワーク9(図1参照)を介して、オペレータ端末5、及びゲートウエイ7(図1参照)が接続されている。通信処理部613は、画像データ管理サーバ11とオペレータ端末5、ゲートウエイ7(図1参照)との通信処理を行う。制御部611は、画像データ管理サーバ11の各種機能を制御するとともに、携帯端末(例えば図1の携帯電話機3)から送られてくる緯度、経度情報を通信処理部613を介して取得し、当該緯度、経度情報に対応する地図情報を地図情報データ格納部621から取得するように、地形タイプ判定部615に対して指示をする。地図情報データ格納部631には、各地の地図情報と、地図上の各ポイントそれぞれにおける緯度情報と経度情報とが対応付けた状態で格納されている。
【0037】
地形タイプ判定部615は、地図情報データ格納部631に格納された地図情報から、携帯電話機3等に関連する場所の情報を取得して、その位置における地図情報から地形のタイプを特定する。撮影ポイント設定部617は、特定された地形タイプに基づいて、撮影すべきポイントの候補地点を特定する。支援データ格納部619には、画像を取得するための各種データが記録されると同時に、あらかじめ画像取得するために画像データ管理サーバ11から携帯電話機3等に送信する文字データなどが記録されている。文字データは、図4の419乃至424に示したのと同じ又は同じ趣旨の内容の他、図7に示すような文字データが記録されている。それぞれの文字データには、送信順序と、送信される際に別途の画像データとセットで送信される文字データである場合は、セットとして特定されるべき画像を定義する内容が対応づけられている。例えば、「各撮影ポイントから交差点方向に向けて画像を取得して下さい」という文字データについては、後に説明する交差点を有する位置の撮影ポイントを示すイメージデータ(又は地図データ)に添付すべきものであるとのフラッグが立てられている。また、直線道路上において「当該地点の全景(道路の両端と地表面から地上5メートルまでを含む)」
【0038】
まず、オペレータが図1における携帯電話機3の保有者に対して、当該携帯電話機3が動画像撮影及び送受信機能(いわゆるテレビ電話機能)を有しているか尋ねる。そして、携帯電話機3が動画像撮影及び送受信機能を有している場合には、携帯電話機3の保有者に対してGPSによる位置情報の送信を依頼する。同時にオペレータ端末5は、オペレータの指示に応じて、携帯電話機3が動画像撮影及び送受信機能(いわゆるテレビ電話機能)を有しているといて画像取得が可能であるという情報を画像データ管理サーバ11に送信する。さらに、オペレータは携帯電話機3の保有者に対して、指示に従って現場画像の撮影を依頼する。併せて、事故の概況についての情報を電話によって取得する。この場合、図8に示したように、オペレータ端末5には、オペレータが事故の状況等に関してヒアリングすべき事項が表示され、オペレータはその内容に基づいて概況情報を取得する。図8に示した質問項目は、あらかじめ支援データ格納部619に記録されており、オペレータの指示に基づいて、オペレータ端末5の表示装置54に表示される。
【0039】
なお、携帯電話機3の保有者からの事故に関する情報は、図示しない画像データ管理サーバ11内に設けられた音声自動認識部によって音声認識され、文字情報としてテキストデータ化処理が行われる。音声認識に際して、特定のキーワードが得られた場合、音声自動認識部は当該キーワードに関連する画像データ(絵コンテ)を、例えば支援データ格納部619などから取得して、オペレータ端末5に通信処理部613を介して送信する。例えば、「クルマ」又は「自動車」という音声が認識された時に、音声自動認識部は自動車の絵コンテを支援データ格納部619から取得して、オペレータ端末5の表示装置上でドラッグ&ペースト可能な状態にして、オペレータ端末5に送信する。オペレータは、オペレータ端末5を操作して、表示された絵コンテを、例えばドラッグ&ペーストすることで、後に説明する地形タイプのイメージ図又は地図情報上の所定の位置に絵コンテを表示するように処理を行う。
【0040】
次に画像データ管理サーバ11は、携帯電話機3が動画像撮影及び送受信機能を有しているとするオペレータ端末5からの送信データに基づいて、携帯電話機3の保有者に対する画像撮影指示のための処理を実施する。 オペレータ端末5からの送信データとしては、例えば図示しないオペレータ端末5の表示装置上での「画像取得可」などのボタンをオペレータが押下することによってなされる。
【0041】
まず、画像データ管理サーバ11の地形タイプ判定部615は、制御部611からの指示に基づいて携帯電話から送られてきた当該携帯電話の所在する地点の緯度・経度情報によって特定される地点(以下、「当該地点」という)を包含する地図データを地図情報データ格納部631から取得する。そして、取得した地図情報に基づいて、当該地点の地形タイプを特定する。地形タイプは、例えば「十字路」、「T字路」、「曲折路」、「直線路」、「平面地」などのパターン(タイプ)として認識される。それぞれの地形タイプの例は、図9に示したとおりである。図9には、地形タイプ判定部615が判定した地形タイプと、携帯電話機3の所在する位置である当該地点を示す印が地形タイプを示す画面の中に表示されている。制御部611が通信処理部613を介して取得した携帯電話機3からの緯度・経度情報をもとに地図情報データ格納部631から、当該緯度・経度によって特定される当該地点から一定範囲(例えば、当該地点を中心とする半径30メートル以内のエリア、当該地点を重心点とする所定の大きさの所定形状の範囲に包含されるエリアなど)の地図情報データを取得する。そして、取得した地図データに基づいて、地形タイプ判定部615が当該地図データの示す地形を判定する。地形タイプの判定は、例えば次のようにして行われる。まず、地図情報データ格納部631から取得した地図データに基づいて、地形タイプ判定部615は当該地点を中心として一定距離の半径以内に包含される道路形状を取得する。道路形状は、図9に示すように道路の数と交差点の有無によって、いくつかのパターンに分類される。道路の数が複数で交差する点(交差点)を有する場合は、図9に示すように「十字路」、「T字路」、「曲折路」などとして、また道路の数が1つで、つまり交差点がない場合は「直線路」として把握される。なお、道路が5以上の数で交差点を形成する場合は、例えば「5差路」などとして把握される。以下、同様に道路の数によって、地形タイプが判定される。なお、地形タイプ判定のために取得する地図データの半径の大きさについては、都度、入力受付部621を介して、オペレータ端末5などから入力を受け付けることで決定してもよいし、またあらかじめ設定され地図情報データ格納部631又は支援データ格納部619に記憶された所定の距離を用いてもよい。また、所定半径を有する円形状の地図情報ではなく所定の大きさの所定形状に包含されるエリアの地図情報を得る場合も、同様に、形状と形状の大きさ(正方形や四角形の場合は1辺の長さや対角線の交差角度と長さなど)とを共に対応づけて支援データ格納部619に記録しておいてもよい。また、これら支援データ格納部619に格納された半径の長さ、形状と形状の大きさの対応データに代えて、例えば地図上の各地点毎の道路道幅、交差点の大きさなどに応じて、地図情報データ格納部631に取得すべきエリア範囲に関する情報を記録しておき、携帯電話等の位置する当該地点に対応する抽出エリアを地図情報を、地形タイプ判定部615が取得してもよい。
【0042】
地形タイプ判定部615は、取得した地図データ及び取得した地形タイプを示す画面データと、それらの中に当該地点として特定される位置データを付加して支援データ格納部619に一旦記録する。当該地点として特定される位置データの地形タイプを示す画面データへの付加は、地形タイプ判定部615が取得した地図情報データ中における当該地点の相対位置(つまり、十字路の内外や右寄り・左寄り、曲折路の曲折部上下左右いずれかの手前の所定距離を有する位置など)を特定し、特定された相対位置に関する情報を基に、地形タイプを示す画面データに対して行われる。また、地図データへの当該地点として特定される位置データの付加は、地形タイプ判定部615が取得した当該地点の緯度・経度情報に基づいて行われる。なお、当該地点を示す緯度・経度地点から一定範囲の地図情報中に道路形状として特定されるデータが存在しない場合、地形タイプ判定部615は図9(e)に示すように平面として地形タイプを特定する。
【0043】
次に、撮影ポイント設定部617による撮影ポイントの設定が行われる。制御部611は、地形タイプ判定部615による地形タイプの判定と、当該地点の位置データの付加と、支援データ格納部619に各種データの記録されたこととを確認すると、撮影ポイント設定部617によるポイントの設定を指示する。撮影ポイント設定部617は、支援データ格納部619から地図データと地形タイプと当該地点の位置データを読み出し、読み出したデータに基づいて撮影ポイントの候補とすべきポイントを特定する。例えば、図9の(a)のケースにおいて、当該地点から一定範囲の地図情報を基に、十字路が地形タイプとして特定された場合、撮影ポイント設定部617は初期設定として、十字路の交差点に進入するすべての道路上の交差点に向かって左端の位置にポイントマークを地図データ又は地形タイプを示すデータに付す。図10にその例が示している。
【0044】
図10(a)が図9(a)の地形パターンに対応する撮影候補ポイントを示している。図10に示すように、撮影ポイント設定部617の設定する撮影ポイント候補は、初期設定としては交差点に対して当該地点よりも遠い(つまり、携帯端末等が示した位置よりも交差点からより遠い)地点を設定する。つまり、図10(a)のポイント3は当該地点より交差点から遠い位置に設定されている。このように、撮影ポイント設定部617が指定する撮影候補ポイントは、「交差点がある場合」に、「交差点に進入するすべての道路上」、「道路左端」、そして「当該地点より遠い位置」という条件を満たす任意の地点にポイントマークを付す。同様に、T字路(図9(b)の地形タイプ)の場合の撮影候補ポイントの設定の仕方が図10(b)に示してある。図10(b)の場合、T字路の地形タイプの場合、「T字路の交差点」に対して「進入する全ての道路上」から、「交差点から当該地点より遠い」位置を選定して、撮影候補ポイントが設定される。なお、図10(b)の場合、交差点に進入するすべての道路に撮影候補ポイントを設定するようにしているが、交差点に進入する道路の左側に交差道路が存在せず、道路の外枠線が直線(又は一定距離以上の半径で示される弧を描く曲線である場合も含む)の場合は、その進入道路における撮影候補ポイントを除外するようにすることもできる。
【0045】
次に、図9(c)に示すように、片側だけに道路外枠線が存在する場合も、地形タイプ判定部615は当該地点を直線道路として特定する。直線道路の場合、道幅が地図情報の取得エリア以上に広い場合は片方の道路外枠しか補足できない場合もある。この場合、図10(c−1)に示すような形態(つまり、道幅の広い直線道路)として地形タイプが特定された場合、撮影ポイント設定部617は「当該地点を挟み」かつ「同じ道路外枠上の2つのポイント」を撮影候補ポイントとして特定する。また、図10(c−2)に示すように、直線道路の両外枠が取得した地図情報のエリア内で補足できた場合、撮影ポイント設定部617は「当該地点を挟み」かつ「道路上の両側の2つのポイント」を撮影候補ポイントとして特定する。
【0046】
さらに、図9(e)に示すように、当該地点を示す緯度・経度地点から一定範囲の地図情報中に道路形状として特定されるデータが存在しないため、地形タイプ判定部615が地形タイプを平面として特定した場合、当該地点を挟み」かつ「任意の2つのポイント」を撮影候補ポイントとして特定する。ここでの任意の2つのポイントと、当該位置を結ぶ線分は直線であってもよいし、2本の線が所定の角度(例えば90度)又は所定の範囲内の角度(90度乃至180度)で曲折していてもよい。これら角度情報又は角度の範囲情報はもあらかじめ支援データ格納部619に記録されており、撮影ポイント設定部617が撮影ポイントを設定する際に参照される。
【0047】
以上、制御部611が取得した当該位置情報と、地形タイプ判定部615が判定した地形タイプに基づいて、撮影ポイント設定部617が撮影候補ポイントを設定する例を示したが、撮影ポイント設定部617が撮影ポイント設定処理に際しては、地形タイプ判定部615が判定した各地形タイプと各地形タイプごとに対応付けられた撮影ポイント設定条件テーブルを使用する。図11は、撮影ポイント設定条件テーブルを示したものである。撮影ポイント設定条件テーブルは、あらかじめ支援データ格納部619内の所定領域に記憶され、撮影ポイント設定部617が撮影ポイントを設定する際に読み出されたうえで参照される。撮影ポイント設定条件テーブルには、撮影する場所としての「道路等の特定」、「道路上等の位置の特定」、撮影ポイントと「当該位置との関係」、さらに「撮影条件」がテーブルとして、それぞれのデータが対応づけて保持される。
【0048】
例えば、図10(a)において示した撮影候補ポイントは、図11における「1」行目の撮影道路等の特定が「交差点へのすべての進入路上」、道路上等の位置の特定が「道路上の左端」、撮影候補ポイントと当該位置との関係が「交差点から見て、当該地点より遠いポイント」という条件に基づいて設定される。なお、撮影ポイント設定条件テーブルには図示しないが、例えば「交差点又は当該地点の遠い方からから30メートル(又は30メートル以内)」というさらなる条件を全てのケースに適用させてもよく、それによって撮影候補ポイントとして特定しうるエリアが具体的に定められる。また、「撮影条件」に該当する条件は、オペレータがオペレータ端末5を操作することによって、撮影候補ポイントの地図情報データ又は地形タイプのイメージデータを画像データを管理サーバ11が通信処理部613を介して携帯電話機3等の保有者に送信する。その際に、図7に示すような撮影上の留意点に関する文字情報として、撮影候補ポイントの地図情報データ又は地形タイプのイメージデータとともに送信されることになる。
【0049】
このようにして、撮影ポイント設定部617が設定した撮影候補ポイントを示す地図情報データ又は地形タイプのイメージデータが、支援データ格納部619に一旦記録される。制御部611は、撮影候補ポイントを示す地図情報データ又は地形タイプのイメージデータを読み出して、通信処理部613を介してそのデータをオペレータ端末5に送信する。同時に、制御部611は地図情報データ格納部631から、当該地点を中心とする一定範囲の広範囲地図情報データを取得し、撮影候補ポイントを示す地図情報データ又は地形タイプのイメージデータと共にオペレータ端末5に送信する。オペレータ端末5は、送られてきた撮影候補ポイントを示す地図情報データ又は地形タイプのイメージデータと広範囲地図情報データを表示装置54に表示する。制御部611がここで取得する広範囲地図情報データは、先に地形タイプ判定部615が取得した地図情報よりも広範なエリアを包含するデータであり、例えば、当該地点を中心とする半径100メートル以内の円形地図(先で述べたのと同様に、半径で特定される円形地図に限られず、所定の大きさの所定の形状で特定されるエリアでもよい)などをいう。オペレータは、まず制御部611が取得して送信されてきた地図情報を表示装置54において確認して、当該地点が含まれる周辺情報を把握する。それによって、撮影候補ポイントが適切であるかどうかを確認する。例えば、十字路の交差点を有する地形タイプの場合であって、右下奥の交差点位置から対角線上の相対する交差点方向を撮影する必要があると考えた場合は、図12に示したように撮影候補ポイントとしてポイント5をキーボード57やマウス58などを用いて入力のうえ付加する。逆に、地図情報などから判断して不要と考えらる撮影候補ポイントについては、表示装置54上から当該データを削除する。
【0050】
こうして、オペレータが撮影ポイントとして特定したポイントを付加した地図情報データ又は地形タイプのイメージデータは、オペレータ端末5の通信処理部511を介して、画像データ管理サーバ11の通信処理部613経由で画像データ管理サーバ11に送信される。制御部611は、通信処理部613を経由として受け取った撮影ポイントに関するデータを一端、支援データ格納部619に格納する。
【0051】
こうして、撮影ポイントの特定処理が終了すると、次に、制御部611は、撮影ポイントに関するデータを携帯電話機3等に送信する処理を行なう。制御部611は、オペレータ端末5から受信した撮影ポイントの地図情報データ又はイメージデータを支援データ格納部619に格納から読み出し、さらに、文字データを組み合わせながら携帯電話機3等に画像取得のための指示データを送信する。まず、画像データ管理サーバ11の制御部611は、支援データ格納部619からあらかじめ記録されている文字データとして「これから示す指示に基づいて、現場の画像を取得いたします。ご協力をよろしくお願い致します。」という初期データを通信処理部613を介して携帯電話機3等に送信する。
【0052】
次に、「画面で示された各地点(ポイント)の位置から、交差点方向に向かって画面を写してください。」という文字データを、撮影ポイントを付加した地図情報データ又は地形タイプのイメージデータとともに携帯電話機3に送信する。さらに、一定時間(例えば、3分間など)が経過すると、次に「「撮影条件」に関する文字データ」を支援データ格納部619に記録されている図11のテーブルから読み出して、該当する地形タイプに対応する撮影条件の文字データを、撮影ポイントを付加した地図情報データ又は地形タイプのイメージデータとともに携帯電話機3に送信する。なお、ここでの一定時間は、あらかじめ設定され支援データ格納部619に記録された時間を制御部611が読み取って時間管理を行う。例えば、送信する撮影ポイントを付加した地図情報データ又は地形タイプのイメージデータが「十字路」である場合、一定時間が経過した後、これら地図データやイメージデータと同時に送信される撮影条件を示す文字データとしては「交差点の方向を、交差点への進入地点の道路両端と地表面から地上5メートルまでの全景を含むように撮影願います。」が採用される。図13には、撮影ポイントを付加した地図情報データ又は地形タイプのイメージデータとともに、文字データが携帯電話機3に表示された図が示してある。
【0053】
なお図13の場合、オペレータによって撮影すべきポイント5が付加されている。オペレータは、先に撮影ポイント5を追加する際に、キーボード57などから図13における追加文字データを入力する。画像データ管理サーバ11の制御部611は、オペレータ端末5から撮影ポイントの追加がなされたデータをオペレータ端末5から受信したとき、オペレータ端末5に追加文字データを入力するための画面データを送信する。追加文字データの入力画面データは支援データ格納部619にあらかじめ格納されている。図13の文字データ表示欄の下半分には、オペレータが入力した文字データが表示される。オペレータが追加入力する文字データについても、図4における選択文字候補としてあらかじめ設定しておくことができる。オペレータは、該当する文字データを選択入力することができる。
【0054】
ここでは、画像を取得するためのアドバイスを文字データによって説明するようにしたが、文字データとともに文字データの示すイメージデータも支援データ格納部619に記録しておき、文字データとともに表示してもよい。例えば図11における十字路のケースの文字データ入力対応するものとしては、図14に示したようなイメージデータがある。これらイメージデータも、文字データと対応付けて支援データ格納部619に格納しておくことで、制御部611が文字データとともに当該地形タイプに対応させて抽出することで、携帯電話機3に送信する。
【0055】
さらに、制御部611は、図7における提供順位5に該当する文字データを携帯電話機3に送信する。提供順位5の「撮影すべき画像を得た状態で、3秒間画面を固定してください。」という表示は、先の2つの文字データとともに携帯電話機3に表示される。なお、携帯電話機3の表示画面にすべての字データが収まらない場合は、順次、画面をスクロールさせて、後順位の文字データが画面に表示される。携帯電話機3の保有者は、先順位の文字データを再度確認したい場合は、画面を逆にスクロールして上部に表示されている文字データを画面上に表示させる。
【0056】
画像データ管理サーバ11の制御部611は、携帯電話機3の保有者が撮影すべきポイントに位置して、撮影すべき対象を画像として取得した状態で静止して、一定時間(例えば2.5秒)静止状態が続いたことが確認した時に画像を静止画として取得する。取得した静止画は、所定の識別番号(例えば、保険事故に関する画像の場合は保険証券番号など)を付加して、画像格納部623に格納する。
【0057】
なお、図7における文字データの提供順位3、4及び5については、携帯電話機3から画像データが画像データ管理サーバ11に送信され、制御部611が静止画を取得するまで、もしくはオペレータ端末5を介してオペレータが消去指示の入力を行うまで表示され続ける。オペレータは、別途の文字データを送信する必要が生じた場合などにおいては、これら提供順位3、4及び5の文字データを消去して、必要な文字データを携帯電話機3に送信指示する。制御部611は、オペレータ端末5からの文字データ消去及び代わりの文字データ送信指示を通信処理部613を介して一旦受信した後に、携帯電話機3から当が文字データを消去し、代わりの当該文字データを送信する。
【0058】
このようにして、画像データ管理サーバ11の各構成部とオペレータ端末5などが連携してが機能することで、携帯電話機3から適切な画像を取得することが可能となる。
【0059】
以上本発明の一実施の形態を説明したが、本発明はこれに限定されない。以上では、自動車保険など保険に係る事故現場の撮影を行う場合を例として示したが、その他に例えば犯罪現場や各種調査に伴って行う現場画像の取得に際して、同様の手段を用いることが出来る。また、図4に示した画面例は一例であって、他の画面構成を採用するようにしても良い。また、オペレータ端末5はゲートウェイ7を介して固定電話網1bに接続するようになっているが、携帯電話網1a及び固定電話網1bにおいて用いられるプロトコルで通信を行う機能を有するオペレータ端末5を固定電話網1bに直接接続しても良いし、一般的な交換機にこのような複数のオペレータ端末5を接続するようにしても良い。
【0060】
上では撮影指示文として文字のデータを携帯電話機3に送信する例を示したが、撮影指示データとして、例えば撮影方向を地図及び矢印の組み合わせで示すような図画による撮影指示データを送信するような構成とすることも可能である。
【0061】
【発明の効果】
以上述べたように本発明によれば、例えば自動車事故などの現場において必要な画像を効率的に収集することができるようになる。
【図面の簡単な説明】
【図1】本発明の一実施の形態におけるシステム概要図である。
【図2】オペレータ端末の機能ブロック図である。
【図3】本発明の一実施の形態における処理フローを示す図である。
【図4】撮影及びオペレータ支援プログラムによる表示画面例を示す図である。
【図5】携帯電話機に表示される画面例を示す図である。
【図6】画像データ管理サーバの機能ブロック図である。
【図7】文字情報の提供順序・条件を表すテーブルを示す図である。
【図8】第2の実施例におけるオペレータ端末の表示画面例である。
【図9】地形タイプの一例を示す図である。
【図10】撮影候補ポイントの一例を示す図である。
【図11】地形タイプ毎の撮影条件などを含むテーブルを示す図である。
【図12】撮影候補ポイントを説明するための図である。
【図13】携帯端末における表示画面例を示す図である。
【図14】携帯端末における表示画面例を示す図である。
【符号の説明】
1a 携帯電話網 1b 固定電話網
3 携帯電話機 5 オペレータ端末
7 ゲートウェイ 9 社内ネットワーク
11 画像データ管理サーバ 13 画像データ格納部
15 支援履歴DB 17 社内端末
[0001]
[Technical field to which the invention belongs]
The present invention relates to a technique for acquiring and registering still image data from moving image data.
[0002]
[Prior art]
For example, Japanese Patent Laid-Open No. 2003-141243 discloses the following technique. In other words, in response to a survey request from an insurance company PC, the survey server transmits a survey instruction to the on-site subcontractor PC and an appraisal instruction to the appraisal office PC, and the accident center image data taken at the on-site subcontractor is stored in the image center server. The appraisal office PC accesses the image center server and sends the appraisal report created by referring to the image data, medical findings, and past survey reports to the image center server for storage. An appraisal report is provided from the server to the survey server, a comprehensive accident report is created by the survey company, and the comprehensive survey report is provided from the survey server to the insurance company PC. However, this publication assumes that accident image data has already been acquired, and does not describe how to acquire it.
[0003]
Japanese Patent Laid-Open No. 5-290057 discloses the following technique. That is, the accident vehicle image used by the repair shop quote is entered into the computer using a color video digitizer. The input image provides visual evidence that demonstrates the estimated accidental damage. A repair shop quote makes an accident estimate on a computer and highlights the various image areas required. When the quotation is completed, the quotation file is compressed and transmitted to the insurance company. In the insurance company, the insurer's quoter decompresses the quote file and begins reading the quote. If further explanation is needed, the insurer's quote can request more images to be taken and transmitted. Even in this technology, it is assumed that the image is taken by an estimate person at a repair shop or the like.
[0004]
Conventionally, there is a mechanism to clearly represent the shooting situation by holding the position, orientation and altitude information in the image data shot with a digital camera and displaying the shooting location and shooting direction when displaying it on a stereoscopic image It was known (for example, see JP-A-11-122638). However, there was no means for the operator to accurately instruct the policyholder as to where and in what direction the photograph should be taken in the accident scene. Accordingly, there is a problem that the policyholder takes an image or video that is not requested by the operator. Moreover, there was no means for accurately hearing the situation at the accident site and storing it in association with the map information.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 2003-141243
[Patent Document 2]
JP-A-5-290057
[Patent Document 3]
JP-A-11-122638
[0006]
[Problems to be solved by the invention]
In the prior art as described above, it has been disclosed that accident image data is collected and used in car insurance processing. However, for example, there is no disclosure regarding the efficient collection of image data of a car accident scene. No.
[0007]
Accordingly, an object of the present invention is to provide a server for instructing operations on a portable terminal and a portable terminal in order to efficiently collect necessary images via the portable terminal at a predetermined place such as a car accident site. It is to provide technology related to collaboration.
[0008]
[Means for Solving the Problems]
An image data registration apparatus according to the present invention includes means for receiving moving image data from a mobile terminal having a moving image shooting function (for example, a mobile phone), displays the received moving image data on a display device, and provides instructions from an operator. The image displayed on the display device at the timing is acquired as still image data, the means for storing the still image data in the storage device, and the still image data stored in the storage device are associated with specific identification information Means for registering in the image data storage device, and instruction transmitting means for transmitting data relating to a photographing instruction other than voice to the portable terminal in accordance with an instruction from the operator.
[0009]
Since a mobile terminal having a moving image shooting function is used in this way, an agent or the like who has rushed to the site or an insurance policyholder at the site shoots the moving image data on the site and transmits it to the image data registration device. It becomes like this. Then, appropriate still image data can be acquired from the on-site moving image image data sent from the portable terminal in accordance with the instruction of the operator of the image data registration device. At this time, since the still image data can be acquired in a state that is considered appropriate by the operator, the owner of the portable terminal need not be familiar with the accident processing. Although moving image data is received, since it is still image data that is registered in the image data storage device, the storage capacity can be saved. At the same time, the image data registration device further includes instruction transmission means for transmitting data related to a shooting instruction other than voice to the portable terminal in accordance with an instruction from the operator. An instruction for taking a picture by voice may be difficult depending on the situation in the field. For example, if data related to a picture instructing such as an image or a character is transmitted to the portable terminal, the picture can be taken relatively smoothly.
[0010]
In addition, the image data registration device further includes a shooting instruction data storage unit that stores data serving as data selection options relating to shooting instructions, and the instruction transmission unit described above is a shooting instruction stored in the shooting instruction data storage unit. Data serving as data choices related to the instruction may be read out and displayed on the display device, and transmitted to the portable terminal in response to the operator's selection instruction. In this way, for example, data relating to frequently used shooting instructions can be immediately transmitted to the mobile terminal. It is not always necessary to select a shooting instruction from such options. For example, a character string typed by the operator may be transmitted to the free text input field.
[0011]
Furthermore, the data that is the choice of data regarding the shooting instruction may include instruction text data related to accident shooting, and the instruction text data related to shooting the accident may be classified for each accident mode. For example, a plurality of instructions relating to accident shooting are prepared in a simple sentence, and an operator selects an appropriate sentence while watching a moving image display, and transmits the data to the portable terminal. Instruction text data relating to accident shooting is stored in a predetermined area in a state classified for each accident form, and can be displayed. Since the still image data to be acquired differs depending on the accident form, the operator can easily select the instruction text that is classified according to the accident form.
[0012]
Furthermore, the present image data registration device may have means for storing at least one of shooting instruction history data and still image data acquisition history data in a storage device. The shooting situation can be recorded by the shooting instruction history data and the still image data acquisition history data, and can be used later when still image data is used.
[0013]
Further, the specific identification information described above may be a policy number of an insurance contract related to the holder of the portable terminal. This is because the security number is indispensable in the accident processing, and it is preferable to manage still image data by the security number.
[0014]
An image data registration device according to a second aspect of the present invention acquires means for acquiring position information from a portable terminal having an image photographing function, and acquires map information of an area including position information based on the acquired position information. Means, means for determining the terrain type of the area using the acquired map information of the area, means for specifying the position for acquiring an image based on the determined terrain type, and the specified position Means for adding data to terrain-type image map data or map information data, means for transmitting terrain-type image map data or map information data to which position data is added, and transmitted terrain-type image map data or map Means for receiving an image acquired by the portable terminal based on the information data.
[0015]
Further, the image data registration device according to the second embodiment includes means for receiving voice from the owner of the mobile phone, means for text-converting the received voice, and means for detecting a predetermined word from the text-converted voice And means for displaying a storyboard corresponding to the detected predetermined word on the display device, and means for adjusting the data of the terrain type image map or the map information data based on the operator's operation on the displayed storyboard You may make it have further.
[0016]
The image data registration method according to the present invention includes a step of receiving moving image data from a portable terminal having a moving image shooting function, and the received moving image data is displayed on a display device, and displayed on the display device at the timing of an operator's instruction. Capturing the still image as still image data, storing the still image data in the storage device, and registering the still image data stored in the storage device in the image data storage device in association with specific identification information And an instruction transmission step of transmitting data relating to a photographing instruction other than voice to the portable terminal in accordance with an instruction from the operator.
[0017]
The modification of the image data registration apparatus can be applied to the present image data registration method.
[0018]
It is also possible to create a program for causing a computer to execute the method according to the present invention, and the program is, for example, a storage medium or storage such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, and a hard disk. Stored in the device. Moreover, it may be distributed as a digital signal via a network. Note that data being processed is temporarily stored in the memory of the computer.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
[First embodiment]
Hereinafter, a case where a mobile phone is used as an example of the mobile terminal will be described as an example. FIG. 1 shows a system outline diagram according to an embodiment of the present invention. The mobile telephone network 1a and the fixed telephone network 1b are connected to each other, so that a call can be made from the mobile phone to the fixed telephone, and a call can be made from the fixed telephone to the mobile phone. Connected to the cellular phone network 1a is one or a plurality of cellular phones 3 capable of capturing moving images and transmitting / receiving moving image data. It is assumed that the mobile phone 3 can grasp position information with a GPS receiver. One or a plurality of fixed telephones are also connected to the fixed telephone network 1a. Here, it is assumed that the gateway 7 is connected to the fixed telephone network 1a. The gateway 7 has a call distribution function. For example, the gateway 7 distributes calls from the cellular phone 3 to the vacant operator terminals 5. Further, for example, in the cellular phone network 1a and the fixed telephone network 1b, the moving image data from the cellular phone 3 is communicated by a protocol such as 3GPP 3G-324M, and in the in-house network 9, the moving image data is transmitted by an IP network, for example, H.264. When communication is performed using a protocol called H.323 / SIP, the gateway 7 performs processing for converting the protocol. The above protocol and its conversion function are well known and will not be discussed further. Further, although such a configuration is shown as an example, the gateway 7 is not necessarily used, and the above protocol is only an example, and various methods can be adopted.
[0020]
As described above, the gateway 7 is connected to the internal network 9 which is an IP network. The internal network 9 is connected to one or a plurality of internal terminals 17 which are personal computers, for example, and personal computers, for example. In this embodiment, one or a plurality of operator terminals 5 that perform main processing and the image data management server 11 are connected. The image data management server 11 includes an image data storage unit 13 that stores image data received from the operator terminal 5, a support history DB 15 that stores support history data that is a history of imaging instructions received from the operator terminal 5, and the like. A map information DB 18 for storing a map to be displayed based on the position information of the holder of the mobile phone 3 and a position information DB 19 are managed. The position information DB 19 stores data obtained as a result of grasping the position information of the mobile phone based on an instruction from the operator terminal 5 or the image data processing server 11. Although not shown, the operator terminal 5 or the image data management server 11 has a voice recognition conversion unit for converting voice sent from the owner of the mobile phone 3 into text data. Furthermore, when a specific word (for example, “car”, “car”, “truck”, etc.) is recognized, a speech story corresponding to the word is displayed on the display device in a voice recognition conversion unit (not shown). A specific word table in which these storyboard data and these words are associated with each other. The configuration of these speech recognition conversion units functions as a drawing support tool.
[0021]
Next, the functional block diagram of the operator terminal 5 is shown using FIG. The operator terminal 5 is connected with a display device 54, a headset including a speaker 55 and a microphone 56, and a keyboard 57 and a mouse 58 which are input devices. The operator terminal 5 has a photographing and operator support program 51. Is executed. For example, a partial storage area of the hard disk is an image storage unit 52 and a support history data storage unit 53. The photographing and operator support program 51 includes a communication processing unit 511 that performs communication processing connected to the in-house network 9 and performs communication processing such as moving image data in cooperation with a hardware communication unit (not shown), A position information processing unit 516 that converts position information into map information, a map information DB 59 that stores map information on the site such as an accident, and voice data included in, for example, moving image data are output from a speaker and input from a microphone 56. The voice processing unit 512 for outputting the voice data to the communication processing unit 511, and the processing for displaying the moving image data captured by the mobile phone 3 on the display device 54 and the display on the display device 54 according to an instruction from the operator. A moving image processing unit 513 for storing the stored image as a still image in the image storage unit 52, and an operator An operator support processing unit 514 that assists in giving a shooting instruction to a person, and a support data storage unit 515 that stores support data including data of a shooting instruction sentence used in the operator support processing unit 514; including. Although not shown, the operator terminal 5 has a function for performing only normal voice conversation, a function for accident reception processing that has been performed conventionally, and the like.
[0022]
The processing of the system shown in FIG. 1 will be described below with reference to FIGS. For example, an agent who rushes to the site or an insurance policyholder who encounters an accident operates the mobile phone 3 to make a call to a predetermined telephone number of the call center in order to report the accident (step S1). . When the mobile phone 3 makes a call, for example, a call is received at a specific operator terminal 5 via the mobile phone network 1a and the fixed telephone network 1b and further via the gateway 7, and a connection is made in accordance with an instruction from the operator (step S3). Then, the owner of the mobile phone 3 and the operator make a normal call (step S5). Here, there are conversations for identifying the policy number of the insurance contract and conversations for finding out the situation of the accident. Then, the operator inputs data on the securities number and accident situation specified from the conversation, and causes the operator terminal 5 to perform the accident reception process. This is a prior art and will not be discussed further.
[0023]
The operator asks the owner of the mobile phone 3 whether or not the mobile phone 3 can acquire position information by GPS (Global Positioning System), and if it can be acquired, acquires the position information. After acquiring the location information, the map information of the accident site will be displayed and hearing of the site situation will be continued. The contents asked by the operator are displayed as a question item list from the past results. When there is an answer from the mobile phone 3 about the contents, the voice recognition conversion unit automatically starts the drawing support tool based on the voice recognition. Draw the accident situation on the map and store it. In addition, the drawing support tool can draw on the map from which shooting point and from which angle the moving image and the still image are desired to be drawn. Here, the operator asks the owner of the mobile phone 3 whether the mobile phone 3 has a moving image shooting and transmission / reception function (so-called videophone function). If the mobile phone 3 does not have a moving image shooting / transmission / reception function, the call is terminated when necessary information is heard from the owner of the mobile phone 3. That is, the line between the mobile phone 3 and the operator terminal 5 is disconnected. On the other hand, when the mobile phone 3 has moving image shooting and transmission / reception functions, the operator terminal 5 activates the shooting and operator support program 51 in accordance with an instruction from the operator (step 7). The shooting and operator support program 51 may be started from the beginning. When starting this time, the imaging and operator support program 51 displays a screen on the display device 54. On the other hand, the mobile phone 3 switches to the videophone mode in accordance with an instruction from the owner of the mobile phone 3 (step S9). For example, video is captured by a camera provided in the mobile phone 3, and the video is displayed in at least a part of the display screen of the mobile phone 3.
[0024]
Then, the cellular phone 3 continuously transmits the moving image data photographed through the cellular phone network 1a and the fixed phone network 1b and further through the gateway 7 to the operator terminal 5 (step S11). The communication processing unit 511 of the photographing and operator support program 51 in the operator terminal 5 receives the moving image data from the mobile phone 3 and outputs it to the moving image processing unit 513. Then, the moving image processing unit 513 displays the moving image on the display device 54 (step S13). The sound processing unit 512 also processes the sound data, and outputs sound from the speaker 55. However, in the following processing, voice is not essential and is not a main part in the present embodiment, and thus the description thereof is omitted below.
[0025]
For example, a screen as shown in FIG. 4 is displayed on the display device 54 of the operator terminal 5. In the example of FIG. 4, in the upper part of the screen, a telephone number input field 401, a connection button 402 for instructing the communication processing unit 511 to call the telephone number input in the telephone number input field 401, and a communication processing unit 511 Are provided with a disconnect button 403 for instructing to end the communication, and a policy number input field 404 of an insurance contract related to the accident, and a moving image for displaying the received moving image data on the left side. A display field 405, an operation button display field 406 for an image, a zoom-in button 407 provided in the operation button display field 406 and instructing the moving image processing unit 513 to perform enlargement processing on the received moving image data; A zoom-out button 4 provided in the button display field 406 and for instructing the moving image processing unit 513 to reduce the received moving image data. 8, a shooting button 409 provided in the operation button display field 406 and for instructing the moving image processing unit 513 to perform processing for acquiring still image data from the received moving image data, and a shooting button 409. And a still image display field 410 for displaying still image data acquired by the above. The still image display field 410 includes, for example, a still image display field 411 acquired as image01, a memo input field 414 for the still image acquired as image01, and a still image display field acquired next. 412, a memo input field 415 for the next still image acquired, a display field 413 for the next still image acquired, and a memo input field for the next still image acquired 416. The number of still images displayed in the still image display field 410 is not limited to three. The above is the display unit related to the communication processing unit 511 and the moving image processing unit 513 of the photographing and operator support program 51.
[0026]
In the example of FIG. 4, on the left side of the screen, a free text input field 417 for inputting a shooting instruction text to be transmitted to the owner of the mobile phone 3 by using the keyboard 57 and a free text input field 417 are displayed. A free text input transmission button 425 for transmitting the input photographing instruction text to the mobile phone 3 and the photographing instruction text and the contents of the photographing operation transmitted so far to the currently connected mobile phone 3 are displayed as support history data. A support history data display field 418 to be displayed, a first standard instruction option selection display field 419 including a shooting instruction sentence used mainly at the start of shooting and a selection button for selecting each shooting instruction sentence on the right side of the screen; A second standard instruction sentence option table including a shooting instruction and a selection button for selecting each shooting instruction for each accident form selected by switching the accident form using the tabs 421 and 422 and the like. A column 420, a third fixed directive option display column 423 that includes a shooting directive used mainly immediately before shooting and a selection button for selecting each shooting directive, and a shooting directive used mainly at the end of shooting. A fourth fixed instruction sentence option display field 424 including a selection button for selecting each photographing instruction sentence is included. The display unit related to the operator support processing unit 514 of the imaging and operator support program 51 has been described above.
[0027]
The data of the shooting instruction text displayed in the first to fourth fixed instruction text option display fields is stored in the support data storage unit 515. In the support data storage unit 515, an area for storing shooting instruction data for opening to be displayed in the first standard directive option display column 419 and a second standard directive option display column 420 should be displayed. An area for storing shooting instruction data for each accident form, an area for storing shooting instruction data at the time of shooting to be displayed in the third standard directive option display field 423, and a fourth standard directive An area for storing an imaging instruction sentence for closing to be displayed in the option display field 424 is provided. In this way, by classifying the instruction sentence for each scene in photographing and further classifying the instruction sentence for each accident form, the operator can select an appropriate photographing instruction sentence without hesitation. In addition, although the 2nd fixed instruction sentence option display column 420 has shown the case where an accident form is selected with a tab, you may make it switch a display by methods other than a tab. Further, although only three options are shown in each of the first to fourth fixed directive option display fields, other options can be displayed by moving the slide bar prepared on the right side with the mouse 58, for example.
[0028]
For example, in the first standard directive option display field 419, other directives such as “Please press and hold the transmission button of the handset mark” are included. In addition, in the tab of “Accident at the intersection” in the second standard directive option display field 420, “Please shoot from the direction of the opponent's vehicle toward the intersection” “Please shoot if there is a slip mark” Etc. are included. In addition, in the case of “Accident of a car coming out of the road and a straight person”, “Please take a picture from the direction of the customer toward the intersection” “If there is a signal / road sign, put it on the screen "Please take a picture""Please take a picture from the direction of the opponent's vehicle toward the intersection""Please take a picture of the point of collision""Please take a picture of the place where the car that came out of the road came out" Is included. In addition, in the third standard directive option display field 423, "Please take a picture right now""Please take a little more right""Please take a little more left""Take a picture of the car later""Take a picture of the damaged part of your car""Take a picture of your car's license plate""Take a picture of the damaged part of the other car""Please take a license plate of your car".
[0029]
In the state of FIG. 4, as shown in the support history data display field 418, instruction data such as “Please take a picture according to the screen instructions” and “Please take a picture from the direction of your travel toward the intersection” are displayed. After transmission to the mobile phone 3, the image button 409 is clicked and an image image01 is acquired as still image data. In this way, in the support history data display field 418, the data of the photographing instruction sentence transmitted after the “>” mark is displayed, and the file name and operation name of the image are enclosed by “[” and “]”. It is supposed to be.
[0030]
Returning to the description of FIG. 3, the operator sees the moving image displayed in the moving image display field 405 on the screen as shown in FIG. 4, and selects an appropriate shooting instruction or inputs it in the free sentence input field 417. Then, the user inputs transmission using the free text input transmission button 425. The operator support processing unit 514 of the shooting and operator support program 51 in the operator terminal 5 accepts selection or input of a shooting instruction sentence, and communicates, for example, image data of the shooting instruction sentence instead of moving image data from the operator terminal 5. The data is transmitted to the processing unit 511 (step S15). In some cases, instead of image data, shooting instruction data is transmitted in another format such as an HTML (Hyper Text Markup Language) file format. The mobile phone 3 receives the data of the photographing instruction text from the operator terminal 5 and displays it on the display device (step S17). For example, a screen as shown in FIG. 5 is displayed. In the example of FIG. 5, a display area 601 for displaying the shooting instruction data transmitted from the operator terminal 5 and a moving image display area 602 for displaying an image currently being shot are included. As described above, the owner of the mobile phone 3 understands the shooting instruction by looking at the content displayed in the display area 601 while viewing the image displayed in the moving image display area 602 and performs appropriate shooting. To do.
[0031]
Then, the operator support processing unit 514 of the imaging and operator support program 51 in the operator terminal 5 determines whether an imaging instruction has been given by the operator, that is, whether the imaging button 409 has been clicked (step S19). If a shooting instruction has been issued, the image displayed in the moving image display field 405 is acquired as a still image at the timing when the shooting button 409 is clicked, and the still image data is stored in the image storage unit 52. (Step S21). Basically, it is stored in the image storage unit 52 in a form associated with the security number input in the security number input field 404. For example, a still image file is stored in the securities number directory. Note that, as shown in FIG. 4, a memo about the image input in the memo input field 414 or the like may be stored together. Thereafter, the process proceeds to step S23. On the other hand, if it is determined that no shooting instruction has been given, the process proceeds to step S23.
[0032]
In step S23, the communication processing unit 511 determines, for example, whether disconnection has been instructed in order to end communication, that is, whether the disconnect button 403 has been clicked (step S23). If the end of communication is not instructed, the process returns to step S13, and steps S13 to S21 are repeated. On the other hand, when it is determined that the end of shooting has been instructed, the communication processing unit 511 performs a disconnection process (step S25). Thereby, the mobile phone 3 also performs the disconnection process. The operator support processing unit 514 generates support history data from the data displayed on the support history data display unit 418, for example, stores the support history data in the support history data storage unit 53, and image data via the communication processing unit 511. Register in the support history DB 15 managed by the management server 11 (step S27). By saving the support history data that is the shooting history or operation history and the transmission history of the shooting instruction in this way, it is possible to confirm what kind of scene the image acquired later was shot, and what kind of It is possible to analyze later whether the instruction is effective, and to update the contents and combinations of the shooting instruction texts to be registered in the support data storage unit 515.
[0033]
In addition, the moving image processing unit 513 registers the still image data stored in the image storage unit 52 in the image data storage unit 13 managed by the image data management server 11 via the communication processing unit 511 (Step S1). S29). In this case as well, registration is made in the image data storage unit 13 corresponding to the security number. For example, if an employee who conducts work to calculate insurance money operates the in-house terminal 17 and accesses the image data management server 11, based on the security number of the insurance contract related to the accident from the image data storage unit 13. The acquired still image data can be referred to. Therefore, a more appropriate insurance money can be determined.
[0034]
By carrying out the processing as described above, when a person having a mobile terminal such as the mobile phone 3 having a moving image shooting function and a transmission / reception function is at the site of an accident or the like, the insurance money can be paid using the mobile terminal. Image data necessary for calculation work can be acquired. Therefore, business efficiency can be improved and more appropriate insurance money calculation can be performed. Note that by executing the photographing and operator support program 51 for displaying the screen shown in FIG. 4 on the display device 54, the operator can issue an instruction for photographing even if he / she is not particularly proficient. Can be taken.
[0035]
[Second Embodiment]
In the above, the captured moving image is appropriately acquired from the portable terminal mainly by the operator's instruction via the operator terminal 5, but further, the operation performed by the operator in the image data management server 11 or the operator terminal 5 in FIG. Some or all of them can be replaced, and additional functions can be realized. Here, a case where the image data management server 11 realizes this function is shown as an example.
[0036]
First, a functional block diagram of the image data management server 11 is shown in FIG. The image data management server 11 includes a control unit 611, a communication processing unit 613, a terrain type determination unit 615, a shooting point setting unit 617, a support data storage unit 619, input instruction data from the operator terminal 5 (see FIG. 1), and the like. An input receiving unit 621 that receives images and an image storage unit 623 that stores still images that have been subjected to image acquisition processing by the control unit 611 are provided. The image data management server 11 is connected to an operator terminal 5 and a gateway 7 (see FIG. 1) via an in-house network 9 (see FIG. 1). The communication processing unit 613 performs communication processing between the image data management server 11, the operator terminal 5, and the gateway 7 (see FIG. 1). The control unit 611 controls various functions of the image data management server 11 and acquires the latitude and longitude information transmitted from the mobile terminal (for example, the mobile phone 3 in FIG. 1) via the communication processing unit 613. The terrain type determination unit 615 is instructed to acquire the map information corresponding to the latitude and longitude information from the map information data storage unit 621. The map information data storage unit 631 stores map information of each location, and latitude information and longitude information at each point on the map in association with each other.
[0037]
The terrain type determination unit 615 acquires location information related to the mobile phone 3 or the like from the map information stored in the map information data storage unit 631, and specifies the type of terrain from the map information at the position. The shooting point setting unit 617 specifies a candidate point of a point to be shot based on the specified terrain type. In the support data storage unit 619, various data for acquiring images are recorded, and at the same time, character data transmitted from the image data management server 11 to the mobile phone 3 or the like for acquiring images in advance is recorded. . As the character data, the character data as shown in FIG. 7 is recorded in addition to the contents having the same or the same purpose as those shown in 419 to 424 in FIG. Each character data is associated with the order of transmission and, if the character data is transmitted as a set with separate image data when transmitted, the contents defining the image to be specified as a set are associated with each other. . For example, the text data “Please acquire an image from each shooting point in the direction of the intersection” should be attached to image data (or map data) indicating the shooting point at the position having the intersection described later. The flag is raised. Also, on the straight road, “Overview of the point (including the road ends and 5 meters above the ground)”
[0038]
First, the operator asks the owner of the mobile phone 3 in FIG. 1 whether the mobile phone 3 has a moving image shooting and transmission / reception function (so-called videophone function). If the mobile phone 3 has moving image shooting and transmission / reception functions, the mobile phone 3 is requested to transmit position information by GPS to the owner of the mobile phone 3. At the same time, the operator terminal 5 obtains information that the mobile phone 3 has a moving image shooting and transmission / reception function (so-called videophone function) and can acquire an image in accordance with an instruction from the operator. Send to. Further, the operator requests the owner of the mobile phone 3 to take a field image according to the instruction. At the same time, information on the general situation of the accident will be obtained by telephone. In this case, as shown in FIG. 8, the operator terminal 5 displays items to be heard by the operator regarding the situation of the accident and the like, and the operator acquires overview information based on the contents. The question items shown in FIG. 8 are recorded in advance in the support data storage unit 619 and are displayed on the display device 54 of the operator terminal 5 based on an operator instruction.
[0039]
Note that information regarding an accident from the owner of the mobile phone 3 is voice-recognized by an automatic voice recognition unit provided in the image data management server 11 (not shown), and text data processing is performed as character information. When a specific keyword is obtained at the time of voice recognition, the automatic voice recognition unit acquires image data (picture story) related to the keyword from, for example, the support data storage unit 619 and the like, and communicates to the operator terminal 5 with a communication processing unit. 613 to transmit. For example, when the voice “car” or “car” is recognized, the voice automatic recognition unit can obtain a storyboard of the car from the support data storage unit 619 and drag and paste it on the display device of the operator terminal 5. The state is transmitted to the operator terminal 5. The operator operates the operator terminal 5 to process the displayed storyboard at a predetermined position on the terrain type image map or map information described later by dragging and pasting the displayed storyboard, for example. I do.
[0040]
Next, the image data management server 11 uses the transmission data from the operator terminal 5 that the mobile phone 3 has a moving image shooting and transmission / reception function for the image shooting instruction to the owner of the mobile phone 3. Implement the process. The transmission data from the operator terminal 5 is made, for example, when the operator presses a button such as “image acquisition is possible” on the display device of the operator terminal 5 (not shown).
[0041]
First, the terrain type determination unit 615 of the image data management server 11 is identified by the latitude / longitude information of the location of the mobile phone that is sent from the mobile phone based on the instruction from the control unit 611 (hereinafter referred to as “location”). , The map data including “the relevant point”) is acquired from the map information data storage unit 631. And based on the acquired map information, the terrain type of the said point is specified. The terrain type is recognized as a pattern (type) such as “crossroad”, “T-shaped road”, “curved road”, “straight road”, “planar ground”, and the like. Examples of each terrain type are as shown in FIG. In FIG. 9, the terrain type determined by the terrain type determination unit 615 and a mark indicating the point where the mobile phone 3 is located are displayed on the screen indicating the terrain type. Based on the latitude / longitude information from the mobile phone 3 acquired by the control unit 611 via the communication processing unit 613, the map information data storage unit 631 determines a certain range from the point specified by the latitude / longitude (for example, Map information data of an area within a radius of 30 meters centered on the point, an area included in a range of a predetermined shape having a predetermined size centered on the point, and the like are acquired. Based on the acquired map data, the terrain type determination unit 615 determines the terrain indicated by the map data. The terrain type is determined as follows, for example. First, based on the map data acquired from the map information data storage unit 631, the terrain type determination unit 615 acquires a road shape that is included within a radius of a certain distance centering on the point. The road shape is classified into several patterns according to the number of roads and the presence or absence of intersections as shown in FIG. When the road has a plurality of intersecting points (intersections), as shown in FIG. 9, as “crossroads”, “T-shaped roads”, “curved roads”, etc., the number of roads is one. When there is no intersection, it is understood as a “straight road”. In addition, when a road forms an intersection with a number of 5 or more, it is grasped as, for example, “5 roads”. Hereinafter, similarly, the terrain type is determined based on the number of roads. The radius of the map data acquired for determining the terrain type may be determined each time by receiving an input from the operator terminal 5 or the like via the input receiving unit 621, or set in advance. The predetermined distance stored in the map information data storage unit 631 or the support data storage unit 619 may be used. Similarly, when obtaining map information of an area included in a predetermined shape of a predetermined size instead of circular map information having a predetermined radius, the shape and the size of the shape (1 in the case of a square or a quadrangle) are similarly obtained. The lengths of the sides, the intersection angles and the lengths of the diagonal lines, and the like may be associated with each other and recorded in the support data storage unit 619. Further, instead of the corresponding data of the length of the radius, the shape and the size of the shape stored in the support data storage unit 619, for example, according to the road width for each point on the map, the size of the intersection, etc. Information relating to the area range to be acquired may be recorded in the map information data storage unit 631, and the terrain type determination unit 615 may acquire the extraction information corresponding to the point where the mobile phone or the like is located.
[0042]
The terrain type determination unit 615 adds the acquired map data and the screen data indicating the acquired terrain type and the position data specified as the point in the map data, and temporarily records them in the support data storage unit 619. The position data identified as the point is added to the screen data indicating the terrain type. The relative position of the point in the map information data acquired by the terrain type determination unit 615 (that is, the inside / outside of the crossroads, the right / left side, the turn) This is performed on the screen data indicating the terrain type based on the information regarding the specified relative position. Further, the addition of the position data specified as the point to the map data is performed based on the latitude / longitude information of the point acquired by the terrain type determination unit 615. When there is no data specified as a road shape in a certain range of map information from the latitude / longitude points indicating the point, the terrain type determination unit 615 selects the terrain type as a plane as shown in FIG. Identify.
[0043]
Next, shooting point setting is performed by the shooting point setting unit 617. When the control unit 611 confirms that the terrain type is determined by the terrain type determination unit 615, the location data of the point is added, and that various data are recorded in the support data storage unit 619, the control unit 611 uses the shooting point setting unit 617. Instruct the point setting. The shooting point setting unit 617 reads the map data, the terrain type, and the position data of the point from the support data storage unit 619, and specifies a point to be a shooting point candidate based on the read data. For example, in the case of FIG. 9A, when the crossroad is specified as the terrain type based on the map information within a certain range from the point, the shooting point setting unit 617 enters the intersection of the crossroad as an initial setting. A point mark is attached to the map data or data indicating the terrain type at the leftmost position toward the intersection on all roads. An example is shown in FIG.
[0044]
FIG. 10A shows photographing candidate points corresponding to the terrain pattern of FIG. As shown in FIG. 10, the shooting point candidate set by the shooting point setting unit 617 is farther from the intersection than the intersection as an initial setting (that is, farther from the intersection than the position indicated by the mobile terminal or the like). Set the point. That is, point 3 in FIG. 10A is set at a position farther from the intersection than the point. In this way, the shooting candidate points specified by the shooting point setting unit 617 are “on all roads entering the intersection”, “the left end of the road”, and “a position far from the point” when “there is an intersection”. A point mark is attached to any point that satisfies the conditions. Similarly, FIG. 10B shows how to set shooting candidate points in the case of a T-junction (the terrain type in FIG. 9B). In the case of the topography type of T-junction in FIG. 10 (b), the position “far from the intersection from the intersection” is selected from “on all roads entering” with respect to “intersection of T-junction”. Shooting candidate points are set. In the case of FIG. 10B, shooting candidate points are set for all roads entering the intersection. However, there is no intersection road on the left side of the road entering the intersection, and the road outline line In the case where is a straight line (or a curved line that draws an arc indicated by a radius equal to or greater than a certain distance), the photographing candidate points on the approach road may be excluded.
[0045]
Next, as shown in FIG. 9C, even when a road frame line exists only on one side, the terrain type determination unit 615 specifies the point as a straight road. In the case of a straight road, if the road width is wider than the map information acquisition area, only one road outer frame may be supplemented. In this case, when the terrain type is specified as a form as shown in FIG. 10C-1 (that is, a straight road having a wide road), the shooting point setting unit 617 sets “the target point” and “outside the same road” “Two points on the frame” are specified as photographing candidate points. In addition, as shown in FIG. 10C-2, when both outer frames of the straight road can be supplemented within the area of the acquired map information, the shooting point setting unit 617 sets the “on the road” and “on the road” "Two points on both sides of" are specified as photographing candidate points.
[0046]
Further, as shown in FIG. 9 (e), since there is no data specified as the road shape in the map information within a certain range from the latitude / longitude point indicating the point, the terrain type determination unit 615 determines the terrain type as a plane. Is specified as “photographing candidate points” and “any two points”. The line segment connecting any two points here and the position may be a straight line, or the two lines may have a predetermined angle (for example, 90 degrees) or an angle within a predetermined range (90 degrees to 180 degrees). It may be bent at a degree. These angle information or angle range information is also recorded in advance in the support data storage unit 619, and is referred to when the shooting point setting unit 617 sets a shooting point.
[0047]
The example in which the shooting point setting unit 617 sets the shooting candidate point based on the position information acquired by the control unit 611 and the terrain type determined by the terrain type determination unit 615 has been described. In the shooting point setting process, each terrain type determined by the terrain type determination unit 615 and a shooting point setting condition table associated with each terrain type are used. FIG. 11 shows a shooting point setting condition table. The shooting point setting condition table is stored in advance in a predetermined area in the support data storage unit 619, and is read and referred to when the shooting point setting unit 617 sets shooting points. In the shooting point setting condition table, “specification of road etc.”, “specification of position on road”, shooting point and “relationship between the position”, and “imaging condition” as a table, Each data is stored in association with each other.
[0048]
For example, the shooting candidate point shown in FIG. 10A is that the shooting road in the “1” line in FIG. 11 is identified as “on all approach roads to the intersection”, and the position on the road is identified as “road”. The relationship between the “upper left end”, the photographing candidate point and the position is set based on the condition “the point far from the point as seen from the intersection”. Although not shown in the shooting point setting condition table, for example, a further condition of “30 meters (or within 30 meters) from the intersection or far away from the point of interest” may be applied to all cases. Areas that can be specified as candidate points are specifically determined. Further, the condition corresponding to the “shooting condition” is that the operator operates the operator terminal 5 so that the map information data of the shooting candidate point or the image data of the terrain type is image data, and the management server 11 passes the communication processing unit 613. To the owner of the mobile phone 3 or the like. At this time, the character information related to the points to be taken into consideration as shown in FIG. 7 is transmitted together with the map information data of the shooting candidate points or the terrain type image data.
[0049]
In this way, map information data or terrain type image data indicating the shooting candidate points set by the shooting point setting unit 617 is temporarily recorded in the support data storage unit 619. The control unit 611 reads map information data indicating photographic candidate points or terrain type image data, and transmits the data to the operator terminal 5 via the communication processing unit 613. At the same time, the control unit 611 obtains a wide range of map information data in a certain range centered on the point from the map information data storage unit 631, and sends it to the operator terminal 5 together with the map information data indicating the photographing candidate points or the terrain type image data. Send. The operator terminal 5 displays map information data or terrain type image data and wide-range map information data indicating the received photographing candidate points on the display device 54. The wide-range map information data acquired here by the control unit 611 is data including a wider area than the map information previously acquired by the terrain type determination unit 615, for example, within a radius of 100 meters centered on the point. (This is not limited to a circular map specified by a radius, but may be an area specified by a predetermined shape having a predetermined size). The operator first confirms the map information acquired and transmitted by the control unit 611 on the display device 54, and grasps the peripheral information including the point. Thereby, it is confirmed whether or not the photographing candidate point is appropriate. For example, in the case of a terrain type having a crossroad intersection, and when it is considered necessary to photograph the opposite intersection direction on the diagonal line from the intersection position in the lower right rear corner, as shown in FIG. Point 5 is added as a point after input using the keyboard 57, mouse 58, or the like. On the other hand, for shooting candidate points that are deemed unnecessary based on map information or the like, the data is deleted from the display device 54.
[0050]
Thus, the map information data or the terrain-type image data to which the point specified by the operator as the shooting point is added is sent to the image data via the communication processing unit 613 of the image data management server 11 via the communication processing unit 511 of the operator terminal 5. It is transmitted to the management server 11. The control unit 611 stores data relating to the shooting point received via the communication processing unit 613 in the support data storage unit 619.
[0051]
In this way, when the shooting point specifying process is completed, the control unit 611 performs a process of transmitting data related to the shooting point to the mobile phone 3 or the like. The control unit 611 reads out the map information data or image data of the photographing point received from the operator terminal 5 from the storage in the support data storage unit 619, and further instructs the mobile phone 3 etc. to acquire image data while combining the character data. Send. First, the control unit 611 of the image data management server 11 acquires “on-site images based on the instructions shown below” as character data recorded in advance from the support data storage unit 619. Thank you for your cooperation. ”Is transmitted to the mobile phone 3 or the like via the communication processing unit 613.
[0052]
Next, the text data “Please copy the screen from the position of each point (point) shown on the screen toward the intersection.” Along with the map information data with the shooting point added or the terrain type image data Transmit to the mobile phone 3. Further, when a certain time (for example, 3 minutes) elapses, “character data relating to“ imaging condition ”” is read out from the table of FIG. 11 recorded in the support data storage unit 619, and the corresponding terrain type is set. The character data of the corresponding shooting condition is transmitted to the mobile phone 3 together with the map information data to which the shooting point is added or the terrain type image data. Here, for the certain time, the control unit 611 reads the time set in advance and recorded in the support data storage unit 619 and performs time management. For example, when the map information data to which the shooting point to be transmitted or the terrain type image data is “crossroad”, the character data indicating the shooting conditions transmitted simultaneously with the map data and the image data after a predetermined time has elapsed. "Please shoot the direction of the intersection so that it includes the entire view from the road ends and the ground surface to 5 meters above the ground." FIG. 13 shows a diagram in which character data is displayed on the mobile phone 3 together with map information data or terrain type image data to which shooting points are added.
[0053]
In the case of FIG. 13, a point 5 to be photographed by the operator is added. The operator inputs additional character data in FIG. 13 from the keyboard 57 or the like when adding the photographing point 5 first. The control unit 611 of the image data management server 11 transmits screen data for inputting additional character data to the operator terminal 5 when receiving data from the operator terminal 5 to which shooting points have been added. Input screen data for additional character data is stored in advance in the support data storage unit 619. Character data input by the operator is displayed in the lower half of the character data display field in FIG. Character data additionally input by the operator can also be set in advance as a selected character candidate in FIG. The operator can select and input corresponding character data.
[0054]
Here, the advice for acquiring the image is explained using the character data. However, the image data indicated by the character data may be recorded in the support data storage unit 619 together with the character data and displayed together with the character data. . For example, image data as shown in FIG. 14 corresponds to the character data input in the case of the crossroads in FIG. These image data are also stored in the support data storage unit 619 in association with the character data, so that the control unit 611 extracts the image data in association with the terrain type and transmits it to the mobile phone 3.
[0055]
Further, the control unit 611 transmits character data corresponding to the provision order 5 in FIG. 7 to the mobile phone 3. The indication “Provide the image to be photographed and fix the screen for 3 seconds” of the provision order 5 is displayed on the mobile phone 3 together with the previous two character data. If all the character data does not fit on the display screen of the mobile phone 3, the screen is sequentially scrolled to display the character data of the lower order on the screen. When the owner of the mobile phone 3 wants to confirm the character data of the priority order again, he / she scrolls the screen in reverse to display the character data displayed at the top on the screen.
[0056]
The control unit 611 of the image data management server 11 is located at a point to be photographed by the owner of the mobile phone 3 and is stationary in a state where the object to be photographed is acquired as an image, for a certain time (for example, 2.5 seconds). ) When it is confirmed that the still state has continued, the image is acquired as a still image. The acquired still image is stored in the image storage unit 623 with a predetermined identification number (for example, an insurance policy number in the case of an image related to an insurance accident).
[0057]
For the character data provision orders 3, 4, and 5 in FIG. 7, image data is transmitted from the mobile phone 3 to the image data management server 11 until the control unit 611 acquires a still image, or the operator terminal 5 is used. Until the operator inputs an erasure instruction. When the operator needs to transmit separate character data, the operator deletes the character data of the provision orders 3, 4 and 5 and instructs the mobile phone 3 to transmit the necessary character data. The control unit 611 once deletes the character data from the operator terminal 5 and receives an alternative character data transmission instruction via the communication processing unit 613, and then deletes the character data from the mobile phone 3 and replaces the corresponding character data. Send.
[0058]
In this way, each component of the image data management server 11 and the operator terminal 5 function in cooperation, whereby an appropriate image can be acquired from the mobile phone 3.
[0059]
Although one embodiment of the present invention has been described above, the present invention is not limited to this. In the above, an example of shooting an accident scene related to insurance such as car insurance has been shown as an example. However, for example, the same means can be used when acquiring a scene image performed in association with a crime scene or various investigations. The screen example shown in FIG. 4 is an example, and other screen configurations may be adopted. The operator terminal 5 is connected to the fixed telephone network 1b via the gateway 7, but the operator terminal 5 having a function of performing communication using a protocol used in the mobile telephone network 1a and the fixed telephone network 1b is fixed. You may connect directly to the telephone network 1b, and you may make it connect such a some operator terminal 5 to a common exchange.
[0060]
In the above example, character data is transmitted to the mobile phone 3 as a photographing instruction sentence. However, as photographing instruction data, for example, photographing instruction data based on a drawing indicating a photographing direction by a combination of a map and an arrow is transmitted. A configuration is also possible.
[0061]
【The invention's effect】
As described above, according to the present invention, necessary images can be efficiently collected at a site such as an automobile accident.
[Brief description of the drawings]
FIG. 1 is a system outline diagram according to an embodiment of the present invention.
FIG. 2 is a functional block diagram of an operator terminal.
FIG. 3 is a diagram showing a processing flow in an embodiment of the present invention.
FIG. 4 is a diagram showing an example of a display screen by a photographing and operator support program.
FIG. 5 is a diagram showing an example of a screen displayed on a mobile phone.
FIG. 6 is a functional block diagram of an image data management server.
FIG. 7 is a diagram illustrating a table representing a provision order / condition of character information.
FIG. 8 is a display screen example of an operator terminal according to the second embodiment.
FIG. 9 is a diagram illustrating an example of a terrain type.
FIG. 10 is a diagram illustrating an example of photographing candidate points.
FIG. 11 is a diagram showing a table including shooting conditions for each terrain type.
FIG. 12 is a diagram for explaining photographing candidate points.
FIG. 13 is a diagram showing an example of a display screen on the mobile terminal.
FIG. 14 is a diagram showing an example of a display screen on the mobile terminal.
[Explanation of symbols]
1a mobile phone network 1b fixed phone network
3 Mobile phone 5 Operator terminal
7 Gateway 9 Internal network
11 Image Data Management Server 13 Image Data Storage Unit
15 Support history DB 17 Internal terminal

Claims (9)

動画像撮影機能を有する携帯端末機から動画像データを受信する手段と、
受信した前記動画像データを表示装置に表示し、オペレータの指示のタイミングで前記表示装置に表示している画像を静止画像データとして取得し、当該静止画像データを記憶装置に格納する手段と、
前記記憶装置に格納された前記静止画像データを、特定の識別情報に対応付けて画像データ記憶装置に登録する手段と、
前記オペレータの指示に応じて音声以外の撮影指示に関するデータを、前記携帯端末機に送信する指示送信手段と、
を有する画像データ登録装置。
Means for receiving moving image data from a portable terminal having a moving image shooting function;
Means for displaying the received moving image data on a display device, obtaining an image displayed on the display device at the timing of an operator's instruction as still image data, and storing the still image data in a storage device;
Means for registering the still image data stored in the storage device in an image data storage device in association with specific identification information;
Instruction transmission means for transmitting data related to a photographing instruction other than voice to the portable terminal in accordance with an instruction of the operator;
An image data registration device.
前記撮影指示に関するデータの選択肢となるデータを格納する撮影指示データ格納部をさらに有し、
前記指示送信手段が、
前記撮影指示データ格納部に格納された前記撮影指示に関するデータの選択肢となるデータを読み出して前記表示装置に表示し、前記オペレータの選択指示に応じて前記携帯端末機に送信する
ことを特徴とする請求項1に記載の画像データ登録装置。
A shooting instruction data storage unit for storing data as data selection options for the shooting instruction;
The instruction transmitting means is
Data that is a choice of data related to the shooting instruction stored in the shooting instruction data storage unit is read out, displayed on the display device, and transmitted to the portable terminal according to the selection instruction of the operator. The image data registration device according to claim 1.
前記撮影指示に関するデータの選択肢となるデータが、事故の撮影に係る指示文データを含み、
前記事故の撮影に係る指示文データが事故形態毎に分類される
ことを特徴とする請求項2に記載の画像データ登録装置。
Data that is an option for data relating to the shooting instruction includes instruction data relating to shooting of the accident,
The image data registration apparatus according to claim 2, wherein the instruction data relating to the shooting of the accident is classified for each accident form.
前記撮影指示の履歴データと前記静止画像データの取得履歴データとのうち少なくともいずれかを記憶装置に格納する手段
をさらに有する請求項1乃至3のいずれか1つ記載の画像データ登録装置。
4. The image data registration device according to claim 1, further comprising means for storing at least one of the shooting instruction history data and the still image data acquisition history data in a storage device. 5.
前記特定の識別情報が、前記携帯端末機の保有者に関連する保険契約の証券番号であることを特徴とする請求項1乃至4のいずれか1つに記載の画像データ登録装置。5. The image data registration apparatus according to claim 1, wherein the specific identification information is a policy number of an insurance contract related to a holder of the portable terminal. 画像撮影機能を有する携帯端末機から位置情報を取得する手段と、
取得した位置情報を基に前記位置情報を含むエリアの地図情報を取得する手段と、
取得した前記エリアの地図情報を用いて、当該エリアの地形タイプを判定する手段と、
判定した前記地形タイプに基づいて、画像取得のための位置を特定する手段と、
特定された前記位置を示すデータを、前記地形タイプのイメージ図のデータ又は地図情報データに付加する手段と、
前記位置データを付加した前記地形タイプのイメージ図のデータ又は地図情報データを送信する手段と、
送信した前記地形タイプのイメージ図のデータ又は地図情報データに基づいて前記携帯端末機によって取得された画像を受信する手段と、
を有する画像データ登録装置。
Means for acquiring position information from a portable terminal having an image capturing function;
Means for acquiring map information of an area including the position information based on the acquired position information;
Means for determining the terrain type of the area using the acquired map information of the area;
Means for identifying a position for image acquisition based on the determined terrain type;
Means for adding data indicating the identified position to image data or map information data of the terrain type image;
Means for transmitting image map data or map information data of the terrain type with the position data added thereto;
Means for receiving an image acquired by the portable terminal based on the transmitted image data of the terrain type or map information data;
An image data registration device.
前記携帯電話機の保有者からの音声を受け付ける手段と、
受け付けた音声をテキスト変換処理する手段と、
テキスト変換した音声から所定の語を検出する手段と、
検出した前記所定の語に対応する絵コンテを前記表示装置に表示する手段と、
表示された前記絵コンテに対するオペレータの操作に基づいて、前記地形タイプのイメージ図又は地図情報上の所定の位置に前記絵コンテが表示されるように前記地形タイプのイメージ図のデータ又は地図情報データを調整する手段と、
をさらに有する請求項6に記載の画像データ登録装置。
Means for receiving voice from a holder of the mobile phone;
Means for converting the received speech into text,
Means for detecting a predetermined word from text-converted speech;
Means for displaying a storyboard corresponding to the detected predetermined word on the display device;
Based on the operator's operation on the displayed storyboard, the data of the topographic image map or the map information data is adjusted so that the storyboard is displayed at a predetermined position on the topographic image map or map information. Means to
The image data registration device according to claim 6, further comprising:
動画像撮影機能を有する携帯端末機から動画像データを受信するステップと、受信した前記動画像データを表示装置に表示し、オペレータの指示のタイミングで前記表示装置に表示している画像を静止画像データとして取得し、当該静止画像データを記憶装置に格納するステップと、
前記記憶装置に格納された前記静止画像データを、特定の識別情報に対応付けて画像データ記憶装置に登録するステップと、
前記オペレータの指示に応じて音声以外の撮影指示に関するデータを、前記携帯端末機に送信する指示送信ステップと、
を含む画像データ登録方法。
A step of receiving moving image data from a portable terminal having a moving image photographing function; and displaying the received moving image data on a display device; and displaying an image displayed on the display device at a timing of an instruction from an operator Acquiring as data and storing the still image data in a storage device;
Registering the still image data stored in the storage device in an image data storage device in association with specific identification information;
An instruction transmission step of transmitting data related to a shooting instruction other than voice in response to the operator's instruction to the portable terminal;
Image data registration method including
動画像撮影機能を有する携帯端末機から動画像データを受信するステップと、
受信した前記動画像データを表示装置に表示し、オペレータの指示のタイミングで前記表示装置に表示している画像を静止画像データとして取得し、当該静止画像データを記憶装置に格納するステップと、
前記記憶装置に格納された前記静止画像を、特定の識別情報に対応付けて画像データ記憶装置に登録するステップと、
前記オペレータの指示に応じて音声以外の撮影指示に関するデータを、前記携帯端末機に送信する指示送信ステップと、
をコンピュータに実行させるためのプログラム。
Receiving moving image data from a portable terminal having a moving image shooting function;
Displaying the received moving image data on a display device, obtaining an image displayed on the display device at a timing of an operator's instruction as still image data, and storing the still image data in a storage device;
Registering the still image stored in the storage device in an image data storage device in association with specific identification information;
An instruction transmission step of transmitting data related to a shooting instruction other than voice in response to the operator's instruction to the portable terminal;
A program that causes a computer to execute.
JP2003206007A 2003-08-05 2003-08-05 Apparatus and method of registering image data Withdrawn JP2005057343A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003206007A JP2005057343A (en) 2003-08-05 2003-08-05 Apparatus and method of registering image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003206007A JP2005057343A (en) 2003-08-05 2003-08-05 Apparatus and method of registering image data

Publications (1)

Publication Number Publication Date
JP2005057343A true JP2005057343A (en) 2005-03-03

Family

ID=34363013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003206007A Withdrawn JP2005057343A (en) 2003-08-05 2003-08-05 Apparatus and method of registering image data

Country Status (1)

Country Link
JP (1) JP2005057343A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009530967A (en) * 2006-03-21 2009-08-27 ソニー エリクソン モバイル コミュニケーションズ, エービー Method and system for maintaining anonymity of mobile radio terminal
US8019629B1 (en) 2008-04-07 2011-09-13 United Services Automobile Association (Usaa) Systems and methods for automobile accident claims initiation
US8755779B1 (en) 2008-07-25 2014-06-17 United Services Automobile Association Systems and methods for claims processing via mobile device
JP2015195594A (en) * 2013-10-11 2015-11-05 オリンパス株式会社 Imaging apparatus, imaging system, imaging method and imaging program
US9846911B1 (en) 2008-07-25 2017-12-19 United Services Automobile Association (Usaa) Systems and methods for claims processing via mobile device
JP2020064605A (en) * 2019-05-22 2020-04-23 あいおいニッセイ同和損害保険株式会社 Program and information processing method
WO2020079916A1 (en) * 2018-10-18 2020-04-23 あいおいニッセイ同和損害保険株式会社 Program and information processing method
JP2020161175A (en) * 2020-06-18 2020-10-01 あいおいニッセイ同和損害保険株式会社 Program and information processing method
JP2020173594A (en) * 2019-04-10 2020-10-22 株式会社Okuta Construction estimate creation assisting device and construction estimate creation assisting system
JP2021005394A (en) * 2020-09-08 2021-01-14 あいおいニッセイ同和損害保険株式会社 Program and method for processing information
JP2021057062A (en) * 2020-12-09 2021-04-08 あいおいニッセイ同和損害保険株式会社 Program and information processing method
WO2022249530A1 (en) * 2021-05-27 2022-12-01 日本電気株式会社 Server device
CN115601687A (en) * 2022-12-15 2023-01-13 南京睿聚科技发展有限公司(Cn) Intelligent processing method for on-site survey data in insurance claim settlement process
JP7288641B1 (en) 2022-08-08 2023-06-08 株式会社リモフィ Remote photography system and remote photography method
US11816264B2 (en) 2017-06-07 2023-11-14 Smart Beat Profits Limited Vital data acquisition and three-dimensional display system and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001084392A1 (en) * 2000-04-28 2001-11-08 The Tokio Marine And Fire Insurance Co., Ltd. Mobile road-assist system
JP2002041871A (en) * 2000-07-24 2002-02-08 Tsubasa System Co Ltd System for estimating repair costs of vehicle
JP2002300103A (en) * 2001-03-29 2002-10-11 Denso Corp Vehicular information communication unit, vehicular information communication system, and program
JP2002312423A (en) * 2001-04-11 2002-10-25 Akebono Brake Ind Co Ltd Procedure business system using two-way communication system
JP2003058653A (en) * 2001-08-21 2003-02-28 Isao Inoue Repair state managing device for wreck car
JP2003115094A (en) * 2001-10-02 2003-04-18 Mitsubishi Heavy Ind Ltd Accident information distribution system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001084392A1 (en) * 2000-04-28 2001-11-08 The Tokio Marine And Fire Insurance Co., Ltd. Mobile road-assist system
JP2002041871A (en) * 2000-07-24 2002-02-08 Tsubasa System Co Ltd System for estimating repair costs of vehicle
JP2002300103A (en) * 2001-03-29 2002-10-11 Denso Corp Vehicular information communication unit, vehicular information communication system, and program
JP2002312423A (en) * 2001-04-11 2002-10-25 Akebono Brake Ind Co Ltd Procedure business system using two-way communication system
JP2003058653A (en) * 2001-08-21 2003-02-28 Isao Inoue Repair state managing device for wreck car
JP2003115094A (en) * 2001-10-02 2003-04-18 Mitsubishi Heavy Ind Ltd Accident information distribution system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009530967A (en) * 2006-03-21 2009-08-27 ソニー エリクソン モバイル コミュニケーションズ, エービー Method and system for maintaining anonymity of mobile radio terminal
JP4713667B2 (en) * 2006-03-21 2011-06-29 ソニー エリクソン モバイル コミュニケーションズ, エービー Method and system for maintaining anonymity of mobile radio terminal
US8019629B1 (en) 2008-04-07 2011-09-13 United Services Automobile Association (Usaa) Systems and methods for automobile accident claims initiation
US8260639B1 (en) 2008-04-07 2012-09-04 United Services Automobile Association (Usaa) Systems and methods for automobile accident claims initiation
US8712806B1 (en) 2008-04-07 2014-04-29 United Services Automobile Association (Usaa) Systems and methods for automobile accident claims initiation
US8755779B1 (en) 2008-07-25 2014-06-17 United Services Automobile Association Systems and methods for claims processing via mobile device
US9846911B1 (en) 2008-07-25 2017-12-19 United Services Automobile Association (Usaa) Systems and methods for claims processing via mobile device
US10586289B1 (en) 2008-07-25 2020-03-10 United Services Automobile Association (Usaa) Systems and methods for assistance services using mobile communications
JP2015195594A (en) * 2013-10-11 2015-11-05 オリンパス株式会社 Imaging apparatus, imaging system, imaging method and imaging program
US9554028B2 (en) 2013-10-11 2017-01-24 Olympus Corporation Imaging device, imaging system, imaging method, and computer-readable recording medium associating image data with responsibility acceptance or abandonment information
US10200585B2 (en) 2013-10-11 2019-02-05 Olympus Corporation Imaging device, imaging system, imaging method, and computer-readable recording medium for use in an imaging system including an external communication device
US11816264B2 (en) 2017-06-07 2023-11-14 Smart Beat Profits Limited Vital data acquisition and three-dimensional display system and method
WO2020079916A1 (en) * 2018-10-18 2020-04-23 あいおいニッセイ同和損害保険株式会社 Program and information processing method
JP2020064528A (en) * 2018-10-18 2020-04-23 あいおいニッセイ同和損害保険株式会社 Program and information processing method
JP2020173594A (en) * 2019-04-10 2020-10-22 株式会社Okuta Construction estimate creation assisting device and construction estimate creation assisting system
JP2020064605A (en) * 2019-05-22 2020-04-23 あいおいニッセイ同和損害保険株式会社 Program and information processing method
JP2020161175A (en) * 2020-06-18 2020-10-01 あいおいニッセイ同和損害保険株式会社 Program and information processing method
JP2021005394A (en) * 2020-09-08 2021-01-14 あいおいニッセイ同和損害保険株式会社 Program and method for processing information
JP2021057062A (en) * 2020-12-09 2021-04-08 あいおいニッセイ同和損害保険株式会社 Program and information processing method
JP7206246B2 (en) 2020-12-09 2023-01-17 あいおいニッセイ同和損害保険株式会社 Program and information processing method
WO2022249530A1 (en) * 2021-05-27 2022-12-01 日本電気株式会社 Server device
JP7288641B1 (en) 2022-08-08 2023-06-08 株式会社リモフィ Remote photography system and remote photography method
JP2024022731A (en) * 2022-08-08 2024-02-21 株式会社リモフィ Remote imaging system and remote imaging method
CN115601687A (en) * 2022-12-15 2023-01-13 南京睿聚科技发展有限公司(Cn) Intelligent processing method for on-site survey data in insurance claim settlement process
CN115601687B (en) * 2022-12-15 2023-03-07 南京睿聚科技发展有限公司 Intelligent processing method for on-site survey data in insurance claim settlement process

Similar Documents

Publication Publication Date Title
JP2005057343A (en) Apparatus and method of registering image data
JP3962829B2 (en) Display device, display method, and display program
US7228124B2 (en) Method and device for speeding up and simplifying information transfer between electronic devices
US20070036469A1 (en) Method and system for providing image-related information to user, and mobile terminal therefor
US20080147730A1 (en) Method and system for providing location-specific image information
JP2001292394A (en) Method for intensifying set of image recording
JP2001268490A (en) Method for relating image and position data
JP2008027336A (en) Location information delivery apparatus, camera, location information delivery method and program
WO2008016083A1 (en) Overlay information presentation device and overlay information presentation system
KR20120017172A (en) Apparatus and method for controlling power in portable terminal when a geotagging
JP4866396B2 (en) Tag information adding device, tag information adding method, and computer program
KR101729206B1 (en) System and method for image sharing
JP2000331006A (en) Information retrieval device
JP2003319033A (en) Portable communication terminal information input system, portable communication terminal, program therefor, analysis server, and portable communication terminal information input method
JP2005067499A (en) System and method for providing rescue service, on-vehicle terminal device, server device, program, and recording medium
JP4814753B2 (en) Method and system for linking data information and voice information
JP4080815B2 (en) Service information provision method
JP2000048050A (en) Multimedia information collection management system
JP2003122776A (en) System for generating album
JP2004023468A (en) Device and system for receiving emergency call
TW201018199A (en) Location identification method, photo device, and a location identification system
JP2003016086A (en) System for information processing, server, terminal device and method for providing of advertising service
JP7410611B1 (en) Content distribution server and content distribution system
JP2012018148A (en) Position information providing device, navigation device, navigation system and computer program
JPH1139321A (en) Information collection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090223