JP7282519B2 - 画像処理装置または画像処理サーバー - Google Patents
画像処理装置または画像処理サーバー Download PDFInfo
- Publication number
- JP7282519B2 JP7282519B2 JP2018247191A JP2018247191A JP7282519B2 JP 7282519 B2 JP7282519 B2 JP 7282519B2 JP 2018247191 A JP2018247191 A JP 2018247191A JP 2018247191 A JP2018247191 A JP 2018247191A JP 7282519 B2 JP7282519 B2 JP 7282519B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- player
- metadata
- server
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
特許文献2には、撮像された画像から取得したAF評価値に基づいてフォーカスレンズを駆動し、自動焦点検出制御を行う自動焦点検出装置が記載されている。
さらに、最近は、カメラマンが写真を撮影した時のメモを例えば音声で写真に関連付けて残すことが多い。しかし、撮影の意図をメタデータ情報として残した場合に、他のメタデータと連携して残すことができないという欠点があった。また、試合の進み方によっては、カメラマンの撮影時のメモ内容と異なる結果になってしまうことがあった。この場合、カメラマンの撮影の意図とずれたメタデータのメモがそのまま、残ってしまうという課題もあった。
同様に、競技場や自宅の端末で競技をモニターしている一般ユーザーにとっても特定の選手を見失ったり競技の状況がわからなくなったりする場合が多かった。同様にカーレースや飛行機レースや競馬などにおいても特定の車両や飛行機や馬などの対象を見失ってしまうことがあった。更には特定の人物を街角で追跡する場合においても雑踏の中にその特定の人物が紛れてしまい見失うことがあった。また、そのような、注目している特定の対象を目視で追いかけることに専念しているとその対象に対する撮影やピント合わせや露出調整などをスムーズにできないという問題があった。
本発明は、上記、課題を解決し、有益な情報をタイムリーに付加でき、適宜修正できる画像処理装置を提供することを目的とする。
画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づく前記特定の対象の位置情報及び前記サーバーにおいて作成された所定のメタデータを取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づく付加情報または前記メタデータに関する情報を前記表示手段に表示する制御手段、
を有することを特徴とする。
従って、そのような各ユーザーには見えない、わかりにくい情報をサーバーが把握して配信することによって観客に対するサービスを大幅に向上することができる。
すなわち、上記の100番台のブロックは、プロカメラマンや一般観客などによる映像撮影等をサポートするためのブロックである。
201は、イーサネット(登録商標)コントローラであり、204は選手の役割(所謂ポジション)に応じたプレイ位置を検出する検出部である。ここで選手の役割(ポジション)は予め登録等によって設定される。例えば、ラグビーの場合の役割(ポジション)としては、1、3はプロップ、2はフッカー、4、5はロック、6、7はフランカー、8はナンバー8と呼ばれ、9はスクラムハーフ、10はスタンドオフと呼ばれる。また、11、14はウィング、12、13はセンター、15はフルバックと呼ばれる。
これらの選手のいる場所は、セットプレイの時などは、フォワードは、攻撃している前方にいて、バックスは、攻撃している後方にいることが多い。
なお、通常は、背番号から、選手の役割は認識できることが多い。しかしながら、場合によっては、10番の選手が怪我をして、15番の選手がスタンドオフ(10番の位置に入り)、リザーブ選手が、15番に入ることなどがある。ここで、リザーブ選手の背番号は、16から23である。しかし、背番号だけからポジションが確定するわけではない。従って204の検出部では選手の予め設定された役割に応じたプレイ位置を検出し、この検出したプレイ位置の情報は、サーバー110内のCPU211に取り込まれるが、上記の予め設定された役割は競技中に選手交代などによって変更になる場合もある。
207は選手の体格認識部であり、注目選手の予め登録された体格写真情報に基づき前記のような画像認識技術を用いて選手を見つける。
210は各端末401~403から送られてくる各端末の位置情報と方角情報と画角情報から、各端末の位置と各端末のカメラの向いている方角と画角を検出するカメラ位置情報、方角検出部である。
211はコンピュータとしてのCPU(Central Processing Unit)であり、記憶媒体としてのプログラムメモリ712に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する中央演算処理装置である。
1101はサーバー110内のデータバスラインである。
図3、図4に示される画像処理装置としての端末側(カメラ)は、動画および静止画の撮影、並びに、撮影情報の記録が可能である。また、図3、図4において、CPU(Central Processing Unit)318、プログラムメモリ319、データメモリ320は重複して示すが、これらは同一のブロックでありそれぞれ1つだけ内蔵されている。
図3において、301はイーサネット(登録商標)コントローラである。302は記憶媒体であり、デジタルカメラで撮影した動画、静止画(写真)が所定のフォーマットで格納される。
さらに、操作部入力手段306において、注目選手をサーバーからの位置情報に基づき自動追尾するか否かを選択/設定できる。どの選手を注目選手(特定の対象)に指定するか、注目選手の自動追尾をサーバーからの位置情報に基づき実行するか否かなどの情報は、選択手段としての操作部入力手段306によって生成される。即ち操作部入力手段306は特定の対象に関する指定情報を生成する指定情報生成手段として機能している。
313は選手の背番号検出部であり、注目選手の背番号(もちろん前側の番号でもよい)から前述のような画像認識技術によって選手を見つけるものである。314は端末のレンズの向いている方角を検出する方角検出部である。315は端末の位置情報を例えばGPSなどを用いて検出する位置検出部である。
データメモリ320は、デジタルカメラの設定条件を格納したり、撮影した静止画、動画、さらには、静止画、動画の属性情報などを格納したりするためのものである。
371は、デジタルカメラ自身で注目選手の追跡を行うための追跡部である。ここでいう追跡とは例えば注目選手を囲む枠表示を画面内で移動させるとともに、前記枠によって追尾される注目選手にフォーカスを合わせたり、露出を合わせたりする。
図5はデジタルカメラの追跡部371の機能構成例を示すブロック図である。追跡部371は、照合部3710と特徴抽出部3711と距離マップ生成部3712からなる。特徴抽出部3711はサーバーから送られた位置情報に基づき、追跡すべき画像領域(被写体領域)を特定する。そしてこの被写体領域の画像から特徴量を抽出する。一方、照合部3710は継続して供給される個々のフレームの撮像画像内で、前記の抽出した特徴量を参照して、前フレームの被写体領域と類似度の高い領域を被写体領域として探索する。
照合部3710が、特徴抽出部3711から供給される画像内の被写体領域の特徴量に基づいて被写体領域と類似度の高い領域を被写体領域として探索する際には例えばテンプレートマッチングやヒストグラムマッチングなどを用いる。
カメラ500からサーバー110には、注目選手指定情報(背番号、選手名などのID情報)を通知する。その際ユーザーは端末の画面上で注目選手の位置をタッチしてもよいし、指を画面にタッチしたまま注目選手の周りを指で囲んでもよい。
また、本実施例は撮影アシストの例を用いて説明しているが、端末が家庭用のTVであってもよい。即ち、TVを見ている観客が注目選手を指定したら、サーバーがその注目選手の位置情報などをTVに送って注目選手を枠表示等により目立つように表示してもよい。なお、枠だけでなく、カーソル(例えば矢印など)で注目選手を示してもよいし、注目選手位置の領域の色や輝度を他の部分と異ならせてもよい。注目選手が端末の画面外にいる場合には、端末の画面に対してどの方向にずれているかを矢印や文字で表示してもよい。また表示画面外にいる場合に端末が現在見ている角度からどのくらい離れているか(ずれているか)、どのくらい端末を回転しないと注目選手が表示画面内に入らないかなどを矢印の長さや太さや、数字や目盛りなどで表示してもよい。
あるいは競技の状況を自動的に判断して、注目選手がベンチに下がった場合等には、画面外に注目選手が移動しても、画面外にいることを矢印等で表示しないようにしてもよい。そのように自動的に付加情報の表示を消すモードと消さないモードをユーザーが選択できるようにすると更に使い勝手が向上する。
なお、本実施例ではカメラマンの撮影アシスト機能を主眼に置いているが、将来的にはこの部分がロボットカメラになっても良い。サーバーからこれだけの情報がもらえれば、カメラマンに代わって、自動雲台に搭載したロボットカメラが、選手を追跡して、決定的瞬間を撮影することも可能である。
本実施例では、静止画像(写真)に各種のメタデータを付加して記録する。メタデータとしては、例えば撮影日時、撮影した位置情報(緯度、経度、高度、方向)、撮影した情報(絞り値、露出時間、ISO感度、シャッタースピード、測光方式などが含まれる。更にメタデータとして、レンズ焦点距離、フラッシュの有無、露出補正値、手ブレ補正、色空間等)、撮影したカメラ情報(カメラの機種名、レンズ名)なども含まれる。これらのメタデータは、例えばExif(Exchangeable Image File Format)フォーマットで画像ファイル内に記録される。
図8(A)に示すように、DCFサムネイルファイルは、SOI(Start Of Image)、Exif情報、サムネイルファイル、EOI(End Of Image)等から構成される。一方、図8(B)に示すようにDCF基本ファイルは、SOI、Exif情報、サムネイル、DCF基本主画像、EOI等から構成される。
ここで、SOI(Start Of Image)はJPEGデータの先頭、EOI(End Of Image)はJPEGデータの終端を表している。また、App1(Application marker segment 1)は、Exif情報を記憶する。
撮影した選手が誰であるかを判断して、データベースから選手固有の詳細情報をメタデータとして記憶することもできる。選手がトライを決めた時に、例えば、その選手の出場タイミング、現在の試合における時間、さらに、選手の試合中の行動記録(「~選手は、スタメンで出場し、前半36分に1トライを決める。」)などをメタデータとして記憶しても良い。
本実施例では、静止画像(写真)に対応したメタデータとして、カメラ側は、上記のような一般情報及びカメラマンの音声情報に関するメタデータを格納するものとする。またサーバー側は、すべての情報(一般情報、判定情報、試合終了情報、プロカメラマン音声情報等)を記憶する機能を有する。なお、静止画像(写真)に対応したメタデータとして、カメラ側、サーバー側ともに、すべての情報(一般情報、判定情報、試合終了情報、プロカメラマン音声情報)を格納するようにしてもよい。
また、注目選手の写真に対してだけ上記のようなメタデータを付加して記憶するのではなく、すべての選手の写真に対してメタデータを付加して記憶しても良い。
サーバーは、写真に対して付加された一般情報やカメラマンの音声情報などのメタデータに対して、更に審判などによる判定情報、あるいは、試合終了後の情報を追加することができる。このようにサーバー側でメタデータを追加した時に、カメラに対して、逐一そのことを知らせるようにしても良い。
本実施例では、特定の注目選手の写真を撮影した時に、試合の情報、および、この特定選手に関する情報をメタデータとして、サーバーから宛先の一つとしてデバイス端末(カメラ)に送る。更にカメラ(画像処理装置)以外の宛先として予め登録したフォトエージェンシーなどに送る。そして、カメラマンは更に試合開始前に試合情報などの各種メタデータを追加入力し、更に撮影時に、カメラマンの音声情報もメタデータとして撮影画像(写真)に付加する。更にそのメタデータ付きの写真をサーバーに送信すると、サーバー側で、審判などによる判定結果をメタデータとして入力する。
更に、カメラマンの音声によるコメント等の情報を、カメラが認識した情報、サーバーが持っている情報により修正したり、組み合わせたりすることができる。
図9(A)においてS101は初期化を表している。S102で写真撮影(静止画撮影)が選択されたか否かが判断され、写真撮影が選択されるとS103に進み、写真撮影が選択されていないとS101に進む。S103ではカメラの設定情報を入手する。S104では注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS105に進み、注目選手の撮影が選択されていないとS110に進みその他の処理をする。S105は注目選手情報(注目選手のID情報等)とパスワードがあればそれをカメラからサーバーに送る。これによってサーバー側は注目選手の位置情報を検出してカメラに送信する。S106ではサーバーから注目選手の位置情報等をサーバーから受けとる。
なお、上記のようなS107の追跡動作はスキップし、実行しないように選択スイッチでユーザーが選択可能にしてもよい。あるいは、注目選手が画面内にいるときには追跡動作を実行するが画面外に出た場合には追跡動作をしない、というモードを設け、そのモードを選択できるようにしてもよい。更には、競技の状況を自動的に判断し、例えば注目選手がベンチ入りした場合などに、画面外の注目選手の追跡動作(矢印などの付加情報を表示など)を自動的に停止するように制御してもよい。あるいは画面内であるか画面外であるかにかかわらず、注目選手がベンチ入りしたことがサーバー側でわかったら画面における注目選手位置の表示や注目選手に対するオートフォーカスや注目選手に対する自動露光調整を停止するように制御してもよい。
S109では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS101に戻り、注目選手の撮影が継続している場合には、図10のS111に進む。
実施例2では、撮影時に付加されたメタデータ(文字情報に変換された音声情報等)を、審判の判定情報などのメタデータに置き換える。
即ち、図11のS118において、撮影した写真のメタデータの更新がサーバー側でなされたか否かが判断される。そして、撮影した写真のメタデータの更新があるとS119に進み、撮影時のメタデータ(文字情報に変換された撮影時の音声情報等)を審判の判定情報に置き換える。即ち更新する。また、サーバーから取得したメタデータに関する情報(例えば更新されたメタデータの中身等)をカメラ側の表示装置でユーザーがメニュー操作で選択した場合には表示できるようにする。撮影した写真のメタデータの更新がないと図9(A)のS107に進む。また、S111で注目選手の撮影がなかった場合にはS118に進む。
なお、審判などの判定情報をメタデータとして写真に記憶する際に、この判定情報を画面に文字情報として表示しても良い。これによってカメラマンが、撮影した写真に対して、どのような判定がなされたかを画面で確認することができる。例えば具体的には、「~選手は後半5分から出場して、後半35分に、トライ成功と思われたが、判定の結果は、ノートライでした。」などと画面表示することができる。
また、例えば、選手がスタメンで試合に出場して、選手交代で退いた時刻、さらに選手交代で試合に出場した時刻などの情報も選手に着目したメタデータとして写真に付加して記憶したり表示したりしても良い。
なお、サーバーは、登録された選手などに関する一般的な選手としての情報をデータベースとして保存しているだけでなく、メタデータ化したデータベースとして保存していても良い。
一方、サーバーで上記変換を実行する場合は、サーバーは、絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、個々のカメラの相対的な位置情報(X´、Y´)に変換する。サーバーは、個々のカメラに対して、この相対的な位置情報を送り、この相対的な位置情報を受信したカメラは、この相対的な位置情報を個々のカメラ側の表示画面内での位置情報とする。
上記のような構成によって、カメラマン、あるいは一般観客が保有するカメラでは、注目選手の情報をサーバーに送り、サーバーから取得した情報をもとに注目選手の追跡を実施する。更にこれに合わせて、カメラマン、あるいは、一般観客が保有するカメラ自身でも注目選手の位置を検出することができる。
サーバーは撮影した選手が誰かを判断して、選手固有の情報をメタデータとして格納することもできる。例えば、その選手の出場タイミング、現在の試合における時間、さらに、選手の動作(「AAA選手は、スタメンで出場し、前半36分に1トライを決める。」)をメタデータとして格納しても良い。
カメラ等の端末から送られてきた注目選手のID情報等に基づき、サーバーは注目選手の画像認識を行い画面の中からその注目選手を探す。サーバーはサーバー用の複数台のカメラ(固定されたカメラや移動カメラなど)からの映像をもとに選手の位置情報を検出して、プロカメラマンや観客のカメラ端末などに選手の位置情報を送る。特に、プロカメラマンや観客が撮影を行う際に、サーバーからの注目選手の位置情報があれば注目選手を間違えることなく確実に撮影できる。さらに、カメラでも注目選手の追跡を実施している際に、死角となって選手を見失ったときなどにおいても同様に、サーバーからの情報は重要になる。なお、サーバー側ではサーバー用の複数台のカメラからの映像をもとに選手の位置情報を検出し続ける。
図12において、最初にS201で初期化を行う。次にS202でカメラにおいて写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS203に進み、カメラの設定情報を入手する。このときカメラの設定情報の中にパスワードがあればそれも入手する。写真撮影が選択されていないとS201に進む。S204では、注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS205に進み、サーバーは、カメラから注目選手のID情報(例えば選手名、背番号など)を受信する。S204で注目選手の撮影が選択されていないとS210に進みその他の処理をする。
S208-2では、撮影時のメタデータがついている写真をカメラから受信する。ここで、メタデータとしては、カメラマンがシャッターをきった時のカメラマンの音声情報やその他の一般情報などのメタデータが含まれている。
これにより、フォトエージェンシーは、撮影されたメタデータ付きの写真を早いタイミングで受け取ることが可能になり、写真情報の活用が可能になる。
S209では、注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS201に戻り、注目選手の撮影が継続している場合には、S205に戻る。そして、再度、サーバーは、カメラマン、あるいは、一般観客の保有するカメラからの情報を認識する。そして、複数のサーバー用のカメラ(固定カメラや移動カメラ)からの情報を探索して、注目選手を見つけて、S207で、継続してサーバーは、複数のカメラからの映像に基づき、注目選手の追跡を実施する。
S212でのメタデータの入力は、ラグビーの試合開始前に入力されるものであり、その際のメタデータとしては、例えば試合開始前の情報(48時間前)、試合開始に先立って行われた例えば出場選手の変更(数時間前の情報)などがある。
これにより、カメラマンの音声メモを写真のメタデータとして残すことが可能になるとともに、例えば試合開始前の試合に関する情報などは、カメラマンが、入力しなくてもサーバーにおいて自動的に入力されることになる。従って、カメラマンは撮影や音声メモに集中でき、撮影直後に音声のメタデータ付きの写真を報道局などに送ることが可能になる。
図13は背番号情報を用いた注目選手検出制御フローを示す。図13において、S401で、サーバーは注目選手のID情報に基づきデータメモリ213から背番号を取得し、サーバー用の複数台のカメラの映像情報の中からこの背番号を画像認識で探し、その背番号の選手の位置情報を取得する。S402において、更にサーバー用の複数台のカメラの画像から取得された位置情報を総合することにより、注目選手の絶対位置情報を取得する。このようにサーバー用の複数台のカメラの情報を総合することによって、ある背番号の選手の絶対位置情報の精度が向上する。S403では、S402で検出した注目選手の絶対位置をプロカメラマンや観客の保有するカメラ等の端末に対して送信する。S404では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS401に戻り、注目選手の追跡が継続していないと図13のフローを終了する。
S201からS207、S208-2、S208-3、S209から212は、図12と同一なので説明を省略する。
S208では、カメラからの情報により、注目選手の実際の撮影があるか、すなわち、シャッターをきることがあるか否かが判断される。そして、注目選手の実際の撮影がある、すなわち、シャッターを切ることがあると、S208-2に進み、注目選手の実際の撮影がない、すなわち、シャッターを切ることがないと、S213に進む。
S213においては、カメラマンの音声情報から入力したときの判定情報がサーバーにあるか否かが判断され、YesであればS214に進み、NoであればS205に進む。
このように、試合の開始前に取得されたメタデータは、サーバー側に蓄積しておいて、カメラマンが実際に撮影を行った時に、カメラマンの音声情報をメタデータとして写真に付加して、サーバーに送る。サーバーでは、審判の判定がカメラマンの音声メモと異なるときに自動的にメタデータを書き換えることが可能になる。
S214-2では、S214でのメタデータをカメラに送る。これによってカメラ側では、サーバーから送られたメタデータに関する情報(例えば判定情報の中身等)をカメラ側の表示装置でユーザーがメニュー操作で選択した場合には表示できるようになる。
次にS214-3において、上記S214でメタデータと名称を変更した写真を、フォトエージェンシーに送り、その後S205に進む。
これにより、フォトエージェンシーは、メタデータが変更になった時に、名称番号が変更された写真として受け取ることが可能になり、写真情報の活用がより高まるとともに、カメラマンの作業が簡略化され、速やかに写真を報道局に送ることが可能になる。
S201からS207、S208-2、S208-3、S209から212は、図12と同一なので説明は省略する。
S208では、カメラからの情報により、注目選手の実際の撮影があるか、すなわち、シャッターをきることがあるか否かが判断される。そして、注目選手の実際の撮影がある、すなわち、シャッターを切ることがあると、S208-2に進み、注目選手の実際の撮影がない、すなわち、シャッターを切ることがないと、S215に進む。
S215においては、カメラマンの音声情報を入力した際の判定情報がサーバーにあるか否かが判断され、YesであればS216に進み、NoであればS205に進む。
S216では、カメラマンの音声情報のメタデータに、判定情報のメタデータもともに記憶する。まあ、メタデータが変更されているので写真の名称も変更する。
S216-2では、S216のメタデータをカメラに送る。これによってカメラ側では、サーバーから送られたメタデータに関する情報(例えば判定情報の中身等)をカメラ側の表示装置でユーザーがメニュー操作で選択した場合には表示できるようになる。
これにより、カメラにおいて、メタデータを最新のものに更新することが可能になる。カメラでは、写真は変更せず、写真のメタデータのみ変更する。
S216-3は、S216において、変更したメタデータ付きの写真をフォトエージェンシーに送る。
図16において、S209以外は図12と同一なので説明は省略する。
S220では、試合終了後のメタデータがあるか否かが判断され、試合終了後のメタデ
ータがあるとS221に進み、試合終了後のメタデータがないとS201に進む。
S221では、カメラマンが入力した音声情報のメタデータ、判定情報のメタデータ、更に試合終了後のメタデータ情報も追加する。メタデータ変更に伴い写真の名称も変更する。
これにより、カメラマンの音声情報、審判の判定結果、試合終了後の情報もメタデータとして写真に付加することが可能になる。
これにより、カメラにおいて、メタデータを最新のものに更新することが可能になる。カメラでは、写真は変更せず、メタデータのみ変更する。
S221-3では、S221のメタデータ付きの写真をフォトエージェンシーに送る。
なお以上の実施例において、カメラからメタデータを有する写真をサーバーにアップロードする際には、カメラ側では写真1枚ずつに対して、メタデータのみを更新していく。一方、サーバー側では、メタデータが更新されたときに写真(撮影画像)のファイルをアップデートしていくので、写真は複数枚となり、写真の名称は更新されていく。
プロカメラマンや一般観客にとって、ゲームの中での判定は気になるものである。審判は主審1人とタッチジャッジ2人の3人体制で行っている。特に、トライを決めたかに見えたシーンにおいての判定、あるいは、ゲームの中での反則が起きたかの判定など人間の眼だけでは判断ができないことがある。このために、肉眼での判定が難しい場合に審判の判定の手助けとなるビデオ判定(TMO(テレビジョン・マッチ・オフィシャル))を行っている。
トライ判定制御フロー(サーバー側)が図18に図示されている。
図18において、S1101は、初期化を表している。ここで、TRYジャッジフラグは、クリアする。S1102では、写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS1103に進み、写真撮影が選択されていないとS1101に進む。S1103では、カメラの設定情報を入手する。S1104では、複数台のカメラの映像から、試合で使用しているボールを追いかける。
図19、図20、図21、図22に、トライの判定を行う具体例が図示されており、これらについては後述する。
以上は、トライの有無を判定する制御である。しかしながら、CPUはこの制御のみを実行するのではなく、例えば、図12等に示した注目選手の検出制御と同時並行して実行しても良い。
トライシーンの撮影をした際に、トライが成功したか失敗したかを正しく認識しないといけない。サーバーは、トライが成功したか、あるいは、コンバージョンが成功したかの判定を確認する。ここでは、トライの例で説明を行った。しかしながら、トライに限らず、その他の得点シーンに対しても同様の制御を実行できる。
サーバー側でボールの動きからのトライの有無を判定するフローを図19(A)に示す。
図19(A)において、S1201では、サーバーは、複数台のカメラの画像からボールのある場所を検出する。S1202では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをボールの動きから認識する。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラの映像から、その後の注目選手の周囲にいる審判のルール上の動作を分析し画像認識して、審判の動作からトライであったか否かを認識してもよい。サーバーは、認識したこの審判の動作からトライであったか否かの分析結果に関する情報(動作認識結果)を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
図20には、トライ有無判定の審判動作が、図示されている。図20において、図20(A)は、トライが成立した時に、審判の動作である。図20(B)は、トライが成立しない時の審判の動作である。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラで、競技場の大型スクリーンに映し出される情報を入力して、このスクリーンの情報からトライであったか否かを認識する。サーバーは、認識したこのスクリーンの情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラの画像に基づき、スクリーンに映し出される得点情報を入力して、このスクリーンの得点情報からトライであったか否かを認識する。サーバーは、認識したこのスクリーンの得点情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。トライをすると得点は5点入り、その後のコンバージョンキックが成功すると得点は2点入る。
スクリーンの得点情報からサーバーがトライの有無を判定するフローを図21(B)に示す。
複数台のカメラ(固定カメラや移動カメラ)についているマイクから入力される音声情報を分析し、トライが行われたと思われるプレイがあった時には、上記マイクからの音声情報からトライであったか否かを認識する。サーバーは、認識したこの音声情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
サーバーによる、音声情報からトライの有無を判定する具体的なフローを図16に示す。図22において、S1601では、サーバーは、複数台のカメラのマイクからトライのような動きの後の音声情報を検出する。S1602では、複数台のカメラのマイクからトライと思われるシーンでトライがあったかを音声情報に基づき認識する。
なお、トライが行われたかどうかのサーバー側の検出フローは、図23に図示されているが、トライが行われたかどうかに関するカメラ等の端末側の制御について説明する。
図23はカメラ等の端末側のトライ判定制御フローを示している。図23においてS101からS107-2、S110は、図9のステップと同一であるので説明を省略する。
以上により、トライらしき状態になった時に、カメラ端末側に、そのトライに成功したか否かを表示できるようになる。これにより、一般観客、あるいは、カメラマンは、例えば撮影した写真の評価を正しく認識できるようになる。そして、カメラマンは、カメラの表示部を見るだけで、判定について認識できるので、報道機関等に送る写真の選定を適切に行うことができるとともに、次の撮影に向けた準備をいち早くできる。
ここでは、図24にカメラ側の反則判定制御フローが図示されている。図24はカメラ側でのトライ判定制御フローがベースになっており、カメラ側に反則の状況を表示するためのものである。
図24において、図23とはS7421~S7424のみが異なる。即ち、図23におけるS1621、S1622、S1623、S1624は、S7421、S7422、S7423、S7424に置き換わり、それぞれ、の「トライ判定」が「反則判定」になっている点のみ異なる。
以上のように本実施例によれば、サーバーは、注目選手以外(特定の対象以外)の周囲の情報を分析し、分析結果をカメラ等の画像処理装置に送信するので、カメラ等の端末側ではトライやゴールや反則などの競技のリアルタイムの状況を把握できるようになる。従って、特に、プロカメラマン等は、試合中に、写真を選択してタイムリーに報道機関に送る際に、非常に有益な情報を得ることができる。
なお、サーバー側では、端末装置から送られた写真を、図示しないネットワークを介して、例えば放送局などにも送るようにしても良い。
以上実施例で説明したように、カメラマンは写真撮影に際して様々なデータをメタデータとして追加したいが、そのために写真撮影に集中できない恐れがある。しかし本実施例によればサーバーに写真を送ることによってサーバー側で写真に対する種々のメタデータを追加したり書き換えしたりできるので、カメラマンの撮影時の負荷が大幅に減る。それによってカメラマンは撮影に集中できようになる。また、サーバー側でその写真に関連した一般的情報や試合の判定情報など従来では得られなかった情報を付加することができる。従って、写真一枚一枚の付加価値を高めることができるとともに、後で写真の分析や選別や編集などをする際にも効率をアップすることができる。
また、本発明における制御の一部または全部を上述した実施例の機能を実現するプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そしてその撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
401,402,403 ・・・・ 端末
110 ・・・・ サーバー
371 ・・・・ 追跡部
380 ・・・・ 画像表示部
Claims (16)
- 画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象を指定する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記表示手段に表示される画像における前記特定の対象の相対位置又は絶対位置を示す位置情報、及び前記サーバーにおいて作成された前記特定の対象の所定のメタデータを取得する取得手段、
前記取得手段によって取得された前記特定の対象の前記位置情報に基づく付加情報または前記所定のメタデータに基づく文字情報を前記表示手段に表示する制御手段、
を有することを特徴とする画像処理装置。 - 前記画像処理装置は撮影された画像を前記送信手段によって前記サーバーに送信することを特徴とする請求項1に記載の画像処理装置。
- 前記サーバーは前記送信手段によって送信された前記画像に対して前記所定のメタデータを付加することを特徴とする請求項2に記載の画像処理装置。
- 前記サーバーは前記所定のメタデータを付加した前記画像を所定の宛先に送信することを特徴とする請求項3に記載の画像処理装置。
- 前記所定の宛先は前記画像処理装置を含むことを特徴とする請求項4に記載の画像処理装置。
- 前記所定の宛先は前記画像処理装置以外の宛先を含むことを特徴とする請求項4に記載の画像処理装置。
- 前記画像処理装置においてメタデータを入力するための入力手段を有し、前記送信手段は前記入力手段によって入力されたメタデータを前記サーバーに送信することを特徴とする請求項1から5のいずれか一項に記載の画像処理装置。
- 前記サーバーは前記送信手段によって前記画像処理装置から送信されたメタデータに基づき前記所定のメタデータを作成するメタデータ作成手段を有することを特徴とする請求項7に記載の画像処理装置。
- 前記サーバーは前記メタデータ作成手段によって作成された前記所定のメタデータを、前記画像処理装置から送信されたメタデータと置き換えることを特徴とする請求項8に記載の画像処理装置。
- 前記入力手段によって入力されるメタデータは音声に関するメタデータを含むことを特徴とする請求項7に記載の画像処理装置。
- 前記入力手段は前記音声を文字に変換してメタデータとすることを特徴とする請求項10に記載の画像処理装置。
- 画像処理装置から送られてくる特定の対象を指定する指定情報を受信する受信手段、
前記受信手段によって受信された前記指定情報に基づき、前記特定の対象を複数のカメラの画像の中から探して前記画像処理装置の表示手段に表示される画像における前記特定の対象の相対位置又は絶対位置を示す位置情報を生成する生成手段、
前記特定の対象の所定のメタデータを作成するメタデータ作成手段、
前記生成手段によって生成された前記特定の対象の位置情報および前記所定のメタデータを前記画像処理装置に送信する送信手段、を有することを特徴とする画像処理サーバー。 - 請求項1から11のうちいずれか一項に記載の画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。
- 請求項13に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
- 請求項12に記載の画像処理サーバーの各手段としてコンピュータを機能させるためのコンピュータプログラム。
- 請求項15に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018247191A JP7282519B2 (ja) | 2018-12-28 | 2018-12-28 | 画像処理装置または画像処理サーバー |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018247191A JP7282519B2 (ja) | 2018-12-28 | 2018-12-28 | 画像処理装置または画像処理サーバー |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020107196A JP2020107196A (ja) | 2020-07-09 |
JP7282519B2 true JP7282519B2 (ja) | 2023-05-29 |
Family
ID=71450861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018247191A Active JP7282519B2 (ja) | 2018-12-28 | 2018-12-28 | 画像処理装置または画像処理サーバー |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7282519B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114727001B (zh) * | 2021-01-05 | 2024-01-19 | 北京小米移动软件有限公司 | 一种处理图像数据的方法、装置及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006115006A (ja) | 2004-10-12 | 2006-04-27 | Nippon Telegr & Teleph Corp <Ntt> | 個別映像撮影・配信装置、個別映像撮影・配信方法およびプログラム |
JP2006146475A (ja) | 2004-11-18 | 2006-06-08 | Fuji Photo Film Co Ltd | 画像データ付帯情報自動更新方法及びそのシステム並びに画像データ付帯情報自動更新プログラム |
WO2008041629A1 (fr) | 2006-09-29 | 2008-04-10 | Sony Corporation | Dispositif et procédé de reproduction, dispositif et procédé de génération d'informations, support de stockage de données, structure de données, support de stockage de programme, et programme |
JP2010183302A (ja) | 2009-02-04 | 2010-08-19 | Sony Corp | 映像処理装置、映像処理方法及びプログラム |
JP2012053776A (ja) | 2010-09-02 | 2012-03-15 | Ntt Comware Corp | 表示画像検索装置、表示装置、表示画像検索システム、および、表示画像検索方法 |
JP2012063890A (ja) | 2010-09-14 | 2012-03-29 | Toshiba Corp | アノテーション装置 |
JP2018169735A (ja) | 2017-03-29 | 2018-11-01 | 富士通株式会社 | 映像検索プログラム、映像検索方法および映像情報処理装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3122002B2 (ja) * | 1995-02-16 | 2001-01-09 | 松下電器産業株式会社 | 対話型情報提供装置 |
-
2018
- 2018-12-28 JP JP2018247191A patent/JP7282519B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006115006A (ja) | 2004-10-12 | 2006-04-27 | Nippon Telegr & Teleph Corp <Ntt> | 個別映像撮影・配信装置、個別映像撮影・配信方法およびプログラム |
JP2006146475A (ja) | 2004-11-18 | 2006-06-08 | Fuji Photo Film Co Ltd | 画像データ付帯情報自動更新方法及びそのシステム並びに画像データ付帯情報自動更新プログラム |
WO2008041629A1 (fr) | 2006-09-29 | 2008-04-10 | Sony Corporation | Dispositif et procédé de reproduction, dispositif et procédé de génération d'informations, support de stockage de données, structure de données, support de stockage de programme, et programme |
JP2010183302A (ja) | 2009-02-04 | 2010-08-19 | Sony Corp | 映像処理装置、映像処理方法及びプログラム |
JP2012053776A (ja) | 2010-09-02 | 2012-03-15 | Ntt Comware Corp | 表示画像検索装置、表示装置、表示画像検索システム、および、表示画像検索方法 |
JP2012063890A (ja) | 2010-09-14 | 2012-03-29 | Toshiba Corp | アノテーション装置 |
JP2018169735A (ja) | 2017-03-29 | 2018-11-01 | 富士通株式会社 | 映像検索プログラム、映像検索方法および映像情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2020107196A (ja) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106575027B (zh) | 摄像装置及其被摄体跟踪方法 | |
JP7132730B2 (ja) | 情報処理装置および情報処理方法 | |
KR101680714B1 (ko) | 실시간 동영상 제공 방법, 장치, 서버, 단말기기, 프로그램 및 기록매체 | |
US9648229B2 (en) | Image processing device and associated methodology for determining a main subject in an image | |
JP4640456B2 (ja) | 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム | |
US9712750B2 (en) | Display control device and associated methodology of identifying a subject in an image | |
JP2020086983A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4121974B2 (ja) | 画像撮影システムおよび画像撮影方法 | |
JP2014050022A (ja) | 画像処理装置、撮像装置、およびプログラム | |
US20210258505A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7282519B2 (ja) | 画像処理装置または画像処理サーバー | |
JP4121973B2 (ja) | シーン抽出システムおよびシーン抽出方法 | |
JP2020042407A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20210258496A1 (en) | Image processing device, image processing server, image processing method, and storage medium | |
JP5821699B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7289630B2 (ja) | 画像処理装置 | |
JP7235098B2 (ja) | 情報配信装置、情報配信方法、情報配信プログラム | |
JP7233887B2 (ja) | 画像処理装置 | |
JP7347731B2 (ja) | ゴルフダイジェスト作成システム、移動撮影ユニットおよびダイジェスト作成装置 | |
JP2010141764A (ja) | 撮像装置、撮像方法、画像信号再生装置および画像信号再生方法 | |
JP4849330B2 (ja) | 表示制御装置および方法、撮像装置、情報処理装置および方法、並びにプログラム | |
JP7233886B2 (ja) | 画像処理装置 | |
JP6412743B2 (ja) | 撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム | |
JP2014123853A (ja) | 撮影機器、画像表示装置 | |
KR101164895B1 (ko) | 주자관점의 야구경기 영상 생성 장치 및 그 방법의 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230517 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7282519 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |