JP6697150B1 - 軌道算出装置、軌道算出方法、軌道算出プログラム - Google Patents

軌道算出装置、軌道算出方法、軌道算出プログラム Download PDF

Info

Publication number
JP6697150B1
JP6697150B1 JP2019197199A JP2019197199A JP6697150B1 JP 6697150 B1 JP6697150 B1 JP 6697150B1 JP 2019197199 A JP2019197199 A JP 2019197199A JP 2019197199 A JP2019197199 A JP 2019197199A JP 6697150 B1 JP6697150 B1 JP 6697150B1
Authority
JP
Japan
Prior art keywords
camera
dimensional
moving body
target moving
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019197199A
Other languages
English (en)
Other versions
JP2021071845A (ja
Inventor
林 建一
建一 林
俊輔 南部
俊輔 南部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qoncept Inc
Original Assignee
Qoncept Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qoncept Inc filed Critical Qoncept Inc
Priority to JP2019197199A priority Critical patent/JP6697150B1/ja
Application granted granted Critical
Publication of JP6697150B1 publication Critical patent/JP6697150B1/ja
Priority to US17/082,758 priority patent/US11625836B2/en
Priority to KR1020200141593A priority patent/KR102430369B1/ko
Priority to CN202011186633.8A priority patent/CN112750153A/zh
Publication of JP2021071845A publication Critical patent/JP2021071845A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数のカメラが同期をとって撮像した画像データに基づいて動体の三次元空間の位置を算出する場合、同期をとる機能を内蔵するカメラや複数のカメラの同期をとるシステムなど高機能の機材やシステムが必要となる。また、あらかじめカメラ位置を精度高く確定しておくことが求められる。【解決手段】本発明は、相互に非同期である複数のカメラで撮像された画像データを用いて、目標とする動体の三次元空間での軌道の算出を可能にすることで、前記課題を解決する。また、それぞれのカメラの画像データに共通して存在する位置座標が決まっている複数の基準点からそれぞれのカメラ位置を算出することで、前記課題を解決する。【選択図】図1

Description

本発明は、軌道算出装置、軌道算出方法、軌道算出プログラムに関するものである。
複数のカメラで撮像された二次元の画像データを用いて動体の三次元空間の位置を算出する装置として、従来、複数のカメラが同期をとって撮像した画像(以下、ステレオ画像)データに基づいて動体の三次元空間の位置を算出する装置が知られている。例えば、特許文献1や特許文献2に記載の装置などである。
また、ステレオ画像データから動体の連続した三次元位置を求めることで動体の軌道を算出することもできる。例えば、特許文献2などである。
特開平11−66319号公報 特開2005−235104号公報
しかしながら、特許文献1や特許文献2に記載の装置にあっては、複数のカメラが同期をとって撮像していることが必要となる。そのため、実現にあたっては、同期をとる機能を内蔵するカメラや複数のカメラについて同期をとるシステムなど高機能の機材やシステムが必要となる。さらに、同期をとるためには2つのカメラをケーブル等で接続する必要があることからカメラの配置位置に制約が出る。
また、画像データに基づいて動体の三次元空間の位置を算出するためには、撮像したカメラの三次元空間での位置情報等が必要なため、あらかじめカメラ位置を精度高く確定しておくことが求められる。撮像に使用する設備に固定的に設置された位置が測量されているカメラ(例えば、スタジアム設備に設置された固定カメラなど)の画像を利用することが望ましいが、スポーツなどのイベントにあっては、カメラが固定的に設置されていない設備や野外スペースを利用する場合は多い。このような場合、カメラ位置の測量や設置工事などのコストを抑えてカメラを設置することが求められるため、カメラ位置の自由度を上げながら、カメラの撮像データのみから動体の三次元空間の位置を算出できることが課題となる。
本発明は、相互に非同期である複数のカメラで撮像された画像データを用いて、目標とする動体の三次元空間での軌道の算出を可能にすることで、前記課題を解決する。そのため、同期をとる機能を内蔵するカメラや複数のカメラの同期をとるシステムなど高機能の機材やシステムが不要となる。
また、本発明は、それぞれのカメラの画像データに共通して存在する三次元空間での位置座標が決まっている複数の基準点からそれぞれのカメラの三次元空間の位置を算出することで、前記課題を解決する。そのため、カメラ位置の測量や設置工事などのコストを抑えつつ、カメラ位置の自由度を上げることが可能となる。
本発明に係る軌道算出装置は、異なる位置に設置された相互に非同期である複数のカメラから選択された二つのカメラの画像データを用いて、撮像された目標とする動体の三次元空間での軌道を算出する軌道算出装置であって、カメラで撮像された画像フレーム内の画像データから目標とする動体を検出し、目標とする動体の画像フレームにおける二次元位置を算出する二次元位置算出部と、第1のカメラで撮像され二次元位置算出部により算出された目標とする動体の二次元位置と第1のカメラについての三次元空間での位置座標と姿勢から、第1のカメラで撮像された隣接する画像フレームにおける目標とする動体の三次元位置と第1のカメラのレンズの光学中心点とを結んで構成される三次元平面を存在面として算出する存在面算出部と、第2のカメラで撮像され二次元位置算出部により算出された目標とする動体の二次元位置と第2のカメラについての三次元空間での位置座標と姿勢から、第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と、存在面算出部が算出した存在面とが交わる点から目標とする動体の三次元空間での軌道を算出する三次元軌道算出部と、を備えることを特徴とする。
なお、本発明において、カメラの姿勢とは、目標とする動体の三次元空間での軌道算出に必要なカメラの状態を表現するパラメーターの組み合わせをいう。詳細は、後述する実施形態の中で説明する。本発明においては、目標とする動体の三次元空間での軌道算出に必要なカメラの状態を表現できるパラメーターの組み合わせであればよく、後述する実施形態におけるパラメーターの組み合わせに限定するものではない。
また、本発明に係る軌道算出装置は、画像フレーム内の画像データに存在する三次元空間での座標が決まっている複数の基準点から、画像データを撮像したカメラについての三次元空間での位置座標と姿勢を算出するカメラ情報算出部を備えることを特徴とする。
さらに、本発明に係る軌道算出装置は、カメラ情報算出部が、異なる位置に設置された複数のカメラから光軸が最も垂直に近い二つのカメラを第1のカメラ及び第2のカメラとして選択することを特徴とする。本発明に係る軌道算出装置は、カメラ情報算出部が、目標とする動体の運動方向と光軸が最も垂直に近いカメラを第2のカメラとして選択することを特徴とする。これにより、異なる位置に設置された複数のカメラからより精度の高い軌道算出を行うカメラを選定することができる。
また、本発明に係る軌道算出方法では、異なる位置に設置された相互に非同期である複数のカメラから選択された二つのカメラの画像データを用いて、撮像された目標とする動体の三次元空間での軌道を算出する軌道算出方法であって、カメラで撮像された画像フレーム内の画像データから目標とする動体を検出し、目標とする動体の画像フレームにおける二次元位置を算出する二次元位置算出ステップと、第1のカメラで撮像され二次元位置算出ステップにより算出された目標とする動体の二次元位置と第1のカメラについての三次元空間での位置座標と姿勢から、第1のカメラで撮像された隣接する画像フレームにおける目標とする動体の三次元位置と第1のカメラのレンズの光学中心点とを結んで構成される三次元平面を存在面として算出する存在面算出ステップと、第2のカメラで撮像され二次元位置算出ステップにより算出された目標とする動体の二次元位置と第2のカメラについての三次元空間での位置座標と姿勢から、第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と、存在面算出ステップで算出された存在面とが交わる点から目標とする動体の三次元空間での軌道を算出する三次元軌道算出ステップと、を備えることを特徴とする。
また、本発明に係る軌道算出方法では、画像フレーム内の画像データに存在する三次元空間での座標が決まっている複数の基準点から、画像データを撮像したカメラについての三次元空間での位置座標と姿勢を算出するカメラ情報算出ステップを備えることを特徴とする。
本発明に係る軌道算出プログラムでは、異なる位置に設置された相互に非同期である複数のカメラから選択された二つのカメラの画像データを用いて、撮像された目標とする動体の三次元空間での軌道を算出する軌道算出方法であって、カメラで撮像された画像フレーム内の画像データから目標とする動体を検出し、目標とする動体の画像フレームにおける二次元位置を算出する二次元位置算出ステップと、第1のカメラで撮像され二次元位置算出ステップにより算出された目標とする動体の二次元位置と第1のカメラについての三次元空間での位置座標と姿勢から、第1のカメラで撮像された隣接する画像フレームにおける目標とする動体の三次元位置と第1のカメラのレンズの光学中心点とを結んで構成される三次元平面を存在面として算出する存在面算出ステップと、第2のカメラで撮像され二次元位置算出ステップにより算出された目標とする動体の二次元位置と第2のカメラについての三次元空間での位置座標と姿勢から、第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と、存在面算出ステップで算出された存在面とが交わる点から目標とする動体の三次元空間での軌道を算出する三次元軌道算出ステップと、をコンピュータに実行させることを特徴とする。
また、本発明に係る軌道算出プログラムでは、画像フレーム内の画像データに存在する三次元空間での座標が決まっている複数の基準点から、画像データを撮像したカメラについての三次元空間での位置座標と姿勢を算出するカメラ情報算出ステップを備えることを特徴とする。
以上のように本発明によれば、前述の課題を解決しつつ、異なる位置に設置された相互に非同期である複数のカメラから選択された二つのカメラの画像データを用いて、撮像された目標とする動体の三次元空間での軌道を算出することができる。
軌道算出装置のブロック図である。 軌道算出装置のハードウェア構成図である。 実施例1に係る軌道算出装置の動作を示すフローチャートである。 目標とする動体の検出を模式的に示した図である。 実施形態の説明で使用する座標系を記述した図である。 図5において三次元空間の目標Pをカメラで撮像した様子を表した図である。 野球において投手の投げたボールを目標とする動体として相互に非同期である二つのカメラで撮像した様子を模式的に示した図である。 存在面算出処理について説明する図である。 第2のカメラで撮像された画像フレームにおける目標とする動体の二次元位置と存在面の対応付けについて説明する図である。 第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と、対応付けられた存在面とが交わる点の三次元座標の算出について説明する図である。 実施例2に係る軌道算出装置の動作を示すフローチャートである。
本発明の実施形態について図面を参照して説明する。なお、重複する説明は省略し、各図面において同一又は相当部分には同一の符号を付す。
本実施形態に係る軌道算出装置は、異なる位置に設置された相互に非同期である複数のカメラから選択された二つのカメラの画像データを用いて、撮像された目標とする動体の三次元空間での軌道を算出する装置である。なお、本発明において画像データは撮像された時刻を情報として伴っている。
本実施形態に係る軌道算出装置は、例えば、野球、卓球、バレーボール等の球技におけるボールのように定められたフィールド内において運動法則に従って運動する動体の軌道を算出する装置として好適に採用されるものである。これは例示であって、運動競技のみに適用を限るものではない。
図1は、軌道算出装置1のブロック図である。軌道算出装置1は、単独で装置として構成される形態のみならず、画像データを用いた動体追跡装置など他の装置に組み込まれて使用される形態であってもよい。軌道算出装置1を組み込む他の装置は、例えば、スマートフォン、情報携帯端末、デジタルカメラ、ゲーム端末、テレビ等の電化製品であってもよい。動体検出装置1は、図2に示すように、物理的には、中央演算装置(CPU)201、入力装置202、出力装置203、主記憶装置(RAM/ROM)204、補助記憶装置205を含むコンピュータとして構成される。
軌道算出装置1の各機能は、図2に示す中央演算装置(CPU)201、主記憶装置(RAM/ROM)204等に画像フレーム内の画像から目標とする動体の軌道を算出するようにコンピュータを機能させるプログラムを読み込ませることにより、中央演算装置(CPU)201の制御により入力装置202、出力装置203を動作させるとともに、主記憶装置(RAM/ROM)204、補助記憶装置205とデータの読み書きを行うことで実現される。
図1に示すように、軌道算出装置1は、二次元位置算出部101、存在面算出部102、三次元軌道算出部103、及び、カメラ情報算出部104を備えている。軌道算出装置1には、外部から入力として、異なる位置に設置された相互に非同期である複数のカメラによって撮像された複数の画像又は動画から各々のカメラごとの連続する画像フレームが撮像した時刻とともに与えられる。また、軌道算出装置1は、外部への出力として、目標とする動体の三次元空間での軌道を出力する。なお、出力情報は、目標とする動体の三次元空間での軌道を特定できる情報であればよい。例えば、目標とする動体の複数時刻における三次元空間での座標や、これら座標を近似した三次元曲線の情報が考えられる。
ここで、連続する画像フレームとは、2つの画像フレームの間に別の画像フレームが存在しない状態であって、必ずしも画像フレーム番号が連続である必要はない。例えば、2つの画像フレームが連続であっても、もともと間に存在した画像フレームがコマ落とし処理されたために画像フレーム番号が連続でない場合などがある。また、連続する画像フレームとは、時刻が前の連続する画像フレームであっても、時刻が後の連続する画像フレームであってもよい。時間の流れに沿っての動体追跡を行う場合には時刻が前の連続する画像フレーム、時間の流れを遡っての動体追跡を行う場合には時刻が後の連続する画像フレームとなる。
また、各々のカメラごとの連続する画像フレームであるから、連続する画像フレームは、異なる位置に設置された相互に非同期である複数のカメラごとに独立して存在する。
図1のブロック図に従って、軌道算出装置1の各ブロックの機能を説明する。なお、各ブロックの詳細な動作については、実施例の中で後述する。
二次元位置算出部101は、入力された画像フレーム内の画像データから目標とする動体を検出し、目標とする動体の画像フレームにおける二次元位置を算出する。目標とする動体の画像フレームにおける二次元位置は、あらかじめ設定した二次元座標で定められる。
存在面算出部102は、第1のカメラで撮像され二次元位置算出部101により算出された目標とする動体の二次元位置と第1のカメラについての三次元空間での位置座標と姿勢から、第1のカメラで撮像された隣接する画像フレームにおける目標とする動体の三次元位置と第1のカメラのレンズの光学中心点とを結んで構成される三次元平面を存在面として算出する。
三次元軌道算出部103は、第2のカメラで撮像され二次元位置算出部101により算出された目標とする動体の二次元位置と第2のカメラについての三次元空間での位置座標と姿勢から、第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と、存在面算出部102が算出した存在面とが交わる点から目標とする動体の三次元空間での軌道を算出する。
カメラ情報算出部104は、画像フレーム内の画像データに存在する三次元空間での座標が決まっている複数の基準点から、画像データを撮像したカメラについての三次元空間での位置座標と姿勢を算出する。カメラ情報算出部104は、カメラの三次元空間での位置座標と姿勢が事前に与えられていない場合に動作する。この場合におけるカメラ情報算出部104の動作は、実施例2として後述する。
また、カメラ情報算出部104は、算出した情報をもとに、異なる位置に設置された複数のカメラから、より精度の高い軌道算出を行うカメラを選択する。異なる位置に設置された複数のカメラから光軸が最も垂直に近い二つのカメラを第1のカメラ及び第2のカメラとして選択する。また、目標とする動体の運動方向と光軸が最も垂直に近いカメラを第2のカメラとして選択する。
次に、本実施形態に係る軌道算出装置1の動作について説明する。説明理解の容易性を考慮して、野球において投手の投げたボールを目標とする動体とした軌道算出装置1の動作を例にとって説明する。なお、これは例示であって、野球ないし運動競技のみに本発明の適用を限るものではない。
実施例1では、異なる位置に設置された相互に非同期である複数のカメラから第1のカメラ及び第2のカメラが選択され、第1のカメラ及び第2のカメラの三次元空間での三次元座標系における位置座標と姿勢が事前に与えられている場合の軌道算出装置1の動作について説明する。
図3は、実施例1に係る軌道算出装置1の動作を示すフローチャートである。図3のフローチャートに従って軌道算出装置1の動作を説明する。
軌道算出装置1は、第1のカメラ及び第2のカメラの画像フレーム内の画像データ、及び、第1のカメラ及び第2のカメラの三次元空間での位置座標と姿勢についての情報が外部から入力されることによって動作を開始する。動作の開始は、入力後に自動的であっても、明示的な命令によるものであってもよい。
軌道算出装置1は、動作を開始すると、二次元位置算出部101が二次元位置算出処理(S301)を実行する。二次元位置算出処理(S301)では、入力された第1のカメラ及び第2のカメラの画像フレーム内の画像データから目標とする動体を検出し、目標とする動体の画像フレームにおける二次元位置が算出される。なお、以下は、本実施形態に係る軌道算出装置1での動作の例であって、画像フレーム内の画像データから目標とする動体を検出することができれば他の動作でもよく、以下の動作に限定するものではない。
二次元位置算出処理(S301)では、目標とする動体の画像(以下、テンプレート画像)と、入力された画像フレーム内の画像データに含まれる目標とする動体の候補画像とを対比して、位置による重みづけを加えた一致度を算出し、最も一致していると判定される動体が目標として検出される。
図4は、二次元位置算出処理(S301)での、テンプレート画像と入力された画像フレーム内の画像データに含まれる目標とする動体の候補画像とを対比して行う目標とする動体の検出を模式的に示した図である。二次元位置算出部101は、野球のボールのテンプレート画像44と形状や色彩などを対比して画像フレーム41内の画像データに含まれる目標とする動体の候補画像(ボールの画像42や観客の頭部の画像43など)を抽出する。
二次元位置算出処理(S301)では、テンプレート画像44と抽出された各々の目標とする動体の候補画像との一致度を算出する。一致度とは、テンプレート画像44と抽出された各々の目標とする動体の候補画像について両者の画素の誤差や相関係数などから定量的に求められる一致の程度である。一致度が求められれば算出の方法は問わない。例えば、各画素値の2乗誤差を合計した値を比較するSSD(Sum of Squared Difference)法、各画素値の誤差の絶対値の和の値を比較するSAD(Sum of Absolute Difference)法、各画素値の相関係数を比較するNCC(Normalized Cross−Correlation)法などがある。
二次元位置算出処理(S301)では、抽出された目標とする動体の候補について算出された一致度に、位置による重みづけを加える。本実施形態において目標とする動体(投手の投げたボール)の画像フレームでの位置は、投手と捕手の間である確率が高く、時刻とともに投手から捕手に向かって移動している確率が高いことから、二次元位置算出部101は、目標とする動体の存在確率に基づいて算出された位置による重みづけを加えた一致度を算出する。図4の例では、ボールの画像42は観客の頭部の画像43よりも目標とする動体として位置による重みづけを加えた一致度が大きくなる。二次元位置算出処理(S301)では、最も一致していると判定される動体を目標として検出する。
二次元位置算出処理(S301)では、テンプレート画像44と最も一致していると判定して検出した目標とする動体(野球のボールの画像42)の画像フレームにおける二次元位置を算出する。二次元位置算出処理(S301)では、同じカメラについてすべての画像フレームで共通の二次元座標系を設定する。図4では、二次元位置算出部101がuv直交座標系を設定した例を示している。図4では、二次元位置算出処理(S301)において、テンプレート画像44と最も一致していると判定して検出した目標とする動体(ボールの画像42)の時刻tでの画像フレームにおける二次元位置を(ut,vt)と算出している。
二次元位置算出処理(S301)では、入力された第1のカメラ及び第2のカメラの画像フレーム内の画像データについて同様の処理をおこなう。なお、本実施形態では、野球において投手の投げたボールを目標とするため、図4で、目標とする動体(ボールの画像42)の画像フレームにおけるu軸方向の位置が投手(ピッチャープレートのU座標)と捕手(本塁のU座標)の間にあるデータのみをその後の処理に利用する。二次元位置算出処理(S301)では、目標とする動体(ボールの画像42)の画像フレームにおけるu軸方向の位置からボールが捕手(本塁のU座標)に届いたと判定すると、投球一回分に相当する検出した目標とする動体(野球のボールの画像42)の画像フレームにおける二次元位置を撮像された時刻の情報とともに存在面算出処理(S302)に引き渡す。
存在面算出部102は、二次元位置算出部101が二次元位置算出処理(S301)を実行して第1のカメラの画像フレーム内の画像データから算出した目標とする動体の画像フレームにおける二次元位置に基づいて、存在面算出処理(S302)を実行する。存在面算出処理(S302)では、第1のカメラで隣接する画像フレームに撮像された目標とする動体の三次元位置と第1のカメラのレンズの光学中心点とを結んで構成される平面が存在面として算出される。
ここで、本実施形態の説明で使用する座標系について説明する。図5は、本実施形態の説明で使用する座標系を記述した図である。
本実施形態では、野球において投手の投げたボールの軌道を算出するために適した次の三次元直交座標系ΣXYZを三次元空間にとる。本塁を原点501として、本塁から投手の投球位置の中央(ピッチャープレートの中央)に向かってY軸の正の向きとする。高さ方向をZ軸として上方を正の向きとする。Y軸とZ軸のそれぞれと直交して一塁側にむかってX軸の正の向きとする。
また、本実施形態では、異なる位置に設置された相互に非同期である複数のカメラの画像データに共通して存在する三次元座標系での座標が決まっている複数の基準点として次の点について三次元座標を設定する。
本塁:(X,Y,Z)=(0,0,0)
一塁:(X,Y,Z)=(19.4,19.4,0)
二塁:(X,Y,Z)=(0,38.8,0)
三塁:(X,Y,Z)=(−19.4,19.4,0)
二塁に代えてピッチャープレートの中央を基準点とすることでもよい。
ピッチャープレートの中央:(X,Y,Z)=(0,18.44,0.254)
以下、説明においては、本塁、一塁、二塁、三塁を基準点とした例で説明する。
なお、これは例示であって、三次元座標系と基準点の設定をこれに限るものではない。三次元座標系と基準点は、軌道を算出する目標とする動体の運動特性にあわせて適したもので設定することが望ましい。
座標系Σxyzは、カメラのレンズ中心に原点502を持つ三次元直交座標系である。座標系Σuvは、画像フレーム(撮像素子面)504に固定された原点503を持つ二次元直交座標系である。座標系Σuvは、座標系Σxyzを平行移動した座標系で、xy座標軸とuv座標軸は平行である。また、座標系Σxyzのz軸と画像フレーム504の交点が座標系Σuvの原点503となる。座標系Σxyzのz軸は画像フレーム504と直交する。
次に、目標とする動体の三次元空間での軌道算出に必要なカメラの状態を表現するパラメーターの組み合わせであるカメラの姿勢について説明する。本実施形態では、カメラの姿勢として、いわゆるレンズの外部パラメーターであるローテーションをとる。図5において、ローテーションとは、座標系Σxyzから座標系ΣXYZに座標変換する際の三軸の回転角度パラメーターである。ローテーションの値が決定することで、レンズの光軸が定まる。図5において、座標系Σxyzのz軸が光軸である。
また、実施例1においては、いわゆるレンズの内部パラメーター(焦点距離、レンズのひずみ、レンズ中心のずれ)は既知とする。図5において、カメラのレンズ中心(座標系Σxyzの原点502)と座標系Σuvの原点503の距離が焦点距離となる。また、レンズのひずみ及びレンズ中心のずれは無いものとする。
さらに、図6を用いて、画像フレームにおける目標とする動体の三次元位置とカメラのレンズの光学中心点とを結んで構成される三次元直線の算出について説明する。
図6は、図5において三次元空間の目標Pをカメラで撮像した様子を表した図である。三次元直交座標系ΣXYZにおける目標Pの三次元位置を、P(X,Y,Z)とする。目標Pは、レンズ中心を三次元直交座標系Σxyzの原点502にもつカメラで画像フレーム504に像P’として撮像される。画像フレームでの二次元直交座標系Σuvにおける像P’の二次元位置をP’(u,v)とする。
実施例1では、三次元直交座標系ΣXYZでのカメラの位置座標と姿勢が事前に与えられていることから、レンズ中心(三次元直交座標系Σxyzの原点502)の三次元直交座標系ΣXYZにおける位置をP0(X0,Y0,Z0)とする。レンズ中心を原点502とする三次元直交座標系Σxyzのz軸が光軸にあたる。光軸は、画像フレーム504と直交し、その交点は画像フレームでの二次元直交座標系Σuvの原点503となる。原点503の二次元位置をQ(u0,v0)とする。三次元直交座標系Σxyzの原点502と二次元直交座標系Σuvの原点503の距離が焦点距離であって、長さをdとする。
図6において、レンズ中心を原点502とする三次元直交座標系Σxyzからみた像P’の位置は、P’(u−u0,v−v0,d)となる。ここで、比例定数をk、レンズ中心を原点502とする三次元直交座標系Σxyzから三次元空間における三次元直交座標系ΣXYZへの座標変換行列をRとする。実施例1では三次元空間における三次元直交座標系ΣXYZにおけるカメラの位置座標とローテーション(座標系Σxyzから座標系ΣXYZに座標変換する際の三軸の回転角度パラメーター)が事前に与えられていることから、座標変換行列Rを決定することができる。
レンズ中心を原点502とする三次元直交座標系Σxyzにおいて、レンズ中心(原点502)と像P’と目標Pは同じ直線上にあることから次の式(数式1)が成り立つ。

P(X,Y,Z)=P0(X0,Y0,Z0)+kRP’(u−u0,v−v0,d)

なお、本実施形態では、P’のX要素及びY要素であるu−u0及びv−v0は二次元位置算出部101が算出する二次元位置の座標から求めることができ、dは焦点距離であって既知である。
前式は、三次元直交座標系Σxyzにおけるレンズ中心と像P’と目標Pを結ぶ三次元直交座標系ΣXYZにおける直線の式である。三次元直交座標系Σxyzの原点502にレンズ中心を備えたカメラで目標Pを撮像したときに、画像フレーム504の像P’の二次元直交座標系Σuvでの二次元座標を決定できれば、前式が算出でき、三次元直交座標系ΣXYZにおいて前式で示される直線上に目標Pが存在する。
存在面算出部102の動作説明に戻る。存在面算出部102は、二次元位置算出処理(S301)を実行した結果である第1のカメラ及び第2のカメラの画像フレーム内の画像データから算出された目標とする動体の画像フレームにおける二次元位置を座標系Σuvの要素として二次元位置算出部101から引き渡される。
図7は、野球において投手の投げたボールを目標とする動体として相互に非同期である二つのカメラで撮像した様子を模式的に示した図である。711は第1のカメラ、712は第1のカメラの画像フレーム、721は第2のカメラ、722は第2のカメラの画像フレームである。また、713は第2のカメラの画像フレーム722上の第1のカメラの像、723は第1のカメラの画像フレーム712上の第2のカメラの像である。Bt1、Bt2及びBt3は、それぞれ時刻t1、t2及びt3における投手の投げたボールの三次元位置である。Bt1’、Bt2’及びBt3’は、二次元位置算出部101から引き渡された画像フレーム上のBt1、Bt2及びBt3の像の二次元位置である。
第1のカメラ711と第2のカメラ721は非同期であるため、時刻t1及び時刻t3においては第1のカメラ711が、時刻t2においては第2のカメラ721が撮像している。なお、Bt1’及びBt3’は、時刻t1及び時刻t3の別個の画像フレーム上にあるが、説明理解の容易性を考慮して、同一画像フレーム712上に二次元位置を示している。また、ここでは第1のカメラ711で時刻t1及び時刻t3における画像フレームは隣接しているものとする。
図8は、存在面算出部102が実行する存在面算出処理(S302)について説明する図である。存在面算出処理(S302)では、第1のカメラで隣接する画像フレームに撮像された目標とする動体の三次元位置と第1のカメラのレンズの光学中心点とを結んで構成される平面が存在面として算出される。
存在面算出処理(S302)では、図6を用いた説明の通り、第1のカメラ711の三次元空間での位置座標と姿勢及び第1のカメラ711の画像フレーム712上のBt1’(Bt1の像の画像フレーム712上の二次元位置)から三次元空間における直線811が算出される。存在面算出処理(S302)では、同様にして、Bt3’ (Bt3の像の画像フレーム712上の二次元位置)から三次元空間における直線813が算出される。直線811と直線813は第1のカメラのレンズ中心で交わるため直線811と直線813で挟まれた平面が存在面として算出される。
図6を用いた説明の通り、時刻t1における投手の投げたボールの三次元位置Bt1は、三次元空間における直線811上にある。また、時刻t3における投手の投げたボールの三次元位置Bt3は、三次元空間における直線813上にある。投手の投げたボールは投手から捕手に向かって放物運動を取ることから、t1<t2<t3であって、時刻t2における投手の投げたボールの三次元位置Bt2は、直線811と直線813で挟まれた存在面にある確率が大きい。
存在面算出処理(S302)では、二次元位置算出処理(S301)から引き渡された第1のカメラの画像フレーム内の画像データから算出された目標とする動体の隣接する画像フレームにおける二次元位置の組み合わせから隣接する複数の存在面が算出される。第1のカメラのレンズ中心711を要として扇状に複数の存在面が算出される。
存在面算出部102による存在面算出処理(S302)が終了すると、三次元軌道算出部103が三次元軌道算出処理(S303)を開始する。三次元軌道算出処理(S303)は、第2のカメラで撮像された二次元位置算出処理(S301)により算出された目標とする動体の二次元位置と第2のカメラについての三次元空間での位置座標と姿勢から、第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と、存在面算出処理(S302)により算出された存在面とが交わる点から目標とする動体の三次元空間での軌道を算出する処理である。
三次元軌道算出処理(S303)では、まず、第2のカメラで撮像された画像フレームにおける目標とする動体の二次元位置と存在面の対応付けをおこなう。図9は、第2のカメラで撮像された画像フレームにおける目標とする動体の二次元位置と存在面の対応付けについて説明する図である。
図9で、第2のカメラ721で撮像された画像フレーム722の直線911及び直線913は、それぞれ存在面算出処理(S302)で算出された三次元空間における直線811及び直線813の写像である。図9では、第2のカメラ721で撮像された画像フレーム722でBt2’(第2のカメラで撮像された画像フレーム上のBt2の像の二次元位置)が直線911及び直線913に挟まれた位置関係にある。三次元軌道算出処理(S303)は、このような関係にある第2のカメラ721で撮像された画像フレーム722における目標とする動体の二次元位置と存在面の組み合わせを抽出する。
なお、三次元空間における直線911及び直線913から画像フレーム722の直線811及び直線813への写像変換は、実施例1においては、カメラの三次元空間での位置座標と姿勢が事前に与えられているため、図6における三次元空間における三次元直交座標系ΣXYZから、レンズ中心を原点とする三次元直交座標系Σxyzを介して、画像フレームにおける二次元直交座標系Σuvへの変換をおこなうことで実現できる。
三次元軌道算出処理(S303)では、次に、第2のカメラで撮像された画像フレームにおける目標とする動体の二次元位置と第2のカメラについての三次元空間での位置座標と姿勢から、第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と、対応付けられた存在面とが交わる点の三次元座標が算出される。
図10は、第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と、対応付けられた存在面とが交わる点の三次元座標の算出について説明する図である。
図10で、直線1022は、第2のカメラで撮像された画像フレーム722における目標とする動体の三次元位置と第2のカメラのレンズの光学中心点721とを結んだ直線である。図8を用いて説明した直線811及び直線813の算出と同様に直線1022を算出する。直線811と直線813で挟まれた存在面と直線1022はいずれも同じ三次元座標系(図6における三次元空間における三次元直交座標系ΣXYZ)で算出され、三次元軌道算出処理(S303)では、その交わる点の三次元座標が算出される。
目標とする投手の投げたボールの三次元位置Bt2は直線1022に存在する。一方、前述の通り、目標とする投手の投げたボールの三次元位置Bt2は、直線811と直線813で挟まれた存在面にある確率が大きい。このことから直線811と直線813で挟まれた存在面と直線1022の交わる点の三次元座標は、目標とする投手の投げたボールの三次元位置Bt2と極めて近接する。
三次元軌道算出処理(S303)では、二次元位置算出処理(S301)で算出された目標とする動体の第2のカメラの画像フレームにおける二次元位置のすべてについて、第2のカメラで撮像された画像フレームにおける目標とする動体の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線と対応する存在面とが交わる点の三次元座標を算出する。
三次元軌道算出部103は、算出した目標とする動体の複数時刻における三次元空間での座標を目標とする動体の軌道として出力し、三次元軌道算出処理(S303)を終了する。もしくは、目標とする動体の複数時刻における三次元空間での座標を近似した三次元曲線の情報を目標とする動体の軌道として出力して、三次元軌道算出処理(S303)を終了してもよい。本実施形態の野球において投手の投げたボールを目標とする動体とする場合、多項式による曲線近似で精度高い結果が求められることが分かっている。なお、出力情報は、目標とする動体の三次元空間での軌道が特定できる情報であればよく、本実施形態に限るものではない。
以上が、実施例1についての説明である。
実施例2では、カメラの三次元空間での三次元座標系における位置座標と姿勢が事前に与えられていない場合の軌道算出装置1の動作について説明する。また、異なる位置に設置された相互に非同期である複数のカメラから第1のカメラ及び第2のカメラを選択する軌道算出装置1の動作について説明する。
図11は、実施例2に係る軌道算出装置1の動作を示すフローチャートである。図11のフローチャートに従って起動算出装置1の動作を説明する。
実施例2では、カメラ情報算出部104が動作する点が実施例1と異なる。実施例2では、カメラの画像フレーム内の画像データが軌道算出装置1に外部から入力された後、軌道算出装置1が動作を開始すると、まず、カメラ情報算出部104がカメラ情報算出処理(S1101)を実行する。カメラ情報算出処理(S1101)は、カメラ位置算出処理(S1102)とカメラ選択処理(S1103)からなる。
なお、カメラ情報算出部104がカメラ情報算出処理(S1101)を実行した後の軌道算出装置1の動作は実施例1と同様であるため、実施例2ではカメラ情報算出処理(S1101)について説明する。
まず、カメラ情報算出処理(S1101)のうち、カメラ位置算出処理(S1102)について説明する。実施例2では、カメラの三次元空間での三次元座標系における位置座標と姿勢が事前に与えられていないことから、カメラ位置算出処理(S1102)では、画像フレーム内の画像データに存在する三次元空間での座標が決まっている複数の基準点から、カメラの三次元空間での三次元座標系における位置座標と姿勢が算出される。なお、カメラのレンズの焦点距離dは既知であるとする。
前述の通り、本実施形態では、異なる位置に設置された相互に非同期である複数のカメラの画像データに共通して存在する三次元座標系での座標が決まっている複数の基準点として次の点について三次元座標を設定する。
本塁:(X,Y,Z)=(0,0,0)
一塁:(X,Y,Z)=(19.4,19.4,0)
二塁:(X,Y,Z)=(0,38.8,0)
三塁:(X,Y,Z)=(−19.4,19.4,0)
前述、図6を用いて、レンズ中心を原点502とする三次元直交座標系Σxyzにおいて、レンズ中心(原点502)と像P’と目標Pは同じ直線上にあることから次の式(数式1)を求めた。

P(X,Y,Z)=P0(X0,Y0,Z0)+kRP’(u−u0,v−v0,d)

カメラ位置算出処理(S1102)では、上記の数式1において、dは既知であり、P(X,Y,Z)をそれぞれの基準点として、三次元空間での三次元直交座標系ΣXYZにおけるカメラの位置座標と姿勢が算出される。具体的には、上記の数式1から三次元直交座標系ΣXYZにおけるカメラのレンズ中心P0(X0,Y0,Z0)及び座標変換行列Rを構成するローテーション(座標系Σxyzから座標系ΣXYZに座標変換する際の三軸の回転角度パラメーター)が算出される。
なお、三次元直交座標系ΣXYZにおけるカメラのレンズ中心P0(X0,Y0,Z0)及び座標変換行列Rを構成するローテーション(座標系Σxyzから座標系ΣXYZに座標変換する際の三軸の回転角度パラメーター)の算出にあたっては、未知の要素の数が6であり、画像フレームの目標とする動体の像は二次元直交座標系Σuvの要素で与えられることから、基準点の数は3で足りる。しかしながら、基準点を増やすことによる算出精度の向上を考慮して、本実施形態では、基準点の数を4としている。基準点の数は計測したい空間や利用可能な基準点の配置に合わせて適した数とすることが望ましく、基準点の数を4に限るものではない。
本実施形態においては、カメラ位置算出処理(S1102)では、非線形最小二乗法により、カメラの三次元空間での三次元座標系における位置座標と姿勢の算出処理を行う。なお、これは例示であって、処理の方法はこれに限るものではなく、カメラの三次元空間での三次元座標系における位置座標と姿勢が精度高く算出できれば他の処理の方法によってもよい。例えば、高い精度が期待できるLM法(Levenberg−Marquardt Method)による算出、基準点の数を増やしてDLT法(Direct Linear Transformation method)による算出なども考えられる。
次に、カメラ情報算出処理(S1101)のうち、カメラ選択処理(S1103)について説明する。カメラ選択処理(S1103)では、異なる位置に設置された相互に非同期である複数のカメラから第1のカメラ及び第2のカメラが選択されていない場合に、カメラの光軸と目標とする動体の運動方向から第1のカメラ及び第2のカメラが選択される。本実施形態では、野球において投手の投げたボールを目標とする動体とするから、目標とする動体の運動方向は投手から捕手に向けての方向と考えてよく、図5に示す三次元空間での三次元直交座標系ΣXYZにおけるY軸と一致する。
カメラの光軸は、図5に示すレンズ中心を原点502とする三次元直交座標系Σxyzにおけるz軸と一致する。カメラ位置算出処理(S1102)により算出されたカメラの三次元空間での三次元座標系における位置座標と姿勢からカメラの光軸を求めることができる。
カメラ選択処理(S1103)では、異なる位置に設置された複数のカメラから光軸が最も垂直に近い二つのカメラが第1のカメラ及び第2のカメラとして選択される。図10に示す通り、第1のカメラ及び第2のカメラの光軸が垂直に近いほど、第2のカメラで撮像された画像フレーム722における目標とする動体の三次元位置と第2のカメラのレンズの光学中心点721とを結んだ直線1022と、直線811と直線813で挟まれた存在面が直交に近い傾向があると考えられ、直線1022と、直線811と直線813で挟まれた存在面の交点を精度高く求めることができると考えられるためである。
カメラ選択処理(S1103)では、目標とする動体の運動方向と光軸が最も垂直に近いカメラが第2のカメラとして選択される。同じく、直線1022と、直線811と直線813で挟まれた存在面の交点を精度高く求めることができると考えられるためである。
以上が、実施例2についての説明である。
次に、コンピュータを起動算出装置1として機能させるための軌道算出プログラムについて説明する。コンピュータの構成は、図2に示す通りである。
軌道算出プログラムは、メインモジュール、入出力モジュール及び演算処理モジュールを備える。メインモジュールは、画像処理を統括的に制御する部分である。入出力モジュールは、画像フレーム内の画像データなどの入力情報の取得や、目標として検出した動体を特定するための目的とする画像フレームにおける座標を一連の処理後に出力するようにコンピュータを動作させる。演算処理モジュールは、二次元位置算出モジュール、存在面算出モジュール、三次元軌道算出モジュール及びカメラ情報算出モジュールを備える。メインモジュール、入力モジュール及び演算処理モジュールを実行させることにより実現される機能は、軌道算出装置1の二次元位置算出部101、存在面算出部102、三次元軌道算出部103及び及びカメラ情報算出部104の機能とそれぞれ同様である。
動体検出プログラムは、例えば、ROM等の記憶媒体又は半導体メモリによって提供される。また、動体検出プログラムは、ネットワークを介して提供されてもよい。
以上、本実施形態に係る軌道算出装置、軌道算出方法及び動体検出プログラムは、相互に非同期である複数のカメラで撮像された画像データを用いて目標とする動体の三次元空間での軌道の算出を可能にすることで、
同期をとる機能を内蔵するカメラや複数のカメラの同期をとるシステムなど高機能の機材やシステムが必要になるとの課題を解決する。また、それぞれのカメラの画像データに共通して存在する三次元空間での位置座標が決まっている複数の基準点からそれぞれのカメラの三次元空間の位置を算出することで、カメラ位置の測量や設置工事などのコストを抑えつつ、カメラ位置の自由度を上げることが望まれるとの課題を解決する。
1 起動算出装置
101 二次元位置算出部
102 存在面算出部
103 三次元軌道算出部
104 カメラ情報算出部
2 動体追跡装置を備える装置
201 中央演算装置(CPU)
202 入力装置
203 出力装置
204 主記憶装置(RAM/ROM)
205 補助記憶装置
41 画像フレーム
42 ボールの画像
43 観客の頭部の画像
44 テンプレート画像
501 三次元直交座標系ΣXYZの原点
502 三次元直交座標系Σxyzの原点(カメラのレンズ中心)
503 二次元直交座標系Σuvの原点
504 画像フレーム
711 第1のカメラのレンズ中心
712 第1のカメラの画像フレーム
713 第2のカメラの画像フレーム上の第1のカメラの像
721 第2のカメラのレンズ中心
722 第2のカメラの画像フレーム
723 第1のカメラの画像フレーム上の第2のカメラの像
811 第1のカメラで画像フレームに撮像された目標とする動体(Bt1)の三次元位置と第1のカメラのレンズの光学中心点とを結んだ直線
813 第1のカメラで画像フレームに撮像された目標とする動体(Bt2)の三次元位置と第1のカメラのレンズの光学中心点とを結んだ直線
911 三次元空間における直線811の第2のカメラの画像フレームへの写像
913 三次元空間における直線813の第2のカメラの画像フレームへの写像
1022 第2のカメラで画像フレームに撮像された目標とする動体(Bt2)の三次元位置と第2のカメラのレンズの光学中心点とを結んだ直線

Claims (8)

  1. 異なる位置に設置された相互に非同期である複数のカメラから選択された二つのカメラの画像データを用いて、撮像された目標とする動体の三次元空間での軌道を算出する軌道算出装置であって、
    カメラで撮像された画像フレーム内の画像データから目標とする動体を検出し、前記目標とする動体の前記画像フレームにおける二次元位置を算出する二次元位置算出部と、
    第1のカメラで撮像され前記二次元位置算出部により算出された前記目標とする動体の二次元位置と前記第1のカメラについての前記三次元空間での位置座標と姿勢から、前記第1のカメラで撮像された隣接する画像フレームにおける前記目標とする動体の三次元位置と前記第1のカメラのレンズの光学中心点とを結んで構成される三次元平面を存在面として算出する存在面算出部と、
    第2のカメラで撮像され前記二次元位置算出部により算出された前記目標とする動体の二次元位置と前記第2のカメラについての前記三次元空間での位置座標と姿勢から、前記第2のカメラで撮像された画像フレームにおける前記目標とする動体の三次元位置と前記第2のカメラのレンズの光学中心点とを結んだ直線と、前記存在面算出部が算出した存在面とが交わる点から前記目標とする動体の前記三次元空間での軌道を算出する三次元軌道算出部と、
    を備えることを特徴とする軌道算出装置。
  2. 画像フレーム内の画像データに存在する前記三次元空間での座標が決まっている複数の基準点から、前記画像データを撮像したカメラについての前記三次元空間での位置座標と姿勢を算出するカメラ情報算出部と、
    を備えることを特徴とする請求項1に記載の軌道算出装置。
  3. 前記カメラ情報算出部が、異なる位置に設置された複数のカメラから光軸が最も垂直に近い二つのカメラを前記第1のカメラ及び前記第2のカメラとして選択する
    ことを特徴とする請求項2に記載の軌道算出装置。
  4. 前記カメラ情報算出部が、前記目標とする動体の運動方向と光軸が最も垂直に近いカメラを前記第2のカメラとして選択する
    ことを特徴とする請求項2または請求項3に記載の軌道算出装置。
  5. 異なる位置に設置された相互に非同期である複数のカメラから選択された二つのカメラの画像データを用いて、撮像された目標とする動体の三次元空間での軌道を算出する軌道算出方法であって、
    カメラで撮像された画像フレーム内の画像データから目標とする動体を検出し、前記目標とする動体の前記画像フレームにおける二次元位置を算出する二次元位置算出ステップと、
    第1のカメラで撮像され前記二次元位置算出ステップにより算出された前記目標とする動体の二次元位置と前記第1のカメラについての前記三次元空間での位置座標と姿勢から、前記第1のカメラで撮像された隣接する画像フレームにおける前記目標とする動体の三次元位置と前記第1のカメラのレンズの光学中心点とを結んで構成される三次元平面を存在面として算出する存在面算出ステップと、
    第2のカメラで撮像され前記二次元位置算出ステップにより算出された前記目標とする動体の二次元位置と前記第2のカメラについての前記三次元空間での位置座標と姿勢から、前記第2のカメラで撮像された画像フレームにおける前記目標とする動体の三次元位置と前記第2のカメラのレンズの光学中心点とを結んだ直線と、前記存在面算出ステップで算出された存在面とが交わる点から前記目標とする動体の前記三次元空間での軌道を算出する三次元軌道算出ステップと、
    を備えることを特徴とする軌道算出方法。
  6. 画像フレーム内の画像データに存在する前記三次元空間での座標が決まっている複数の基準点から、前記画像データを撮像したカメラについての前記三次元空間での位置座標と姿勢を算出するカメラ情報算出ステップと、
    を備えることを特徴とする請求項5に記載の軌道算出方法。
  7. 異なる位置に設置された相互に非同期である複数のカメラから選択された二つのカメラの画像データを用いて、撮像された目標とする動体の三次元空間での軌道を算出するようにコンピュータを機能させる軌道算出プログラムであって、
    カメラで撮像された画像フレーム内の画像データから目標とする動体を検出し、前記目標とする動体の前記画像フレームにおける二次元位置を算出する二次元位置算出ステップと、
    第1のカメラで撮像され前記二次元位置算出ステップにより算出された前記目標とする動体の二次元位置と前記第1のカメラについての前記三次元空間での位置座標と姿勢から、前記第1のカメラで撮像された隣接する画像フレームにおける前記目標とする動体の三次元位置と前記第1のカメラのレンズの光学中心点とを結んで構成される三次元平面を存在面として算出する存在面算出ステップと、
    第2のカメラで撮像され前記二次元位置算出ステップにより算出された前記目標とする動体の二次元位置と前記第2のカメラについての前記三次元空間での位置座標と姿勢から、前記第2のカメラで撮像された画像フレームにおける前記目標とする動体の三次元位置と前記第2のカメラのレンズの光学中心点とを結んだ直線と、前記存在面算出ステップで算出された存在面とが交わる点から前記目標とする動体の前記三次元空間での軌道を算出する三次元軌道算出ステップと、
    をコンピュータに実行させることを特徴とする軌道算出プログラム。
  8. 画像フレーム内の画像データに存在する前記三次元空間での座標が決まっている複数の基準点から、前記画像データを撮像したカメラについての前記三次元空間での位置座標と姿勢を算出するカメラ情報算出ステップと、
    を備えることを特徴とする請求項7に記載の軌道算出プログラム。
JP2019197199A 2019-10-30 2019-10-30 軌道算出装置、軌道算出方法、軌道算出プログラム Active JP6697150B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019197199A JP6697150B1 (ja) 2019-10-30 2019-10-30 軌道算出装置、軌道算出方法、軌道算出プログラム
US17/082,758 US11625836B2 (en) 2019-10-30 2020-10-28 Trajectory calculation device, trajectory calculating method, and trajectory calculating program
KR1020200141593A KR102430369B1 (ko) 2019-10-30 2020-10-28 궤도 산출 장치, 궤도 산출 방법, 궤도 산출 프로그램
CN202011186633.8A CN112750153A (zh) 2019-10-30 2020-10-29 轨道算出装置、轨道算出方法、计算机可读取记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019197199A JP6697150B1 (ja) 2019-10-30 2019-10-30 軌道算出装置、軌道算出方法、軌道算出プログラム

Publications (2)

Publication Number Publication Date
JP6697150B1 true JP6697150B1 (ja) 2020-05-20
JP2021071845A JP2021071845A (ja) 2021-05-06

Family

ID=70682408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019197199A Active JP6697150B1 (ja) 2019-10-30 2019-10-30 軌道算出装置、軌道算出方法、軌道算出プログラム

Country Status (4)

Country Link
US (1) US11625836B2 (ja)
JP (1) JP6697150B1 (ja)
KR (1) KR102430369B1 (ja)
CN (1) CN112750153A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220068915A (ko) * 2020-11-19 2022-05-26 컨셉 주식회사 궤도 산출 장치, 궤도 산출 방법, 궤도 산출 프로그램

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166319A (ja) 1997-08-21 1999-03-09 Omron Corp 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置
JP2001273500A (ja) * 2000-03-23 2001-10-05 Hitachi Ltd 運動物体計測装置および球技分析システムおよびデータサービスシステム
JP2002008040A (ja) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd 三次元情報検出装置及び三次元情報検出方法
US6618123B2 (en) * 2000-10-20 2003-09-09 Matsushita Electric Industrial Co., Ltd. Range-finder, three-dimensional measuring method and light source apparatus
JP3934113B2 (ja) 2004-02-23 2007-06-20 アジア航測株式会社 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム
JP4674725B2 (ja) * 2005-09-22 2011-04-20 国立大学法人 奈良先端科学技術大学院大学 移動物体計測装置、移動物体計測システム、および移動物体計測方法
US8335345B2 (en) * 2007-03-05 2012-12-18 Sportvision, Inc. Tracking an object with multiple asynchronous cameras
JP4535096B2 (ja) * 2007-07-27 2010-09-01 ソニー株式会社 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
US9736368B2 (en) * 2013-03-15 2017-08-15 Spatial Cam Llc Camera in a headframe for object tracking
JP6485616B2 (ja) * 2014-06-04 2019-03-20 三菱重工業株式会社 外観計測システム、画像処理方法及びプログラム
WO2016113904A1 (ja) * 2015-01-16 2016-07-21 株式会社日立製作所 3次元情報算出装置、3次元情報算出方法、および自律移動装置
KR101649181B1 (ko) * 2015-01-22 2016-08-18 주식회사 인피니전 비행물체의 비행정보 추정 장치 및 비행정보 추정 방법
EP3277468A4 (en) * 2015-04-02 2019-10-16 ABB Schweiz AG METHOD FOR COMMISSIONING AN INDUSTRIAL ROBOT, INDUSTRIAL ROBOT SYSTEM AND CONTROL SYSTEM USING THE SAME
US10021371B2 (en) * 2015-11-24 2018-07-10 Dell Products, Lp Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair
WO2017103674A1 (en) * 2015-12-17 2017-06-22 Infinity Cube Ltd. System and method for mobile feedback generation using video processing and object tracking
CN105627926B (zh) * 2016-01-22 2017-02-08 尹兴 四像机组平面阵列特征点三维测量***及测量方法
JP6677531B2 (ja) * 2016-02-29 2020-04-08 日本放送協会 オブジェクト追跡システム
US10076698B2 (en) * 2016-05-17 2018-09-18 Sportsmedia Technology Corporation Automated or assisted umpiring of baseball game using computer vision
US9886624B1 (en) * 2016-06-03 2018-02-06 Pillar Vision, Inc. Systems and methods for tracking dribbling in sporting environments
JP6925816B2 (ja) * 2017-02-09 2021-08-25 株式会社小松製作所 位置計測システム、作業機械、及び位置計測方法
JP7018566B2 (ja) * 2017-04-28 2022-02-14 パナソニックIpマネジメント株式会社 撮像装置、画像処理方法及びプログラム
US10406645B2 (en) * 2017-05-24 2019-09-10 Trimble Inc. Calibration approach for camera placement
JP6412998B1 (ja) * 2017-09-29 2018-10-24 株式会社Qoncept 動体追跡装置、動体追跡方法、動体追跡プログラム
WO2019094844A1 (en) * 2017-11-10 2019-05-16 President And Fellows Of Harvard College Advancing predicted feedback for improved motor control
US10380409B2 (en) * 2017-11-16 2019-08-13 Blast Motion Inc. Method for estimating a 3D trajectory of a projectile from 2D camera images
JP7003628B2 (ja) * 2017-12-19 2022-01-20 富士通株式会社 物体追跡プログラム、物体追跡装置、及び物体追跡方法
JP2019121019A (ja) * 2017-12-28 2019-07-22 キヤノン株式会社 情報処理装置、3次元位置推定方法、コンピュータプログラム、及び記憶媒体
WO2020068849A1 (en) * 2018-09-25 2020-04-02 Visual Robotics Systems Inc. Spatially-aware camera and method thereof
CA3061908C (en) * 2018-12-02 2021-04-06 Playsight Interactive Ltd. Ball trajectory tracking
US11386151B2 (en) * 2020-04-11 2022-07-12 Open Space Labs, Inc. Image search in walkthrough videos

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220068915A (ko) * 2020-11-19 2022-05-26 컨셉 주식회사 궤도 산출 장치, 궤도 산출 방법, 궤도 산출 프로그램
JP2022080907A (ja) * 2020-11-19 2022-05-31 株式会社Qoncept 軌道算出装置、軌道算出方法、軌道算出プログラム
KR102671099B1 (ko) 2020-11-19 2024-05-30 가부시키가이샤 컨셉 궤도 산출 장치, 궤도 산출 방법, 궤도 산출 프로그램

Also Published As

Publication number Publication date
US20210133983A1 (en) 2021-05-06
JP2021071845A (ja) 2021-05-06
KR102430369B1 (ko) 2022-08-05
KR20210052314A (ko) 2021-05-10
US11625836B2 (en) 2023-04-11
CN112750153A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN108447097B (zh) 深度相机标定方法、装置、电子设备及存储介质
US11524406B2 (en) Calibration method and device for robotic arm system
US8600192B2 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JPWO2019049421A1 (ja) キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法
WO2021129305A1 (zh) 光学动捕***中标定杆检测方法、装置、设备和存储介质
JP7218435B2 (ja) キャリブレーション装置、キャリブレーション用チャート、およびキャリブレーション方法
CN111340737B (zh) 图像矫正方法、装置和电子***
CN113329179B (zh) 拍摄对位方法、装置、设备及存储介质
CN113920206B (zh) 透视移轴相机的标定方法
WO2020063058A1 (zh) 一种多自由度可动视觉***的标定方法
CN112581369A (zh) 图像拼接方法以及装置
CN109902675B (zh) 物体的位姿获取方法、场景重构的方法和装置
CN107507133B (zh) 一种基于圆管作业机器人的实时图像拼接方法
JP6697150B1 (ja) 軌道算出装置、軌道算出方法、軌道算出プログラム
JP6924455B1 (ja) 軌跡算出装置、軌跡算出方法、軌跡算出プログラム
CN113436267B (zh) 视觉惯导标定方法、装置、计算机设备和存储介质
CN111432117B (zh) 图像矫正方法、装置和电子***
CN117196955A (zh) 一种全景图像拼接方法及终端
CN117173254A (zh) 一种相机标定方法、***、装置和电子设备
Hörster et al. Calibrating and optimizing poses of visual sensors in distributed platforms
Ribeiro et al. Photogrammetric multi-camera calibration using an industrial programmable robotic arm
TWI834495B (zh) 物件姿態辨識方法及系統
CN115278071B (zh) 图像处理方法、装置、电子设备和可读存储介质
CN115937321B (zh) 一种电子设备的姿态检测方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191112

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200403

R150 Certificate of patent or registration of utility model

Ref document number: 6697150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250