JPH11510245A - Landing position marker for normal or simulated firing - Google Patents

Landing position marker for normal or simulated firing

Info

Publication number
JPH11510245A
JPH11510245A JP9-525134A JP52513497A JPH11510245A JP H11510245 A JPH11510245 A JP H11510245A JP 52513497 A JP52513497 A JP 52513497A JP H11510245 A JPH11510245 A JP H11510245A
Authority
JP
Japan
Prior art keywords
target
landing position
firing
position marker
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9-525134A
Other languages
Japanese (ja)
Other versions
JP4001918B2 (en
Inventor
トミー アンデルセン
ハンス エーレン
Original Assignee
トミー アンデルセン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from SE9600069A external-priority patent/SE9600069D0/en
Priority claimed from SE9602427A external-priority patent/SE506468C2/en
Application filed by トミー アンデルセン filed Critical トミー アンデルセン
Publication of JPH11510245A publication Critical patent/JPH11510245A/en
Application granted granted Critical
Publication of JP4001918B2 publication Critical patent/JP4001918B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 動いているターゲットに対する小火器(1)からの通常射撃または模擬射撃のための着弾位置マーカーは、小火器に対するターゲットの実際の位置を推測する推測ユニットを有するセンサ部(2)と発砲検出器とからなる。推測ユニットは、小火器(1)の視覚ラインに平行に向けられた光学軸を有する映像取得装置(10)とユニット(11)から構成され、ユニット(11)は互いに対してある角度で少なくとも2つの面において映像取得装置の視覚ラインの回転を測定するものであり、小火器の視覚ラインと一致するまたは平行な同一のラインを有する。映像取得装置(10)および回転測定ユニット(11)と発砲検出器(12)とからの出力信号は、ターゲットまでの距離と算出された着弾時のターゲットに対する位置を計算する評価ユニット(13)に入力される。測定の結果は、表示ユニット(4)に表示、および/または、照準時および発砲時に射手を助ける音響フィードバック信号を制御する。 (57) [Summary] An impact position marker for a normal fire or a simulated fire from a small weapon (1) to a moving target is a sensor unit (2 ) And a firing detector. The inference unit consists of an image acquisition device (10) having an optical axis oriented parallel to the visual line of the firearm (1) and a unit (11), wherein the unit (11) is at least two angles at an angle to each other. It measures the rotation of the visual line of the image capture device in one plane and has the same line that is coincident or parallel with the visual line of the small arms. Output signals from the image acquisition device (10) and the rotation measurement unit (11) and the firing detector (12) are sent to an evaluation unit (13) that calculates the distance to the target and the calculated position with respect to the target at the time of impact. Is entered. The result of the measurement is displayed on a display unit (4) and / or controls an acoustic feedback signal that assists the shooter during aiming and firing.

Description

【発明の詳細な説明】 通常射撃もしくは模擬射撃のための着弾位置マーカー 本発明は、請求の範囲第1項の序文で得られるタイプの着弾位置マーカーに関 する。特に、本発明は、散弾銃や同様の武器で動いているターゲットを狙うター ゲット射撃の結果を入力し、算出し、表示するための装置に関する。着弾位置マ ーカーは、小火器からの動いているターゲットに対する通常射撃または模擬射撃 を目的とし、小火器に対するターゲットの実際の位置を推測するユニットを有す るセンサ部と、発砲検出器とからなる。 技術分野 クレイピジョンに対する散弾銃射撃、例えばスキート射撃およびトラップ射撃 では、クレイピジョンの破壊が視認されることでヒットが分かる。さらに、クレ イピジョンがいかに強烈に砕けたかによってヒットの質をいくらかは判断するこ とも可能であるとしても、良くないヒットやミスの場合は、着弾位置の正確な認 識、すなわちターゲットと散弾の絞りとの角度距離、および弾丸が通過したのは ターゲットの上か下か、左側か右側かを得るのは困難である。 散弾銃射撃訓練の可能性は、環境上の理由で、住居地から離れたところに設け られるシューティングレンジの利用可能性によって限られてしまう。限られたシ ューティングタイムについての規定など、他の制約もまた訓練の可能性を制限し てしまう。 これらの条件は、一方では、(従来の)散弾銃射撃では着弾位置を示す助けが 必要とされ、もう一方では、模擬化された条件下の、すなわち実弾が発射されな い散弾銃射撃のトレーニングシステムが必要とされている。 関連技術の説明 小火器で射撃を実行する可能性を改善するために、模擬射撃のためのシステム が数多く提案され、そのうちのひとつは米国特許第5,194,006号に記載 されている。このシステムは、小火器付きのシミュレータ内で射撃訓練が行える ようにしている。このシミュレータでは、ターゲットの映像は投影スクリーンに 映し出され、射手は、ガンシミュレータで投影されたターゲットに向かって発砲 する。システムは、ターゲットと仮想距離との角速度に関して着弾位置を算出す る。システムは、実際のターゲットに対する実践射撃に使用することはできない 。 米国特許第3,798,795号に記載されたものなど、数多くの既知のシス テムには、弾道発射体を用いて実際に動いているターゲットを射撃した場合の射 撃結果を推測するものが知られている。このタイプのシステムの必要部分は、距 離測定機能である。このシステムにおいて、ターゲットの垂直および水平位置を 入力するために(テレビ)カメラが使用され、ターゲット上のトランスポンダに よって反射された無線信号の遅延時間間隔を測定することによって距離が決定さ れる。距離を測定するこの方法は、クレイピジョン射撃には適さない。 弾丸が発射された後の評価と同様の方法で、発砲される前に、適切な照準の方 向を決定しなければならない発砲制御システムでは、ターゲットの距離を決定し なければならない。米国特許第4,922,801号では、銃身が射手によって 向けられる武器の発砲制御システムが記述され、「見込み」ターゲットの位置を 算出することで照準の際の射手を助けるものである。見込みターゲットの位置は 、ターゲットの角速度と距離および発射体の遅延時間間隔に関し算出され、射手 がヒットを得るために狙いをつける照準点の形状で示される。ターゲットまでの 距離は、テレビ映像上のターゲットの見かけ上のサイズから算出される。このシ ステムの目的は、発砲制御であり、射撃の結果を評価するものではない。 英国のパワーコン(UK)社は、特別に製造されたクレイピジョンに対する模 擬射撃に用いられるレーザスポットクレイピジョンシューティングシステムと呼 ばれるシステムを販売している。ヒットやミスを検出するために、散弾の絞りの 幅に対応する寸法の赤外線ビームがガンシミュレータから送られる。ターゲット から反射された光は、「弾丸」がヒットかミスかを決定するために使用される。 システムは、ずらし照準(aiming off)を考慮せず、弾丸の速度が光の速度に等 しいかのようにヒットを検出する。これは、システムが散弾銃でのクレイピジョ ン射撃の状況を正確にシミュレートしていないことを意味する。よって、ずらし 照準を必要とするクレイピジョン射撃のための使用可能な訓練の助けにはならな い。 本発明の目的 本発明の目的は、散弾銃射撃および動いているターゲットを狙う同様の射撃、 上述のすべてのクレイピジョン射撃において、ターゲットの方向に関して発射さ れた弾丸の着弾位置を算出し、表示する着弾位置マーカーを製作することである 。これによって射手がミス照準の寸法および方向の感覚がつかめる。 本発明によるマーカーの別の目的は、動いているターゲットを狙う散弾銃射撃 のシミュレーションで射撃訓練が行えるようにすることである。武器が発射され ないという違い以外は散弾銃を用いる実際の射撃と同じ条件で模擬射撃が行える 。これは、射撃が通常の方法で放出されたクレイピジョンを狙って行え、かつ、 射手自身の武器で射撃できることを意味する。 本発明によるマーカーのさらに別の目的は、映像投影機を用いることによって 動いているターゲットが示される投影スクリーンに対する模擬射撃を許容するこ とである。 本発明の別の目的は、一方では、仮想ターゲットを狙う射撃に使用することが でき、かつ、改造することなく、実際のクレイピジョンを狙う射撃にも使用可能 なマーカーを製作することである。したがって、マーカーは、実弾で射撃する際 にも、また散弾銃射撃または同様の射撃の模擬実践射撃の形態での射撃訓練にも 使用できる。 本発明のさらに別の目的は、狙いが正しい方向であるか正しくない方向である かを音響信号によって射手を手助けすることである。 さらに別の目的は、銃口が正確な照準点近くに移動された場合、発砲の正しい 時点での発砲ができるよう音響的にもしくは光学的に射手を助けることを容易に することである。 上記の目的のほとんどは、請求の範囲第1項の特徴部分によって解決される。 本発明によるマーカーの更なる改良点および更なる特徴は従属クレームで提供さ れる。 動いているターゲットに対する小火器からの通常射撃または模擬射撃のための 着弾位置マーカーは、小火器およびその照準方向に対するターゲットの方向およ び距離を決定するためのビデオカメラなどの映像記録装置からなる。 映像記録装置は、小火器の照準線と平行に向けられた光学軸を有する。回転測 定ユニット、すなわちジャイロスコープは、互いに対してある角度で少なくとも 2つの面において映像記録装置の照準線の回転を測定するもので、小火器の視覚 ラインと一致するまたは平行な同一のラインを有する。映像記録装置および回転 測定ユニットからの出力信号は、ターゲットに対する距離および方向と、ずらし 照準の必要な校正に関連してヒットを得るであろう照準点とを計算する評価ユニ ットに入力される。測定の結果は、表示ユニットに表示される。 システムは基本的に3つの違った方法で使用される。 ・実際の動いているターゲットに対する使用。これは実弾を用いた発砲である。 ・模擬射撃に関連する実際の動いているターゲットに対する使用。すなわち実弾 を使用しない照準および発砲のを訓練。 ・投影機によって動いているターゲットが表示される投影スクリーンに対する模 擬射撃における使用。 本発明の利点 実際の射撃の際において着弾位置マーカーは、正しい照準点を見つけ、照準お よび発砲の際の誤りを理解するための助けとなる。 シミュレータとして使用される場合、着弾位置マーカーは、低コストで有効か つ集中的な射撃訓練を、通常の射撃場および訓練射撃が許容されていない場所に おいても、行えるようにするトレーニングツールである。 実弾と関連して使用される場合、射撃の際にとった誤り、たとえばずらし照準 のミスについてのより良い情報を射手が得ることによって、訓練の価値が上がる 。 模擬訓練射撃のシステムを使用すれば、射撃訓練が不可能な場所および時間に 訓練が行える。助けのない従来のクレイピジョン射撃と比較すると、実際のクレ イピジョンに対する模擬射撃および投影スクリーン上のターゲットに対する模擬 射撃は、一方で、発砲の際の銃口の誤った照準、また、正しい照準を示す音響信 号、もう一方で、発砲がミスであった場合も着弾位置を示すことによって、より 良い訓練効果を得ることができる。最後に、消耗材料のコストを相当減らすこと によって低コストで模擬訓練が行える。 システムは、まず第一に、クレイピジョン射撃、たとえばスキートおよびトラ ップ射撃を目的としている。システムは、特別な表面コーティングを施すことな く通常設計のクレイピジョンに対する射撃および模擬射撃に使用できる。模擬射 撃では、通常のクレイピジョンよりもより固い材料のクレイピジョンであり、再 利用可能に使用できる。 投影スクリーンに向かう模擬訓練においては、投影用の機器以外に特別な装置 は不要である。投影用の機器における条件は、その位置と、画像内のターゲット のサイズが距離を計算するために用いられる程度に、サイズとが着弾位置マーカ ーの映像記録装置によって決定されるように、十分なコントラストと鮮鋭度が提 供されることである。投影機の映像表現周波数とカメラのイメージ周波数との間 に干渉の危険がある場合、投影機とカメラとを同期させる必要もある。 実際のクレイピジョンの使用に関する訓練において、システムは、昼光および 周囲の明かりの乏しい条件両方において使用できる。後者の場合、まずシミュレ ータとしてシステムの使用が要求される場合、ターゲットは積極的に照射される 。干渉に対する感度を最小とするために、この場合、再帰反射表面被覆を施した ターゲットを使用することが適切である。 地上の可動ターゲットに対する散弾銃射撃の模擬射撃では、クレイピジョンは 、適切なサイズの対応するターゲット表面およびターゲットの中心に施された表 面コーティングで置換可能である。 図面の簡単な説明 添付の図面のガイダンスとともに例を用いて本発明をさらに詳しく説明する。 第1図は、本発明に係る完全な装置の実施例のブロック図を示す。 第2図は、本発明の実施例の詳細なブロック図を示す。 第3図は、着弾位置を算出する実施例のブロック図を示す。 図面の詳細な説明 第1図および第2図を参照すると、本発明に係る着弾マーク付け装置は、武器 1の前方のターゲット領域15にあるターゲット8上の着弾位置を分析する測定 システムと、弾丸の着弾位置を表示する手段とからなる。機械的な設計は、武器 1にマウントされたセンサ部2と、センサ部2とは接続されているが物理的には 離された評価ユニット13とからなる。着弾位置の計算の結果を通信するために 、選択された設計によって武器に関する物理的配置をかえることができる着弾位 置インジケータ4が設けられる。センサ部2および着弾位置インジケータ4の詳 細は以下に説明される。 センサ部2および評価ユニット13の別体化の必要性は、武器1に付けられた 部分、すなわちセンサ部をできる限り軽くしたいという要請によって決定される 。しかしながら、評価ユニット13の重量は、それほど重くなく、必要であれば 、例えばベルトに装着するなど、ユーザが持てるような重さである。 着弾位置インジケータ4の設計について次のような多くの選択肢が考えられる 。 * 評価ユニットに組み込まれたインジケータに図形/数値での表示; * 合成音声によって着弾位置についての情報を与える音響表示; * 照準の際に得られた視覚的印象に重ねられる映像を生成するヘッドアップデ ィスプレイ。 これらの実施例を組み合わせることは着想可能であり、視覚と聴覚の両方を同 時に使用するのは適切である。 模擬射撃の際にリアリティを感じる度合いを増すために、システムは、発砲の 際の銃声などの音響効果を生成するための手段およびリコイルをシミュレートす る手段を含む。 銃声は発砲の際の音を生成するサウンドジェネレータによってシミュレートさ れてもよい。 リコイルは、武器もしくは肩と接触する肩付け部(バット)をちょうど実弾を 発射した際のように後方に移動させるようにする装置(図示せず)によってシミ ュレートされてもよい。 照準の際に、武器がヒットを得るための正確な照準点に向かって狙いが付けら れたか否かを表示し、また実際の照準点と正確な照準点との距離と方向について の情報を含む音響フィードバック信号を、以下「ヒット信号」と呼ぶ。(ヒット するための)正確な照準方向と実際の照準方向との角距離のサイズと方向につい ての情報を含むヒット信号の部分を、以下「照準信号」と呼び、適切な発砲時点 に関するヒット信号の部分を、以下「発砲信号」と呼ぶ。照準信号は、適切な立 体音響であり、サウンドによってヒットが得られる照準点と実際の照準方向との 相対距離を決定することができるように調節されている。立体音響サウンドには 2つの音源が必要であり、よって、概略的に6で示されるようにヘッドフォンを 用いることが適切である。発砲信号は、適切な照準点に到達する直前に発する断 続的信号である。発砲信号と適切な時間との間隔を受け入れ、射手の反応時間に 対応することによって、射手は、適切なずらし照準を選択するための助けを受け 、連続的にずらし照準を増加させながら発砲信号を聞いたときに発砲する。 着弾位置を表示するためのヘッドアップディスプレイは、図形情報が視覚的感 覚と重なることが可能な、等倍率のテレスコピックサイトのように設計されても 良い。 システムがインドアあるいは周囲の明かりの乏しい場所での実際のクレイピジ ョンを狙う射撃に用いられる場合、バックグラウンドに対して十分に大きなコン トラストを与えるようにターゲット領域のアクティブな照明7が必要である。こ の照明7は、第1図に示されるように、武器またはセンサ部、あるいは射手の一 方の側の固定された位置に設けられても良い。 ターゲット材 着弾位置は、バックグラウンドに対して十分に高いコントラストを持ってカメ ラによって映像化されたターゲットに基づき、サイズを決定できる以下の方法1 に従った距離測定方法によって計算される。これは、投影スクリーンに示された 撮影または合成されたものに関しても実際のクレイピジョンにもある程度同じこ とが言える。ターゲット8は、まず第1に、国際競技に適用されるUITの一般 的および特別規則に従ったクレイピジョンである。クレイピジョンの直径は11 0mmであり、高さは25乃至26mmである。種々のカラーが許容されており 、そのうちのひとつはオレンジ−レッドで、やや蛍光色である。青色部分のスペ クトルの晴れたまたは曇った空に対してクレイピジョンを再現する場合、通常こ のカラーは着弾位置を算出するために十分なコントラストを提供できる。そのよ う なカラーで通常に設計されたクレイピジョンは、システムが実際の射撃と関連し て使用される場合に用いられるものである。同じタイプのターゲットが模擬射撃 に使用されない理由はない。このタイプのクレイピジョンの消耗(クレイピジョ ンは着地時によく割れる)のコストを下げるために、衝撃抵抗度の高い材料で製 造され、かつ、通常のクレイピジョンと同様の性質を有するクレイピジョンを再 利用を許容するために用いてもよい。 電源 野外で使用する場合、電源はバッテリ(図示せず)によって適切に得られても よい。これによって、システムは、全体的にそれだけで使用可能であり、電源ケ ーブルの邪魔なく運ばれる。 第2図 第2図から明らかなように、図示された実施例によれば、着弾位置は、一般的 にセンサ部2の次の3つの手段から収集されたデータに基づいて算出される。 * 武器前方のターゲット領域の映像を連続して生成するカメラ10 * 武器の動きを記録する好ましくは二軸ジャイロスコープ11 * 発砲を記録する発砲検出器12 受信したデータの処理および着弾位置の算出は、好ましくは評価ユニット13で 行われる。 カメラ10 カメラ10は、カメラの光芯軸14が武器の銃口の方向と平行となるようにセ ンサ部2に設置される。カメラは、ターゲット領域15の映像を連続して生成す る機能を有する。カメラからの情報は、評価ユニット13に電気的に伝送される 。カメラの焦点距離は、スキートおよびトラップ射撃における通常の射撃の際の すべてのヒットが検出されるようなサイズ9を視界が有するように寸法決めされ る。この場合、5度以上の最大限のずらし照準は、視界の決定寸法である。この 場合、視界の対応サイズは、2×5度=10度である。最大限のずらし照準を用 いてミスの際の着弾位置を決定することを可能にするために、視界はより大きく 、たとえば15度に作られるのが適切である。 カメラのスペクトル感度は、バックグランドに対して可能な範囲で最も高いコ ントラストでターゲット8が再現される。イメージ周波数やライン解像度は、以 下にさらに詳しく記載される映像処理機能によって設定される必要条件にしたが って選択される。 環境光を変化させるための補正を行うために、システムは、自動露光コントロ ール機能を備える。自動的に露光時間おそらくは開口を変えると同様に、特に環 境における明るい光において、手動または自動で適用されたグレイフィルタが露 光時間を変化させるための条件を減らすために使用される。 ジャイロスコープ11 ジャイロスコープ11は、好ましくは、縦方向および横方向に対して垂直に向 いた2つの面における角速度を連続して測定する。軽量化の必要条件に関してこ の適切な設計は、音さジャイロスコープである。 発砲検出器12 発砲検出器12は、武器の引き金5が起動されたときを検出する役目を有する 。これは、撃鉄および撃針の動きによる振動をピックアップするマイクロフォン の形態が可能である。 信号伝達 センサ部2が他のユニットから物理的に分離される程度に、これらユニットの 信号の伝達は、ケーブル16を介してまたはテレメトリを介して評価ユニット1 3に送られる。 評価ユニット13 評価ユニット13は、カメラ10、発砲検出器12およびジャイロスコープ1 1からの信号を受信し、分析する。第一の仕事は、ターゲットを検出し、その方 向および距離を算出することである。 映像中のターゲット物体を検出(目標抽出)するための映像処理の2つの適切 な実施例について以下に説明する。 まず第一に、以下に「スレショルディング」と称されるものは、映像内で構成 される要素の各カラー強度の分析に基づいている。クレイピジョンの適切なカラ ーは蛍光の赤色である。カメラの適切に選択されたカラー感度で、この色は、通 常青や白の空に対して強いコントラストを提供する。この色はまた、このシステ ムと共に使用するために最も適切であると判断される色のひとつである。 青い光を感知するモノクロカメラは使用可能である。この場合、赤いクレイピ ジョンは、空に対して暗い物体として視認される。所定のしきい値より下の光の レベルの映像要素を探すことによってターゲットは見つけられる。別のモノクロ 色が用いられた場合、評価ユニット13は、その代わりに、所定の光のレベルよ りも高い光のレベルの映像要素を探すことによって映像中のターゲットの場所を 突き止める。カラーカメラを使用した場合と比べて、モノクロカメラを使用する ことは、製造コストを易くできるが、側方からの強い太陽光の中でターゲットを 再現する際に、特別なフィルタリングにも関わらず、しきい値よりも高い(ある いは低い)強度でターゲットの一部が輪郭付けられてしまう。この場合、映像は 、ターゲットの実際の形状に対応したものではなくなる。 少なくとも2つの異なるスペクトル領域、好ましくはひとつは赤でもうひとつ は青の領域、を持つカラーカメラは、異なるカラーでのターゲットの写真を結合 する可能性によってターゲットの側方から照明を当てている場合にターゲットの 形状を正確に決定することについてかなり大きな可能性を提供する。スペクトル の赤の部分において、ターゲットは(青または白)のバックグランドよりも明る く現れる。よってこの場合のスレッショルディングは、ターゲットを示す映像要 素を見つけるためにあるしきい値よりも高い強度を有する映像要素またはピクセ ルについて探索を行うようにして実行される。しかしながら、スペクトルの青の 部分においては、別のしきい値よりも低い強度を有する映像要素について探索を 行う。この場合、ターゲットの完全な映像は、ターゲットの青または赤の再現ま たは両方からなる多数の映像要素から達成される。 目標抽出の際の探索スペースと、よって計算要求事項を最小するために、銃口 の動きと目標の初期位置と次の予想位置とを以下に明白に示すように用いる。 するどい輪郭やコントラストのない均等に照明をあてられたバックグランド、 たとえば雲の無い空、に対してターゲットがある場合は、上述の映像処理技術は 、高い信頼性でターゲット物体の場所を突き止め、サイズを決定するに十分であ る。その代わりにバックグランドが模様付けされており、するどいコントラスト を有する場合、たとえば空に対して木々やブッシュを再現した場合は、前記方法 は、 干渉に対して通常十分に大きな感度を得ることができない。 本発明による映像分析についてここで説明される第二の映像処理方法は、上述 の方法を補足するものであり、連続した映像間で一時的依存を使用する。カメラ のパン撮影の際、バックグランドとターゲットの両方は映像中で動く。ターゲッ ト領域の連続する映像を取り去ることで、バックグランドを除去でき、動いてい るターゲットは映像中の単一の物体として現れる。この取り去る作業は、ある映 像のバックグランドにおけるある点に対応するピクセルが同じ点を表現する次の 映像におけるピクセルから取り去られるように行われる。カメラのパン撮影の際 に起きるバックグランドの移動は、取り去る作業を行う前の映像を動かすことで 補正され、よって2つの映像内のバックグランドは一様とされる。このようにし て、銃口についての情報とジャイロ信号から受信される(よってカメラの)動き についての情報とを利用して前記変位のサイズと方向を決定する。 映像を取り去った結果、静止物体は抑えられ、動いているターゲット物体は現 れる映像となる。この操作のあと、上記に従った映像分析、すなわちスレッショ ルディングが、ターゲット物体を検出するために行われる。 単に、パターン認識の助けを借りて、取り去ることで変位を決定する目的で映 像情報を用いることに比較して、ジャイロ信号を使用することは、処理能力に必 要とされるものをかなり少なくすることができ、これは本発明による方法の利点 である。 計算 ずらし照準 動いているターゲットに対する散弾銃射撃の難しさのひとつは、適切なずらし 照準を導くこと、つまり、散弾の絞りがターゲットの通り道に着いた時点にター ゲットがそこにあるべき方向に発砲することである。ずらし照準のサイズは、散 弾の絞りの移動時間と、ターゲットの明確な角速度とを用いて次の式にしたがっ て決定される。 Vf=tb×Sm 上記式において、 Vf=ずらし照準角度(ラジアン) tb=通過時間(散弾の絞りの移動時間(秒)) Sm=ターゲットの速度(ラジアン/秒) ターゲット8の前方に適切な角度で発射される弾丸によって必要なずらし照準 が達成される。経験豊富な射手がずらし照準について最大限の精度を得ようとし てよく用いられるテクニックは、追いつきスイング(オーバーテイキングスイン グ)付きシューティングと呼ばれるものである。これは、射手が武器の照準線を ターゲットの速度より早い角速度でターゲットの経路をたどらせることを意味す る。効果的なずらし照準は、1)発砲したときに射手が体験するずらし照準と、 2)引き金を引く射手の意識的決定と発砲段階、すなわち弾丸の絞りが銃口から 離れる時間との遅れとの合計によって得られる。しかしながら、射撃テクニック 、この場合スイング、は変化し、したがって着弾位置の計算は、射撃テクニック に左右されない方法で行わなければならない。 着弾位置の計算 着弾位置は、評価ユニットで、発砲時の銃身の方向、すなわち弾丸の方向、お よび発砲から算出された着弾時間までのターゲットの動きの推定についての情報 に基づいて計算される。ターゲットがヒットされるであろう場合は、ターゲット の方向は弾丸の方向を着弾時に横切る。 ターゲットの動き 算出された着弾時間におけるターゲットの位置は、発砲後の2つの垂直面両方 における移動の推定によって計算される。飛行時、ターゲットは、スタート速度 と、スタート方向と、重力加速度と、クレイピジョンの通過角度による空気力学 的力との関数である経路をたどる。 ターゲットの動きは、ターゲットの経路が射手を取り巻く大きな円を描き、角 速度が通過時間の間一定であると単純に仮定して、推定される。この場合に起き 得る計算ミスは微々たるものである。実際の場合の加速度は、重力加速度と空気 抵抗による減速、そしてターゲットの経路が大きな円の形状であるという仮定に よる幾何学的エラーであるが、比較的短い通過時間なため、実際的問題はない。 次の式は、ターゲットの位置が発砲後2つの垂直座標軸のそれぞれについてい かにして推定されるかを説明する。 方向ターゲット,着弾時間=方向ターゲット,発砲+Vm×通過時間 上記式において、 方向ターゲット,着弾時間=算出された着弾時間におけるターゲットの方向 方向ターゲット,発砲=発砲時のターゲットの方向 Vm=ターゲットの絶対角速度 通過時間=発砲から算出された着弾時間までの散弾の絞りの飛行時間 ターゲットの方向に加えて、ターゲットの絶対角速度が分からなければならな い。これは、照準方向に対するターゲットの角速度、すなわちカメラの方向と銃 身の角速度との合計として計算される。後者を算出できるようにするために、ジ ャイロスコープタイプの手段が着弾位置マーカーに含まれる。 着弾位置の計算にさらに必要なものは、特定のタイプの武器と装薬については 、距離によって単純に決定できるものである装薬による通過時間の値である。距 離は、2つの異なった計算方法が用いられて、評価ユニットによって算出される 。 計算方法1: 距離を算出する方法は、この方法によると、絶対寸法が知られた ターゲットがカメラで映像化される事実に基づいて行われる。カメラの投影面に おけるターゲットのサイズは、カメラの光学系についての情報とともに距離を決 定するために使用される。 計算方法2: 実際のショット際にターゲット領域と射手の位置との特別な座標 上の情報が評価ユニットに使用されるように前もって記憶された場合、射撃位置 から見たターゲットの角速度と同様にこの情報の関数として距離が計算される。 着弾位置インジケータ4および着信信号ジェネレータ6は、別々の物理的ユニ ットであってもよいし、評価ユニットに包含されても良い。 発砲後、着弾位置、すなわち、ターゲットと、弾丸がターゲットの通過面を通 過する点との間の垂直面と水平面における特別な角距離は、算出され、表示され る。着弾位置に加えて、たとえば、弾丸の方向や発砲前のターゲットに関する照 準点の動きなど他の測定値もまた表示される。武器内部での遅れや、ターゲット までの距離、散弾の絞りのターゲットに対する飛行時間(通過時間)、そして通 過時間中のターゲットの動きなど、すべての関連要因は着弾位置の計算に考慮さ れる。 着弾位置の結果は、照準の際に評価ユニット13によって引き続き評価される 。この引き続きの評価の結果は、以下「ヒット信号ジェネレータ」と呼ばれる出 力手段を制御するために用いられる。ヒット信号ジェネレータは、照準方向およ び適切な発砲タイミングを選択するにあたり射手を支援するものである。ヒット 信号ジェネレータからの情報は、ユーザが選択した照準方向での弾丸がヒットと なるかミスとなるかを聞いて判断でき、またミスが予測されることで、どのよう にして照準方向を修正するかを決定できるよう変調される音響信号でもよい。 野外のクレイピジョン射撃場では、あるブランチでは現在の規則によって、異 なる状況での射手に対するクレイピジョンの放出経路が予め決められている。こ れは、放出経路は、評価ユニット13に予めプログラムされ、記憶されることが 可能であることを意味している。この場合、すべての射手がしなければならない ことは、たとえば、ひとつまたはいくつかの押しボタン(図示せず)を押すこと で、射撃場の射手の状況を指定することである。これによって、評価ユニット1 3はプログラムされたターゲットの経路によって計算を実行する。 ヒット信号ジェネレータ6は、計算された着弾位置の結果によって変化する信 号で制御される。信号が銃身の実際の照準でヒットできるか否か(ピジョンを確 実に破壊できる度合い)を音で知らせるか、何も聞こえないという単純な変調原 理に加えて、正しい照準点に対する正確な照準の度合いやエラーの方向さえも決 定することを可能にするさらに進んだ変調原理が使用されても良い。よって、タ ーゲットの左を通過する弾丸を導く照準は、他の照準の狂いとは区別できるある 方法で音を発する。方向を決定するためのヒアリングの感覚能力を最大限に利用 するために、ヒット信号は立体音響として生成されても良い。これによって、射 手の照準が低すぎたり、高すぎたり、ターゲットの左側や右側によっているなど を外れのサイズとともに示すために、音の強度の変調、左と右のチャネル間の位 相差、含有周波数を用いることができる。 音響信号は、特定の弾丸について射手が正しい照準方向を選択できるようにす るものであるが、射手が、ターゲットのある視覚的印象を、それが右の照準方向 であることを示す音響的「フィードバック」信号で照準する際の位置および動き と組み合わせることができるようにすることで、改善されたトレーニング効果を 得る目的も有する。 距離を決定するための第1の実施例(映像処理を伴う) ターゲットのサイズに基づく距離の決定; 距離は、ターゲットのカメラ映像に基づいて算出される。ターゲットの実際の サイズが分かっているので、ターゲットの距離は、次の式にしたがって、映像表 面上のターゲットのサイズとカメラの焦点距離との関数として計算される。 D=(diatarget/diaimage)×f D=ターゲットまでの距離 diatarget=ターゲットの実際の直径 diaimage=映像上のターゲットの直径 f=カメラの焦点距離 映像上のターゲットの直径の算出は、最も長い軸、通常のクレイピジョンで1 10mm、に沿って実行される。このようにして、変化するターゲットの方向の 影響をなくす。 この代替例による距離測定機能は、結果として距離を測定するための精度要求 が満たされるように選択される映像の解像度に要請を加える。 距離測定機能は、ターゲット物体が認識されるやいなや起動し、発砲まですべ ての映像上で実行される。通常に集められた一連の測定値のほか、平均値は発砲 までの適切な数の最後の値から算出される。このようにして、ピクセルの量子化 の結果、動きによって引き起こされた焦点のずれなどの変化で生じた測定値にお ける広がりの影響は、減少される。 以下、ターゲットのサイズと、よってその距離とを計算するため使用され得る 方法について記述する。 映像内のピクセルは、しきい値を越えるまで異なる方向のいくつかの経路で探 索される。この探索は、測定精度を増すためにいくつかのしきい値によって実行 される。しきい値を通る経路間の最も大きな距離によって、サイズの測定が得ら れる。 物体の端を記述する第二導関数のゼロ遷移の決定によってサイズは測定される 。そして、ゼロ遷移間の最大距離について探索が行われる。ゼロ遷移は、測定に お ける正確さを増すために線形補間によって決定される。グレイスケールを提供す る解像でその強度が得られたピクセルを有する映像上で操作が行われる。クレイ ピジョンのエッジは、グレイスケールにおいて反曲点によって画定される。反曲 点とは、第二導関数が0と等しくなった点である。このゼロ遷移は、ピクセル上 に存在しないが、その特定位置は、強度値を囲むことによって得られる。クレイ ピジョンの各エッジにおけるゼロ遷移間の距離は、クレイピジョンの投影された サイズの測定値である。反曲点は、次のように、サブピクセル補間される。ピク セルNo.iの第二導関数が10と等しく、ピクセルNo.i+1がマイナス1 5と等しい場合、ゼロ遷移の位置は、 i+10/(10−(−15))=i+0.4 として画定される。 このタイプの補間は、投影サイズの算出における正確さ、従って距離の算出に おける正確さを増す。 弾丸の方向を決定するにあたっては、いくつかの連続した映像からの距離情報 を積分し、投げたような経路に適合させる。 映像の露光の際カメラの視野内でターゲットが動いた場合、移動の速度と露光 時間とに比例する動きによって不鮮明が引き起こされる。動きによって起こされ た不鮮明は、再生される映像における移動方向の焦点のずれを大きくまたは少な くする。ターゲットのサイズを計算する方法は、その計算に基づいて動きによっ て起こされた不鮮明を最小化することを含む。その計算は、露光時間とともに映 像から映像へのターゲットの動きから計算された視野内のターゲットの速度に基 づくものである。 ターゲットのサイズを決定するための前記方法に加えて、基準に対するいわゆ る相関関係に基づく別の方法が代替えされてもよい。これによれば、映像内のタ ーゲットは多くの基準物と比較される。特定のレベルを超えた相関関係によって 物体のサイズが提供される。 距離を決定する第2の実施例(ターゲットの経路に基づく) 射撃位置に対するターゲットの経路の特別な座標がターゲットの線形スタート 速度とともに分かっている場合、距離は、ターゲットの角速度および方向のみを 使用して関数として明確に計算される。 ターゲットの角速度は銃身の回転速度(ジャイロ信号から受信される)とカメ ラ映像におけるターゲットの動きに対応する角速度との合計として計算されても よい。距離を測定するためのこの方法は、ターゲットの経路が前もって決められ るスキート射撃などに使用できる。弾丸が発射される前に、たとえば、そこから 射撃を行う射撃ステーションの基準を入力することにより、ターゲットの経路の 実際のパラメータが得られる。射撃ステーションの基準は、評価ユニットによっ て自動的にターゲットの2つの経路に変換される。その2つの経路は、特定の射 撃ステーションについての現実でもよく、またクレイピジョン放出者2名のいず れかによる放出に対応するものである。特定の弾丸の現実であるターゲットのこ れら2つの経路のものは、銃身の回転方向から明白であり、よって別の入力によ って表示される必要がない。映像情報の分析は、この場合ターゲット物体の位置 と速度の決定に対して減少される。ターゲットのサイズは、距離の計算に必要と されないので、評価される必要はない。 ターゲットの経路についての前もって入力された情報に基づいた距離測定は、 映像の質にかかる要求を減らし、映像処理を簡単にする。 着弾位置計算 発砲前に記憶されたターゲットの方向と距離についての情報は、発砲の際に、 散弾の絞りがターゲットに到着もしくはミスの場合は通過した時点までのターゲ ットの連続する動きを推定するために使用される。この推測された方向は、弾丸 の方向、すなわち発砲の瞬間の銃身の方向と比較される。ターゲットの絶対移動 を推定することができるように、固定基準方向を生成するために、ジャイロスコ ープ信号からの銃身(およびカメラ)の回転速度についての情報が使用される。 ヒットを得るため、着弾時点におけるターゲットの方向(特定のエラーマージン 内で)は、発砲の瞬間の銃身の方向と一致しなければならない。これら2つの方 向間の誤差は照準ミスにより起こり、そのサイズと方法は評価ユニットによる計 算後の着弾位置インジケータにより指示される。 第3図のフロー図 第3図は、距離の決定の第1の実施例が実行される際の評価ユニットの機能に ついてのフロー図である。入力信号は、一連のカメラ10からのカメラ映像とジ ャイロスコープ11からの信号である。この信号は垂直および水平方向の回転に 関する銃身の動きの状態を提供するものである。出力信号は、着弾位置および音 響ヒット信号である。 ブロック17でバックグランドの削除が行われる。ここでは映像が映像メモリ 17aに記憶された前の映像と比較される。その出力信号は、フィルタに通され たビデオ映像であり、これはブロック18でターゲット物体と考えられるものの 抽出のために分析される。ブロック17からのビデオ映像に加えて、ジャイロス コープ11からの銃身の動きについての測定値が18への入力信号として予想さ れた次の位置19と同様に使用される。サイズの測定を実行する次のブロック2 0および前述の距離計算を実行するブロック21の処理後、算出された距離は、 着弾位置計算が行われるブロック22への入力信号を形成する。 ブロック18から20への入力信号は、抽出された物体とその直近の周囲を示 す完全なカメラ映像のセグメントである。 ブロック22における処理は、算出された着弾時間におけるターゲット物体の 位置の予測である。この場合に使用される信号は、ブロック21から受信した距 離に加えて、引き金が引かれたか否かと、ターゲット物体の位置と速度とを示す 信号24である。ターゲット物体の位置と速度は、ブロック18からの位置出力 信号のガイダンスおよび武器の銃身の動きに関するジャイロスコープ11からの 信号で速度計算を実行するブロック23から受信されたものである。 ブロック22からの出力信号は、着弾位置インジケータ4とヒット信号ジェネ レータ6とを制御するために使用される。 着弾位置の計算の校正 着弾位置の校正のため着弾の実際の位置に対応する結果を得るために、システ ムの照準線、すなわち弾丸の方向と推定される方向は、弾丸の実際の方向と一致 しなければならない。実弾での射撃する際に、武器上にカメラを設置したあと、 校正専用の射撃(special calibration shooting)が実行され、弾丸コンテナに ある散弾の絞りを発砲の初期で誰かがカメラで撮るようにするようにしてこの一 致が行われてもよい。この時点では弾丸コンテナはかたまりを構成している。カ メラの露光は、その方向が空気抵抗によって散弾の絞りの方向から逸れる前に、 発射された弾丸コンテナの映像が得られるように発砲によって制御される。弾丸 の方向は、映像内の発射された弾丸コンテナの位置から導き出される。 弾丸の方向を垂直に決定する際に、カメラの中心軸は銃身の軸と一致しないの で起きる視差について補正が行われる。上述したように、校正は、通常の使用に 先立つ特別な発砲の際に行われるが、弾丸ごとの通常の機能の部分である。後者 の解決法の利点は、着弾位置計算の精度を下げることなく、射撃の際のカメラの 位置のわずかな変位を許容することができる。このようにして、カメラ部分を銃 身に固定する際の機械的安定性についての要求を減少でき、有利である。 着弾位置インジケータ4 着弾位置インジケータ4は、射手に直前の発砲の結果を与えるものである。イ ンジケータは、着弾位置、すなわち照準ミスのサイズと方向以外に、ターゲット の追従がどのように行われたかとともに、視覚のラインとターゲットとの相対速 度など、測定された射撃距離についての情報も与えることができる。着弾位置イ ンジケータ4は、別々の物理的ユニットであってもよいし、評価ユニット13と 結合されてもよい。インジケータの設計にはたくさんの代替例が考えられる。 * 評価ユニット13に組み込まれたLCDタイプなどのインジケータ上の図形 /数値の表示; * 合成音声によって着弾位置を示す音響表示; * 照準時に射手がターゲット領域に重ねられたインジケータからの映像を見る ことができるように設置されたインジケータ。このインジケータは、射手が実際 のターゲットに関して着弾の瞬間に散弾の絞りの方向を見ることができるように 着弾位置を示す。後者の場合、映像は射手の視覚のラインに設けられた照準手段 (図示しないが、ヘッドアップディスプレイ分野における当業者に周知である) における半透明のミラーを介してインジケータから反射される。ヒットの瞬間ま たはターゲットを通過した際に、散弾の絞りの位置を示すインジケータ上の映像 は、ターゲット領域からの視覚的印象と重ねられ、実弾を使用した際に受ける視 覚的印象と似た印象を射手に与える。 照準ミスのサイズの測定の形態で示された弾丸の結果に加えて、着弾位置イン ジケータは弾丸がヒットまたはミスしたかについて可能性を計算することができ る。この場合、この計算を制御するパラメータ、中でも武器の銃身のボアが、実 際の状態を正確に反映するためにユーザーによって変えることができる設計が好 ましい。 ヒット信号ジェネレータ カメラから受けた映像の分析が引き続き行われる。そのような分析から受けた 結果には、映像が露光された場合に関して発砲がある所定の時点で行われた場合 に達成される着弾位置の測定値で含まれる。ターゲットの位置を推定することに よって、発射された弾丸の着弾位置が有効となるように将来所定の時間間隔で計 算される。時間間隔が射手の反応時間を正確に補正するように選択された場合、 弾丸の方向がターゲットの経路と算出された着弾時間で交差するようターゲット を追従し、信号を聞いたちょうどその時に発砲する場合、弾丸は確実にヒットす る。DETAILED DESCRIPTION OF THE INVENTION             Landing position marker for normal or simulated firing   The present invention A landing position marker of the type obtained in the preamble of claim 1 I do. Especially, The present invention Aim at a moving target with a shotgun or similar weapon Enter the result of the get fire, Calculate, A device for displaying. Landing position Maker Normal or simulated fire at a moving target from a small weapon For the purpose, Has a unit to infer the actual position of the target with respect to the firearm Sensor part, And a firing detector. Technical field   Shotgun shooting against Clay Pigeon, Eg skeet and trap shooting Then You can tell the hit by seeing the destruction of the clay pigeon. further, Cle Judging the quality of a hit depends on how violently the pigeon crushed Even if it is possible, For bad hits and mistakes, Accurate recognition of impact position Knowledge, That is, the angular distance between the target and the shot aperture, And the bullet passed Above or below the target, It is difficult to get left or right.   The potential for shotgun shooting training is For environmental reasons, Established away from home Limited by the availability of the shooting range to be used. Limited Such as the rules for the shooting time, Other constraints also limit the training possibilities Would.   These conditions are: on the one hand, In (conventional) shotgun shooting, help to indicate the location of impact Required, On the other hand, Under simulated conditions, That is, no live ammunition is fired. There is a need for a shotgun shooting training system. Description of related technology   To improve the possibility of performing fire with small arms, System for simulated shooting Has been proposed a lot, One of them is U.S. Pat. 194, No. 006 Have been. This system is Shooting training can be performed in a simulator with small arms Like that. In this simulator, Target image on projection screen Is projected, The archer Fire at the target projected by the gun simulator I do. the system, Calculate the impact position with respect to the angular velocity between the target and the virtual distance You. the system, Cannot be used for practical fire on real targets .   U.S. Patent No. 3, 798, No. 795, etc. Many known systems In the system, The firing when using a ballistic projectile to fire at a moving target. It is known to guess the shooting result. The essential parts of this type of system are: Distance This is a separation measurement function. In this system, The vertical and horizontal position of the target A (television) camera is used to enter, To the transponder on the target Therefore, the distance is determined by measuring the delay time interval of the reflected radio signal. It is. This method of measuring distance Not suitable for clay pigeon shooting.   In the same way as the evaluation after the bullet was fired, Before being fired, Good aim In the firing control system where the direction must be determined, Determine the target distance There must be. U.S. Patent No. 4, 922, In issue 801, The barrel is fired by the shooter A fire control system for the weapon being directed is described, The position of the "prospect" target The calculation helps the archer in aiming. The position of the potential target is , Calculated for the angular velocity and distance of the target and the delay time interval of the projectile, shooter Are shown in the form of aiming points to aim for a hit. Up to the target The distance is It is calculated from the apparent size of the target on the television image. This The purpose of the stem is Firing control, It does not evaluate the result of the shooting.   UK Powercon (UK), Imitations for specially manufactured clay pigeons Laser spot clay pigeon shooting system used for simulated shooting Selling system. To detect hits and mistakes, Of the shot aperture An infrared beam of a size corresponding to the width is sent from the gun simulator. target The light reflected from Used to determine if a "bullet" is a hit or a miss. the system, Without considering the aiming off, Bullet speed equals light speed Detect hits as if they were good. this is, Claypijo with system shotgun Does not accurately simulate the shooting situation. Therefore, Stagger Does not aid in available training for clay pigeon shooting that requires aiming No. Object of the present invention   The purpose of the present invention is Shotgun shooting and similar shooting at moving targets, In all of the above-mentioned clay pigeon shootings, Fired with respect to target direction Calculates the impact position of the bullet Is to make a landing position marker to be displayed. . This gives the shooter a sense of the size and direction of the missile aim.   Another object of the marker according to the invention is that Shotgun shooting at a moving target The purpose of this is to make it possible to perform shooting training by simulation. Weapon is fired Simulated shooting can be performed under the same conditions as actual shooting with a shotgun except for the difference that there is no . this is, Fire can be aimed at the clay pigeon released in the usual way, And, This means that you can fire with your own weapon.   Yet another object of the marker according to the invention is that By using a video projector Allow simulated firing against the projection screen where the moving target is shown. And   Another object of the invention is on the one hand, Can be used to fire at virtual targets Can, And, Without remodeling, Can also be used to fire for actual clay pigeons Is to make a good marker. Therefore, Markers are When shooting with live ammunition Also, It can also be used to practice shooting in the form of simulated practice shotgun or similar shooting. Can be used.   Yet another object of the invention is to provide Aim is in the right or wrong direction This is to assist the shooter with an acoustic signal.   Yet another purpose is: If the muzzle is moved close to the exact aiming point, Fired right Easily help the shooter acoustically or optically to fire at the point in time It is to be.   For most of the above purposes, The problem is solved by the features of the first claim. Further improvements and further features of the marker according to the invention are provided in the dependent claims. It is.   For normal or simulated fire from small arms against a moving target The impact position marker is The direction and orientation of the target with respect to the firearm and its aiming direction And a video recording device such as a video camera for determining the distance.   The video recording device is It has an optical axis oriented parallel to the aim of the firearm. Rotation measurement Fixed unit, That is, the gyroscope is At least at an angle to each other It measures the rotation of the line of sight of the video recording device in two planes, Firearm sight It has the same line that is coincident or parallel with the line. Video recorder and rotation The output signal from the measurement unit is Distance and direction to the target, Stagger An evaluation unit that calculates the aiming point that will get a hit in relation to the required calibration of the aiming Input to the account. The result of the measurement is Displayed on the display unit.   The system is used in basically three different ways. -Use against a real moving target. This is a fire using live ammunition. • Use against real moving targets related to simulated fire. Ie live ammunition Training of aiming and firing without using. A model for the projection screen on which the target moving by the projector is displayed Use in simulated shooting. Advantages of the present invention   In actual shooting, the impact position marker is Find the right aiming point, Aiming And help to understand mistakes when firing.   When used as a simulator, The impact position marker is Effective at low cost Intensive shooting training, In normal shooting ranges and places where training fire is not allowed Even if A training tool that allows you to do it.   When used in connection with live ammunition, Mistakes made during shooting, For example, shift aim By getting better information about his mistakes, Training value increases .   With the simulated training shooting system, In places and times when shooting training is not possible Can train. Compared to conventional clay pigeon shooting without help, Real crease Simulated shooting for the pigeon and simulation for the target on the projection screen Shooting is On the other hand, Incorrect aiming of the muzzle when firing, Also, Acoustic signal showing correct aim issue, On the other hand, By indicating the landing position even if the firing was a mistake, Than Good training effects can be obtained. Finally, Significantly reduce the cost of consumables Thus, simulation training can be performed at low cost.   the system, First of all, Clay pigeon shooting, For example, skeet and tiger It is intended for top-down shooting. the system, Do not apply special surface coating It can be used to fire and simulate the usual design of clay pigeons. Mock shooting In the strike, Clay pigeon made of harder material than regular clay pigeon, Again Available to use.   In simulation training toward the projection screen, Special equipment besides projection equipment Is unnecessary. Conditions for the projection equipment are as follows: Its position and Target in image To the extent that the size of is used to calculate the distance, Size and landing position marker As determined by the video recording device, Provides sufficient contrast and sharpness Is to be offered. Between the video expression frequency of the projector and the image frequency of the camera Is at risk of interference, It is also necessary to synchronize the projector and the camera.   In training on the actual use of clay pigeons, the system, Daylight and It can be used in both low ambient light conditions. In the latter case, First Simule If the use of the system is required Target is actively irradiated . To minimize sensitivity to interference, in this case, With retroreflective surface coating It is appropriate to use a target.   In simulated shotgun shooting against a movable target on the ground, Clay Pigeon , Corresponding target surface of appropriate size and table applied to the center of the target It can be replaced with a surface coating. BRIEF DESCRIPTION OF THE FIGURES   The invention will be described in more detail by way of example with the guidance of the accompanying drawings. Figure 1 FIG. 2 shows a block diagram of an embodiment of a complete device according to the invention. Fig. 2 FIG. 2 shows a detailed block diagram of an embodiment of the present invention. FIG. FIG. 2 shows a block diagram of an embodiment for calculating a landing position. Detailed description of the drawings   Referring to FIGS. 1 and 2, The impact mark marking device according to the present invention, weapon Measurement for analyzing the impact position on the target 8 in the target area 15 in front of 1 System and Means for displaying the impact position of the bullet. The mechanical design is weapon A sensor unit 2 mounted on 1; It is connected to the sensor unit 2 but physically And the evaluation unit 13 separated. To communicate the result of the landing position calculation , Landing position that can change the physical arrangement of the weapon according to the selected design A position indicator 4 is provided. Details of the sensor unit 2 and the landing position indicator 4 Details are described below.   The necessity of separate sensor unit 2 and evaluation unit 13 is as follows. Attached to weapon 1 part, That is, it is determined by the request to make the sensor unit as light as possible. . However, The weight of the evaluation unit 13 is Not too heavy, If necessary , For example, attaching to a belt, It is as heavy as the user can hold.   There are many possible options for the design of the landing position indicator 4, such as: . * Graphical / numerical display on indicators built into the evaluation unit; * Acoustic display that gives information about the impact position by synthetic speech; * A head-up device that creates an image that is superimposed on the visual impression obtained during aiming. Display.   Combining these examples is conceivable, Same for both sight and hearing It is appropriate to use sometimes.   To increase the sense of reality during simulated shooting, the system, Firing Simulate means and recoil to produce sound effects such as gunshots Means.   Gunshots are simulated by sound generators that generate sounds when firing. It may be.   Recoil is Just add a live ammunition to the shoulder or butt that comes into contact with the weapon or shoulder A device (not shown) that causes the device to move backwards as if fired May be modulated.   When aiming, The weapon is aimed towards the exact aiming point to get a hit Display whether or not The distance and direction between the actual aiming point and the accurate aiming point The acoustic feedback signal containing the information of Hereinafter, it is called a "hit signal". (hit The size and direction of the angular distance between the exact aiming direction and the actual aiming direction The part of the hit signal that contains all the information Hereafter referred to as the "sighting signal" Appropriate firing time The part of the hit signal about Hereinafter, it is referred to as a "firing signal." The aiming signal is Proper standing Body sound, Between the aim point where the sound gives a hit and the actual aim direction It is adjusted so that the relative distance can be determined. For 3D sound You need two sound sources, Therefore, Headphones as shown schematically at 6 It is appropriate to use. The firing signal is Disconnection that occurs just before reaching the appropriate aiming point It is a continuous signal. Accept the interval between the firing signal and the appropriate time, To the archer ’s reaction time By responding, The archer Get help choosing the right staging sight , Fires when the firing signal is heard while continuously increasing the aim.   The head-up display for displaying the impact position is Graphic information is visual Can overlap with the senses, Even if it is designed like a telescopic site with the same magnification good.   The system is a real clay pipe in indoor or low light surroundings If used for shooting aiming at A large enough background Active illumination 7 of the target area is needed to provide trust. This The lighting 7 of As shown in FIG. Weapons or sensors, Or one of the archers It may be provided at a fixed position on one side. Target material   The landing position is Turtle with sufficiently high contrast to the background Based on the target imaged by LA, The following method 1 that can determine the size Is calculated by the distance measuring method according to the following. this is, Shown on projection screen Somewhat the same applies to the actual clay pigeon when it is shot or synthesized. It can be said that. Target 8 First of all, General UIT applied to international competitions Clay pigeon according to the official and special rules. Clay pigeon diameter is 11 0 mm, Height is 25 to 26 mm. Various colors are allowed , One of them is orange-red, Somewhat fluorescent. The blue part If you want to recreate a clay pigeon against a sunny or cloudy sky in Khutor, Usually this Can provide enough contrast to calculate the impact location. That's it U Clay pigeon which was usually designed with various colors, The system is related to the actual fire It is used when used. Simulated fire of the same type of target There is no reason not to be used. Consumption of this type of clay pigeon (clay pigeon Is often broken when landing) Made of material with high impact resistance Built And, Regenerate clay pigeons having properties similar to normal clay pigeons It may be used to allow use. Power supply   For outdoor use, Even if power is properly obtained from a battery (not shown) Good. by this, the system, Overall it is usable by itself, Power cable Carried without disturbing the table. Fig. 2   As is clear from FIG. According to the illustrated embodiment, The landing position is general Is calculated based on the data collected from the following three means of the sensor unit 2. * Camera 10 that continuously generates images of the target area in front of the weapon * Preferably a two-axis gyroscope 11 to record the movement of the weapon * Firing detector 12 that records firing The processing of the received data and the calculation of the impact position Preferably in the evaluation unit 13 Done. Camera 10   The camera 10 Set so that the optical axis 14 of the camera is parallel to the direction of the muzzle of the weapon. Installed in the sensor section 2. The camera is Generate images of the target area 15 continuously Function. Information from the camera Electrically transmitted to the evaluation unit 13 . The focal length of the camera is Skeet and trap firing during normal firing Dimensioned so that the field of view has a size 9 such that all hits are detected You. in this case, The maximum aiming of 5 degrees or more is This is the determined dimension of the field of view. this If The corresponding size of the field of view is 2 × 5 degrees = 10 degrees. Use maximum shifting aim To be able to determine the landing position in the event of a mistake, The view is bigger , For example, it is appropriate to be made at 15 degrees.   The camera's spectral sensitivity is The highest possible cost for the background The target 8 is reproduced by the trust. Image frequency and line resolution Less than According to the requirements set by the video processing functions described in more detail below Is selected.   To make corrections to change the ambient light, the system, Automatic exposure control Control function. As well as automatically changing the exposure time and possibly the aperture, Especially rings In bright light at the border, Gray filters applied manually or automatically Used to reduce the conditions for changing the light time. Gyroscope 11   The gyroscope 11 Preferably, Orientation perpendicular to portrait and landscape The angular velocities on the two surfaces are continuously measured. Regarding the requirements for weight reduction The proper design of It is a sound gyroscope. Fire detector 12   The firing detector 12 Has the function of detecting when the trigger 5 of the weapon is activated . this is, Microphone that picks up vibration caused by hammering iron and pin movement Is possible. Signal transmission   To the extent that the sensor unit 2 is physically separated from other units, Of these units Signal transmission is Evaluation unit 1 via cable 16 or via telemetry Sent to 3. Evaluation unit 13   The evaluation unit 13 Camera 10, Fire detector 12 and gyroscope 1 Receiving the signal from 1, analyse. The first job is Detect target, That one It is to calculate the direction and the distance.   Image processing for detecting target objects in video (target extraction) Examples will be described below.   First of all, What is called "thresholding" below, Composed in video The analysis is based on an analysis of the color intensity of each element. Proper color of clay pigeon ー is fluorescent red. With a properly selected color sensitivity of the camera, This color is Through Provides strong contrast against evergreen and white skies. This color is also This system One of the colors deemed most appropriate for use with the system.   A monochrome camera that senses blue light is available. in this case, Red crepe John Perceived as a dark object against the sky. Of light below a certain threshold The target is found by looking for the level picture element. Another monochrome If color is used, The evaluation unit 13 Instead, A certain light level The target location in the image by looking for image elements with higher light levels. locate. Compared to using a color camera, Using a monochrome camera The thing is Although the manufacturing cost can be made easier, Target in the strong sunlight from the side When reproducing, Despite special filtering, Higher than threshold (Or low) intensity, the target is partially contoured. in this case, The picture is , It no longer corresponds to the actual shape of the target.   At least two different spectral regions, Preferably one is red and the other is Is the blue area, Color camera with Combine target photos in different colors Of the target when lighting from the side of the target due to the possibility of It offers considerable potential for accurately determining the shape. Spectrum In the red part of Target is brighter than (blue or white) background Appear. So the thresholding in this case is Need video showing target Video element or pixel with an intensity higher than a certain threshold to find This is performed by searching for files. However, Spectrum blue In part, Search for video elements with intensity lower than another threshold Do. in this case, A complete picture of the target The blue or red reproduction of the target Or a number of video elements consisting of both.   Search space for target extraction, So to minimize the calculation requirements, muzzle The movement of the target, the initial position of the target and the next expected position are used as explicitly indicated below.   Evenly illuminated background without sharp contours or contrast, For example, the sky without clouds, If there is a target for, The above video processing technology , Locating the target object with high reliability, Enough to determine the size You. Instead, the background is patterned, Sharp contrast If you have For example, if you reproduce trees and bushes against the sky, The method Is Usually, a sufficiently high sensitivity to interference cannot be obtained.   The second video processing method described here for video analysis according to the present invention comprises: Above Supplements the method of Use temporary dependencies between successive videos. camera When shooting bread, Both the background and the target move in the video. Target By removing continuous images in the Background can be removed, Moving The target appears as a single object in the video. This removal work, A certain movie The pixel corresponding to a point in the background of the image represents the same point This is done so that it is removed from the pixels in the video. When panning with the camera The background movement that occurs in By moving the image before performing the work to remove Amended, Therefore, the background in the two images is uniform. Like this hand, Information about the muzzle and the movement (and therefore the camera) received from the gyro signal Is used to determine the size and direction of the displacement.   As a result of removing the video, Stationary objects are suppressed, The moving target object is Video. After this operation, Video analysis according to the above, Ie threshold Ruding, Performed to detect a target object.   simply, With the help of pattern recognition, Removed for the purpose of determining displacement Compared to using image information, Using a gyro signal Required for processing capacity It can reduce the need for things considerably, This is an advantage of the method according to the invention It is. Calculation Shift aim   One of the difficulties of shooting shotguns against moving targets is Appropriate shift Guiding the aiming, That is, When the shot aperture reaches the target path, Get is firing in the direction it should be. The size of the shift sight is Scattered The travel time of the bullet aperture, Using the clear angular velocity of the target and Is determined.   Vf = tb × Sm In the above equation,   Vf = offset aiming angle (radian)   tb = transit time (movement time of shot aperture (seconds))   Sm = speed of target (radian / second)   The required aiming offset by a bullet fired at an appropriate angle in front of the target 8 Is achieved. Experienced archers try to get the maximum accuracy for staggered aiming The most commonly used technique is Catch-up swing (overtaking ins G) with shooting. this is, The archer shoots the line of sight of the weapon Means to follow the target's path at an angular velocity faster than the target's velocity You. An effective aiming shift is 1) The shooting aim that the shooter experiences when firing, 2) the conscious decision and firing phase of the triggering shooter, That is, the aperture of the bullet from the muzzle Obtained by the sum of the time to leave and the delay. However, Shooting techniques , In this case swing, Changes, Therefore, the calculation of the landing position Shooting techniques Must be done in a manner that is independent of Calculation of impact position   The landing position is In the evaluation unit, The direction of the barrel when firing, Ie the direction of the bullet, You Information about the target's motion estimation up to the calculated landing time from firing Is calculated based on If the target will be hit, target Crosses the direction of the bullet when impacted. Target movement   The target position at the calculated impact time is Both two vertical planes after firing Is calculated by estimating the movement in. When flying, The target is Start speed When, Starting direction, Gravitational acceleration, Aerodynamics of Clay Pigeon through Passing Angle Follow a path that is a function of the target force.   The movement of the target is The path of the target draws a large circle surrounding the archer, Corner Simply assuming that the speed is constant during the transit time, Presumed. Get up in this case The calculation errors you get are insignificant. The actual acceleration is Gravitational acceleration and air Deceleration by resistance, And on the assumption that the path of the target is a large circle Is a geometric error, Since the transit time is relatively short, There is no practical problem.   The following equation: The target position is on each of the two vertical axes after firing It will be explained how it is estimated.   Direction target, Landing time = Direction target, Firing + Vm x transit time In the above equation,   Direction target, Landing time = Target direction at the calculated landing time   Direction target, Firing = Direction of target when firing   Vm = absolute angular velocity of target   Transit time = flight time of the aperture of the shot from firing to the calculated landing time   In addition to the target direction, Must know the absolute angular velocity of the target No. this is, The angular velocity of the target with respect to the aiming direction, Ie camera direction and gun Calculated as the sum with the angular velocity of the body. To be able to calculate the latter, The Gyroscope type means are included in the impact position marker.   What is needed for calculating the impact position is For certain types of weapons and charges , It is the value of the transit time by the charge, which can be determined simply by the distance. Distance The separation is Two different calculation methods are used, Calculated by evaluation unit . Calculation method 1:   To calculate the distance, According to this method, Absolute dimensions were known It is based on the fact that the target is imaged with a camera. On the projection surface of the camera Target size Determine distance with information about camera optics Used to determine Calculation method 2:   Special coordinates of target area and shooter position during actual shot If the above information was pre-stored for use by the evaluation unit, Shooting position The distance is calculated as a function of this information, as well as the angular velocity of the target as viewed from.   The impact position indicator 4 and the incoming signal generator 6 Separate physical uni May be It may be included in the evaluation unit.   After firing, Impact position, That is, Target and The bullet passes through the target's passing surface The special angular distance in the vertical and horizontal planes between the passing points is Calculated, Displayed You. In addition to the landing position, For example, Light on bullet direction and target before firing Other measurements, such as fiducial movement, are also displayed. Delays inside the weapon, target Distance to, The flight time (passage time) of the shot aperture against the target, And through Such as the movement of the target over time, All relevant factors are taken into account when calculating the impact location. It is.   The result of the landing position is The evaluation is continued by the evaluation unit 13 during aiming . The result of this continued evaluation is An output referred to below as the "hit signal generator" Used to control force means. The hit signal generator Aiming direction and And assist the shooter in selecting the appropriate firing timing. hit The information from the signal generator is When a bullet in the aiming direction selected by the user is hit Can be determined by listening to In addition, by predicting mistakes, How The sound signal may be modulated so that it can be determined whether to correct the aiming direction.   At the open-air clay pigeon shooting range, In one branch, according to the current rules, Different The release path of the clay pigeon to the shooter under certain circumstances is predetermined. This Is The release route is Pre-programmed into the evaluation unit 13, To be remembered It means that it is possible. in this case, Every archer must do The thing is For example, Pressing one or several push buttons (not shown) so, To specify the shooting conditions of the shooting range. by this, Evaluation unit 1 3 performs calculations according to the programmed target path.   The hit signal generator 6 The signal that changes depending on the result of the calculated landing position Controlled by Whether the signal can be hit with the actual aim of the barrel (see Pigeon The extent to which it can actually be destroyed) A simple modulation source that you can't hear anything In addition, Determining the exact aim level and even the direction of the error for the correct aim point More advanced modulation principles may be used that allow for the definition of Therefore, Ta The aim of the bullet that passes to the left of the target is Some are distinguishable from other aiming irregularities Emit sound in a way. Make the most of hearing sensory abilities to determine direction To do The hit signal may be generated as stereophonic sound. by this, Shooting Your aim is too low, Too high, Depending on the left or right side of the target To show the size Modulation of sound intensity, Position between left and right channels Difference, The content frequency can be used.   The acoustic signal is Allows the shooter to select the correct aiming direction for a specific bullet But The archer, Targeted visual impression, That is the right aiming direction And movement when aiming with an acoustic "feedback" signal indicating By being able to combine with Improved training effectiveness It also has the purpose of gaining. First Embodiment for Determining Distance (with Video Processing) Determining the distance based on the size of the target;   The distance is It is calculated based on the target camera image. Target actual Because the size is known, The target distance is According to the following formula, Video table It is calculated as a function of the size of the target on the surface and the focal length of the camera.   D = (diatarget / diaimage) × f   D = distance to target   diameter = actual diameter of the target   diameter = diameter of the target on the image   f = focal length of camera   The calculation of the target diameter on the video is Longest axis, 1 for normal clay pigeon 10mm, Is executed along. In this way, The direction of the changing target Eliminate the effects.   The distance measurement function according to this alternative is Accuracy requirements for measuring distance as a result Is added to the resolution of the image selected so that is satisfied.   The distance measurement function As soon as the target object is recognized, it starts up, Wait for the firing Performed on all videos. In addition to the normally collected series of measurements, Average value is firing Calculated from the appropriate number of last values up to. In this way, Pixel quantization As a result, Measurements caused by changes such as defocus caused by movement The effect of the spread Is reduced.   Less than, The size of the target, So it can be used to calculate its distance Describe the method.   Pixels in the video are Search several paths in different directions until the threshold is exceeded Will be searched. This search is Performed by several thresholds to increase measurement accuracy Is done. By the largest distance between paths that pass the threshold, Once the size measurement is obtained It is.   Size is measured by determining the zero transition of the second derivative that describes the edge of the object . And A search is performed for the maximum distance between zero transitions. The zero transition is For measurement You Determined by linear interpolation to increase accuracy. Provide grayscale An operation is performed on an image having pixels whose intensities are obtained at different resolutions. Clay Pigeon's edge is Defined by inflection points in grayscale. Inflection A point is The point at which the second derivative became equal to zero. This zero transition is On pixel Does not exist in The specific position is Obtained by surrounding the intensity value. Clay The distance between the zero transitions at each edge of the pigeon is Clay Pigeon projected It is a measure of size. The inflection point is as follows, Sub-pixel interpolation is performed. Pic Cell No. i is equal to 10 and pixel no. i + 1 is minus 1 If equal to 5, the position of the zero transition is   i + 10 / (10 − (− 15)) = i + 0. 4 Is defined as   This type of interpolation is more accurate in calculating the projection size, and therefore in calculating the distance. Increase accuracy.   When determining the direction of the bullet, the distance information from several consecutive videos Is integrated to fit the path as thrown.   If the target moves within the field of view of the camera when exposing the image, the speed and exposure Motion that is proportional to time causes blurring. Awakened by movement Blurred images can cause a large or small defocus in the direction of movement in the reproduced video. Make The method of calculating the size of the target depends on the movement based on that calculation. Including minimizing blurring caused by bleeding. The calculation is projected along with the exposure time. Based on the velocity of the target in the field of view calculated from the movement of the target from image to video It is based on   In addition to the above method for determining the size of the target, the so-called Other methods based on the correlation may be substituted. According to this, the tags in the video Targets are compared to many standards. By correlation beyond a certain level An object size is provided. Second Example of Determining Distance (Based on Target Path)   Special coordinates of the target's path with respect to the firing position will result in a linear start of the target If known along with the speed, the distance is only the angular velocity and direction of the target. Use calculated explicitly as a function.   The angular velocity of the target depends on the rotation speed of the barrel (received from the gyro signal) and the camera Is calculated as the sum of the angular velocity corresponding to the movement of the target in the video Good. This method for measuring distance is based on the pre-determined target path. It can be used for skeet shooting. Before the bullet is fired, for example, from there By entering the criteria for the firing station that fires, The actual parameters are obtained. The firing station criteria are determined by the evaluation unit. Automatically converted into two paths of the target. The two paths are specific It may be the reality about the shooting station and no two clay pigeon emitters This corresponds to the release by this. The target that is the reality of a particular bullet These two paths are apparent from the direction of rotation of the barrel, and are thus Does not need to be displayed. The analysis of the video information, in this case, the position of the target object And reduced for speed determination. The size of the target is needed to calculate the distance It does not need to be evaluated because it is not.   Distance measurements based on previously entered information about the target ’s path, Reduce demands on video quality and simplify video processing. Landing position calculation   Information about the target ’s direction and distance stored before the shot was fired. If the shot aperture reaches the target or makes a mistake, the target It is used to estimate the continuous movement of the unit. This guessed direction is the bullet , Ie, the direction of the barrel at the moment of firing. Absolute movement of target Gyroscope to generate a fixed reference direction so that the Information about the rotation speed of the barrel (and camera) from the loop signal is used. To get a hit, the direction of the target at the time of impact (specific error margin Within) must match the barrel direction at the moment of firing. These two people The heading error is caused by a pointing error and its size and method are calculated by the evaluation unit. It is indicated by the calculated landing position indicator. Fig. 3 Flow chart   FIG. 3 shows the function of the evaluation unit when the first embodiment of the determination of the distance is performed. FIG. The input signal is a series of camera images from This is a signal from the gyroscope 11. This signal is used for vertical and horizontal rotation. It provides the status of the barrel movement in relation to it. The output signal is the impact position and sound Hibiki hit signal.   In block 17, the background is deleted. Here, the video is stored in the video memory It is compared with the previous image stored in 17a. The output signal is filtered Video image, which is considered a target object in block 18 Analyzed for extraction. In addition to the video footage from block 17, Gyros Measurements of barrel movement from Corp 11 are expected as input signals to 18. It is used in the same way as the next position 19. Next block 2 to perform size measurement 0 and after the processing of block 21 for performing the distance calculation described above, the calculated distance is: The input signal to the block 22 where the landing position calculation is performed is formed.   The input signals to blocks 18 to 20 indicate the extracted object and its immediate surroundings This is a segment of the complete camera image.   The processing in the block 22 includes the processing of the target object at the calculated landing time. It is a position prediction. The signal used in this case is the distance received from block 21. In addition to release, indicates whether the trigger was triggered and the position and velocity of the target object Signal 24. The position and speed of the target object are output from the position output from block 18. Signal guidance and gyroscope 11 for weapon barrel movement It is received from block 23 which performs speed calculations on the signal.   The output signal from the block 22 is the landing position indicator 4 and the hit signal generator. Used to control the radiator 6. Calibration of landing position calculation   To obtain a result corresponding to the actual position of the impact for calibration of the impact position, the system The aiming line of the gun, i.e. the direction that is assumed to be the direction of the bullet, matches the actual direction of the bullet Must. When shooting with live ammunition, after setting the camera on the weapon, Special calibration shooting is performed and the bullet container This shot was made by letting someone shoot the shot aperture at the beginning of the shot. Matching may be performed. At this point, the bullet containers form a lump. Mosquito Mera's exposure takes place before its direction deviates from the direction of the shot aperture due to air resistance. It is controlled by firing so that an image of the fired bullet container is obtained. bullet Is derived from the location of the fired bullet container in the video.   When determining the vertical orientation of the bullet, the center axis of the camera does not coincide with the barrel axis Is corrected for the parallax that occurs in. As mentioned above, calibration is Performed during a special firing preceding, but part of the normal function of each bullet. the latter The advantage of this solution is that it reduces the accuracy of the camera A slight displacement of the position can be tolerated. In this way, the camera part is a gun Advantageously, the requirement for mechanical stability when fixed to the body can be reduced. Impact position indicator 4   The landing position indicator 4 gives the shooter the result of the previous firing. I In addition to the landing position, that is, the size and direction of the aiming miss, the indicator Along with how the visual line was tracked, and the relative speed between the visual line and the target. Information about the measured firing distance, such as degrees, can also be provided. Landing position a Indicator 4 may be a separate physical unit, or evaluation unit 13 and They may be combined. There are many alternatives to indicator design. * Graphic on indicator such as LCD type built into evaluation unit 13 / Numerical display; * Acoustic indication of landing position by synthesized voice; * When aiming, the shooter sees the image from the indicator overlaid on the target area Indicator installed so that you can. This indicator indicates that the shooter is actually You can now see the direction of the shot aperture at the moment of impact on the target Indicates the impact position. In the latter case, the image is aimed at the line of sight of the shooter (Not shown, well known to those skilled in the head-up display field) Reflected from the indicator via the translucent mirror at. Until the moment of the hit Or on the indicator showing the position of the aperture of the shot when passing through the target Is superimposed on the visual impression from the target area, Gives the shooter an impression similar to the visual impression.   In addition to the results of the bullets in the form of missile size measurements, Deciators can calculate the likelihood of a bullet hit or missed You. In this case, the parameters controlling this calculation, especially the bore of the barrel of the weapon, are actually Designs that can be changed by the user to accurately reflect the Good. Hit signal generator   Analysis of the video received from the camera continues. Received from such an analysis The result is that if the shot was made at a certain point in time with respect to the case where the image was exposed Is included in the measurement of the landing position achieved. Estimating the location of the target Therefore, it is counted at a predetermined time interval in the future so that the landing position of the fired bullet becomes valid. Is calculated. If the time interval is selected to accurately correct the shooter's reaction time, Target so that the bullet direction intersects the target path at the calculated impact time If you fire at exactly the moment you hear the signal, the bullet will hit You.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),JP,US────────────────────────────────────────────────── ─── Continuation of front page    (81) Designated countries EP (AT, BE, CH, DE, DK, ES, FI, FR, GB, GR, IE, IT, L U, MC, NL, PT, SE), JP, US

Claims (1)

【特許請求の範囲】 1.動いているターゲットに対する小火器(1)からの通常射撃または模擬射撃 のための着弾位置マーカーであって、小火器に対するターゲットの実際の位置を 推測する推測ユニットを有するセンサ部(2)と発砲検出器とからなる着弾位置 マーカーにおいて、 推測ユニットは小火器(1)の視覚ラインに平行に向けられた光学軸を有する 映像取得装置(10)から構成され、互いに対してある角度で少なくとも2つの 面において映像取得装置の視覚ラインの回転を測定するものであり、小火器の視 覚ラインと一致するまたは平行な同一のラインを有する、ユニット(11)が設 けられ、映像取得装置(10)および回転測定ユニット(11)と発砲検出器( 12)とからの出力信号は、少なくともターゲットをヒットする正確な視覚ライ ンからの距離および偏差を算出する評価ユニット(13)と、ヒットの結果を表 示するヒット結果ユニット(14)とに送られることを特徴とする着弾位置マー カー。 2.ターゲットの映像は映像取得装置(10)で撮られた映像から抽出されるよ うに定められていることを特徴とする特許請求の範囲第1項による着弾位置マー カー。 3.映像取得装置(10)は、ターゲットと空との間の大きなコントラストを得 るために、モノクロでカラー調整され、評価ユニット(13)は、カラー調整に よるが、所定の光レベルより上か下の光レベルの映像要素を探すことによって映 像中のターゲットの場所を突き止めることを特徴とする特許請求の範囲第2項に よる着弾位置マーカー。 4.映像取得装置(10)は、少数の数、たとえば2つの個別のカラーに限って カラー調整され、評価ユニット(13)は、カラーのうちの少なくともひとつの カラーについて所定の第1の光レベルを下回るそのカラーの光レベルの映像要素 を探すことによって、そしてそれ以外のカラーのひとつについて所定の第2の光 レベルを上回る光レベルの映像要素を探すことによって、映像中のターゲットの 位置とサイズとを決定し、異なるカラーの探索の組み合わせによってターゲット を完全に再現することを特徴とする特許請求の範囲第2項に記載の着弾位置マー カー。 5.評価ユニット(13)は、回転測定ユニット(11)からの信号のガイダン スによって異なる映像間のバックグランドの変位を計算し、映像を取り去ること によって、撮られた画像の部分間の映像記憶装置のパン撮影によって起こる最終 的な映像に対して撮られた基準とバックグランドを識別することを特徴とする特 許請求の範囲第2項による着弾位置マーカー。 6.評価ユニット(13)は、ターゲットの実際のサイズと、映像内のターゲッ トのサイズと、映像取得手段の焦点距離とのガイダンスによってターゲットまで の距離を決定することを特徴とする先行する特許請求の範囲のうちのいずれかの 項による着弾位置マーカー。 7.評価ユニット(13)は、ターゲットの映像と、映像要素ごとの映像要素と を探索し、ひとつ以上の前もって記憶された基準物体と映像内の物体とを比較す ることによってターゲットまでの距離を決定し、特定のしきい値を越える校正に よってターゲットの位置およびサイズが選られることを特徴とする先行する特許 請求の範囲のうちのいずれかの項による着弾位置マーカー。 8.評価ユニット(13)は、実際の発砲時における射撃場や射手の位置の空間 座標についての前もって記憶された情報のガイダンスによってターゲットまでの 距離を決定し、この情報と発砲位置からのターゲットの角速度の関数としてター ゲットまでの距離を算出することを特徴とする先行する特許請求の範囲のうちの いずれかの項による着弾位置マーカー。 9.評価ユニット(13)は、回転測定ユニット(11)から受信した武器の銃 口の回転速度と映像取得装置からの映像内のターゲットの移動と一致するターゲ ットの角速度との合計としてターゲットの絶対角度を算出することを特徴とする 先行する特許請求の範囲のうちのいずれかの項による着弾位置マーカー。 10.評価ユニットは、ターゲットの距離についての情報とターゲットの絶対角 速度とから、ずらし照準を算出することを特徴とする先行する特許請求の範囲の うちのいずれかの項による着弾位置マーカー。 11.たとえば、武器(1)上の引き金(5)を引くことによる発砲の際の銃声 などの音響効果など、模擬射撃の場合に実際の射撃経験をシミュレートする効果 を生成したり、および/または、発砲の際の武器の動きをシミュレートする機械 的装置によってリコイルをシミュレートする手段を有することを特徴とする先行 する特許請求の範囲のうちのいずれかの項による着弾位置マーカー。 12.武器がヒットを得るための正しい照準点に向かって狙いがさだめられたか 否かを照準の際に示す音響フィードバック信号を生成するための音響手段(6) を有することを特徴とする先行する特許請求の範囲のうちのいずれかの項による 着弾位置マーカー。 13.照準ミスの場合の音響手段(6)からの音は、ターゲットをヒットするた めに照準の方向を修正すべき方向(垂直および水平)を射手が聞き取れるよう変 調されることを特徴とする特許請求の範囲第12項による着弾位置マーカー。 14.音響手段は、ヒットを得る照準点と照準の実際の方向との相関距離を音の 特徴が示すように変調されたモノ音響または立体音響の信号を提供するように構 成されることを特徴とする特許請求の範囲第13項による着弾位置マーカー。 15.音響手段(6)は、評価ユニット(13)によって制御される立体音響音 を提供するために、ヘッドフォンなど、2つの音源を備えることを特徴とする特 許請求の範囲第12乃至14項による着弾位置マーカー。 16.ヒット結果ユニット(4)は、武器上の照準手段と結合されたヘッドアッ プディスプレイを備え、ヘッドアップディスプレイは、照準の際に受信した視覚 的印象と重ねられる映像を生成することを特徴とする先行する特許請求の範囲の うちのいずれかの項による着弾位置マーカー。 17.ヒット結果ユニット(4)は、評価ユニット(13)に組み込まれたイン ジケータ上の図形/数値による表示であることを特徴とする特許請求の範囲第1 乃至5項による着弾位置マーカー。 18.ヒット結果ユニット(4)は、合成音声によって着弾位置を示す音響イン ジケータを備えることを特徴とする特許請求の範囲第1乃至15項による着弾位 置マーカー。 19.着弾位置インジケータ(4)は、射手が武器(1)をターゲット(8)に 狙いを定めている間引き続いて着弾位置を評価し、発砲の適切な機会を射手に知 らせる出力手段を制御することを特徴とする先行する特許請求の範囲ののうちの いずれかの項による着弾位置マーカー。 20.出力手段は、適切な発砲時間の直前に音を発する音響信号を提供し、音響 信号と適切な発砲時間との時間間隔は、射手の反応時間に左右される遅れと一致 するよう調整されていることを特徴とする特許請求の範囲第19項による着弾位 置マーカー。 21.発砲検出器は、撃鉄からの音および撃針の動きがマイクロフォンにより検 出され、適切な処理の後、マイクロフォンの信号は発砲を表示し、評価ユニット に送られるように構成されることを特徴とする先行する特許請求の範囲のうちの いずれかの項による着弾位置マーカー。[Claims] 1. Normal or simulated fire from a small weapon (1) against a moving target Impact position marker for the target, indicating the actual position of the target with respect to the small arms A landing position composed of a sensor unit (2) having a guessing unit and a firing detector In the marker,   The speculation unit has an optical axis oriented parallel to the visual line of the firearm (1) An image acquisition device (10), at least two of which are at an angle to each other It measures the rotation of the visual line of the image acquisition device on the surface, Unit (11) having the same line coincident with or parallel to the sense line The image acquisition device (10), the rotation measurement unit (11) and the firing detector ( 12) output at least a precise visual line that hits the target. The evaluation unit (13) for calculating the distance and deviation from the hit and the result of the hit are displayed. And the hit position unit (14). car. 2. The target video is extracted from the video captured by the video acquisition device (10). The landing position marker according to claim 1, wherein the landing position marker is defined as follows. car. 3. The image acquisition device (10) obtains a large contrast between the target and the sky. In order to adjust the color in monochrome, the evaluation unit (13) Depending on the video element, the video level is higher or lower than the specified light level. Claim 2 wherein the location of the target in the image is located. According to the impact position marker. 4. The image acquisition device (10) is limited to a small number, for example, two individual colors. The color-adjusted evaluation unit (13) comprises at least one of the colors A video element of that color light level below a predetermined first light level for that color And for one of the other colors a predetermined second light By searching for an image element with a light level higher than the level, Determine position and size and target by combination of different color searches 3. The landing position marker according to claim 2, wherein the landing position marker is completely reproduced. car. 5. The evaluation unit (13) provides guidance for signals from the rotation measurement unit (11). Calculate the background displacement between different images and remove the images The final caused by panning of the video storage device between parts of the image taken by The feature is that it distinguishes the reference and background taken for a typical image. A landing position marker according to claim 2. 6. The evaluation unit (13) determines the actual size of the target and the target in the video. Guidance to the target size and the focal length of the image acquisition means Any of the preceding claims characterized in determining the distance of Landing position marker by term. 7. The evaluation unit (13) includes a target image, a video element for each video element, To compare one or more previously stored reference objects with objects in the video. To determine the distance to the target, for calibration exceeding a certain threshold A prior patent characterized in that the position and size of the target are chosen A landing position marker according to any of the claims. 8. The evaluation unit (13) is a space for shooting positions and shooters at the time of actual firing. Guidance on pre-stored information about the coordinates Determine the distance and determine this information as a function of the target's angular velocity from the firing position. Calculating the distance to the get. A landing position marker according to any of the items. 9. The evaluation unit (13) is a weapon gun received from the rotation measurement unit (11). A target matching the rotation speed of the mouth and the movement of the target in the image from the image acquisition device The absolute angle of the target is calculated as the sum of the angular velocity of the target A landing position marker according to any of the preceding claims. 10. The evaluation unit provides information about the distance of the target and the absolute angle of the target A shift aim is calculated from the speed, A landing position marker from one of the items. 11. For example, gunshots when firing by triggering (5) on weapon (1) Effects that simulate real shooting experience in case of simulated fire, such as sound effects A machine that generates and / or simulates the movement of a weapon when firing Having means for simulating recoil by means of a dynamic device An impact position marker according to any of the claims. 12. Is the weapon aimed at the right aiming point to get a hit? Acoustic means (6) for generating an acoustic feedback signal indicating when aiming According to any of the preceding claims, characterized by having Landing position marker. 13. The sound from the acoustic means (6) in case of aiming misses the target Change the aiming direction (vertical and horizontal) so that the shooter can hear it. 13. The landing position marker according to claim 12, wherein the landing position marker is adjusted. 14. The acoustic means determines the correlation distance between the aiming point to get the hit and the actual direction of the aiming of the sound. Configured to provide a mono or stereophonic signal modulated as indicated by the features. 14. An impact position marker according to claim 13, wherein the impact position marker is formed. 15. The sound means (6) is a three-dimensional sound controlled by the evaluation unit (13). In order to provide the sound source, two sound sources such as headphones are provided. A landing position marker according to claims 12 to 14. 16. The hit result unit (4) is a head-up unit connected to the aiming means on the weapon. The head-up display has a visual display Generating an image that is superimposed on a positive impression. A landing position marker from one of the items. 17. The hit result unit (4) is the inset incorporated in the evaluation unit (13). 2. A display according to claim 1, wherein the display is a graphic / numerical value on a indicator. Impact position markers according to items 5 to 5. 18. The hit result unit (4) is a sound input that indicates the position of impact using synthesized speech. A landing position according to claims 1 to 15, characterized in that it comprises a indicator. Place marker. 19. The landing position indicator (4) indicates that the shooter targets the weapon (1) at the target (8). The aiming position is evaluated continuously while aiming, and the shooter is notified of the appropriate opportunity for firing. Controlling the output means to be controlled. A landing position marker according to any of the items. 20. The output means provides an acoustic signal that emits a sound just before the appropriate firing time, The time interval between the signal and the appropriate firing time coincides with the delay depending on the shooter's reaction time 20. A landing position according to claim 19, wherein the landing position is adjusted to Place marker. 21. The firing detector detects the sound from the hammer and the movement of the firing pin with a microphone. After being issued and appropriate processing, the microphone signal indicates the firing and the evaluation unit Claims of the preceding claims characterized by being sent to A landing position marker according to any of the items.
JP52513497A 1996-01-08 1996-12-27 Landing position marker for normal or simulated shooting Expired - Fee Related JP4001918B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
SE9600069A SE9600069D0 (en) 1996-01-08 1996-01-08 firing device
SE9600069-0 1996-06-19
SE9602427A SE506468C2 (en) 1996-01-08 1996-06-19 Hit position marker for shotgun shooting
SE9602427-8 1996-06-19
PCT/SE1996/001757 WO1997025583A1 (en) 1996-01-08 1996-12-27 Impact position marker for ordinary or simulated shooting

Publications (2)

Publication Number Publication Date
JPH11510245A true JPH11510245A (en) 1999-09-07
JP4001918B2 JP4001918B2 (en) 2007-10-31

Family

ID=26662472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP52513497A Expired - Fee Related JP4001918B2 (en) 1996-01-08 1996-12-27 Landing position marker for normal or simulated shooting

Country Status (7)

Country Link
US (1) US5991043A (en)
EP (1) EP0873492B1 (en)
JP (1) JP4001918B2 (en)
AT (1) ATE207200T1 (en)
DE (1) DE69616090D1 (en)
SE (1) SE506468C2 (en)
WO (1) WO1997025583A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012013284A (en) * 2010-06-30 2012-01-19 Hitachi Kokusai Electric Inc Shooting training device
KR20220110657A (en) * 2021-01-31 2022-08-09 (주)이오시스템 Apparatus and method for displaying firearm's aiming indicator

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7158167B1 (en) * 1997-08-05 2007-01-02 Mitsubishi Electric Research Laboratories, Inc. Video recording device for a targetable weapon
NO305184B1 (en) * 1997-09-05 1999-04-12 Siri Grundnes Device for a firearm, especially rifle and lighter handguns
US20050213962A1 (en) * 2000-03-29 2005-09-29 Gordon Terry J Firearm Scope Method and Apparatus for Improving Firing Accuracy
US6363223B1 (en) * 2000-03-29 2002-03-26 Terry Gordon Photographic firearm apparatus and method
US6605095B2 (en) * 2000-06-13 2003-08-12 Sdgi Holdings, Inc. Percutaneous needle alignment system and associated method
US7292262B2 (en) * 2003-07-21 2007-11-06 Raytheon Company Electronic firearm sight, and method of operating same
US20060005447A1 (en) * 2003-09-12 2006-01-12 Vitronics Inc. Processor aided firing of small arms
US20050123883A1 (en) * 2003-12-09 2005-06-09 Kennen John S. Simulated hunting apparatus and method for using same
EP1580516A1 (en) * 2004-03-26 2005-09-28 Saab Ab Device and method for evaluating the aiming behaviour of a weapon
US20050252063A1 (en) * 2004-05-12 2005-11-17 Flannigan Timothy A Imaging system for optical devices
US20050268521A1 (en) * 2004-06-07 2005-12-08 Raytheon Company Electronic sight for firearm, and method of operating same
US7124531B1 (en) 2004-12-23 2006-10-24 Raytheon Company Method and apparatus for safe operation of an electronic firearm sight
US7210262B2 (en) * 2004-12-23 2007-05-01 Raytheon Company Method and apparatus for safe operation of an electronic firearm sight depending upon detected ambient illumination
US7121036B1 (en) * 2004-12-23 2006-10-17 Raytheon Company Method and apparatus for safe operation of an electronic firearm sight depending upon the detection of a selected color
US20060150468A1 (en) * 2005-01-11 2006-07-13 Zhao A method and system to display shooting-target and automatic-identify last hitting point by Digital image processing.
US20070238073A1 (en) * 2006-04-05 2007-10-11 The United States Of America As Represented By The Secretary Of The Navy Projectile targeting analysis
US20080022575A1 (en) * 2006-05-08 2008-01-31 Honeywell International Inc. Spotter scope
US9229230B2 (en) 2007-02-28 2016-01-05 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display
WO2011132068A2 (en) * 2010-04-23 2011-10-27 Nicolaas Jacobus Van Der Walt A simulated shooting device and system
US8520895B2 (en) * 2010-12-29 2013-08-27 Honeywell International Inc. System and method for range and velocity estimation in video data as a function of anthropometric measures
US9267761B2 (en) * 2011-03-15 2016-02-23 David A. Stewart Video camera gun barrel mounting and programming system
US20120258432A1 (en) * 2011-04-07 2012-10-11 Outwest Systems, Inc. Target Shooting System
KR101179074B1 (en) * 2011-12-13 2012-09-05 국방과학연구소 Airburst simulation apparatus and method of simulation for airbrust
US10480903B2 (en) 2012-04-30 2019-11-19 Trackingpoint, Inc. Rifle scope and method of providing embedded training
KR101468160B1 (en) * 2012-12-21 2014-12-05 주식회사 도담시스템스 Training system for improving shooting accuracy and its control method
US9415301B2 (en) * 2013-02-26 2016-08-16 Steelseries Aps Method and apparatus for processing control signals of an accessory
US9267762B2 (en) 2013-05-09 2016-02-23 Shooting Simulator, Llc System and method for marksmanship training
US10234240B2 (en) 2013-05-09 2019-03-19 Shooting Simulator, Llc System and method for marksmanship training
US10274287B2 (en) 2013-05-09 2019-04-30 Shooting Simulator, Llc System and method for marksmanship training
US10030937B2 (en) 2013-05-09 2018-07-24 Shooting Simulator, Llc System and method for marksmanship training
US10584940B2 (en) 2013-05-09 2020-03-10 Shooting Simulator, Llc System and method for marksmanship training
US9261332B2 (en) 2013-05-09 2016-02-16 Shooting Simulator, Llc System and method for marksmanship training
US20180321021A1 (en) * 2015-11-12 2018-11-08 Randy S. Teig Mechanically adaptable projectile and method of manufacturing the same
US10782096B2 (en) 2016-02-24 2020-09-22 James Anthony Pautler Skeet and bird tracker
US10648781B1 (en) * 2017-02-02 2020-05-12 Arthur J. Behiel Systems and methods for automatically scoring shooting sports
ES2684870B1 (en) * 2017-03-31 2019-07-19 Univ Rey Juan Carlos TRAINING SYSTEM FOR FIREARMS
WO2018222052A1 (en) * 2017-05-31 2018-12-06 Travision As Control and monitoring devices and system for shooting range
FR3095886B1 (en) * 2019-05-07 2023-05-19 Guillaume Dupont System and method for analyzing movement during sports shooting
US20220326596A1 (en) * 2019-09-10 2022-10-13 Fn Herstal S.A. Imaging system for firearm

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1277027A (en) * 1968-10-14 1972-06-07 Lucas Industries Ltd Brush assemblies
CH520916A (en) * 1970-02-18 1972-03-31 Contraves Ag System for the simultaneous testing and training of the operating teams of a large number of flame guns
US3964178A (en) * 1975-07-03 1976-06-22 The United States Of America As Represented By The Secretary Of The Navy Universal infantry weapons trainer
CH650857A5 (en) * 1979-07-11 1985-08-15 Hans Baasch Dr Ing Monitoring apparatus for determining and displaying the aiming error when aiming and firing at moving targets
US4290757A (en) * 1980-06-09 1981-09-22 The United States Of America As Represented By The Secretary Of The Navy Burst on target simulation device for training with rockets
DE3024247A1 (en) * 1980-06-27 1982-01-21 Fried. Krupp Gmbh, 4300 Essen DEVICE FOR LIMITING THE SHOOTING AREA OF A PISTON WEAPON, IN PARTICULAR A TANK CANNON, WHILE TRAINING SHOOTING
DE3133889C2 (en) * 1981-08-27 1984-04-26 Honeywell Gmbh, 6050 Offenbach Process for visual simulation
DE8400652U1 (en) * 1984-01-12 1985-05-02 Jezic, Dragan V., Baltimore, Md. Device for detecting a target on firearms
US4923401A (en) * 1988-11-25 1990-05-08 The United States Of America As Represented By The Secretary Of The Navy Long range light pen
US4963096A (en) * 1989-04-26 1990-10-16 Khattak Anwar S Device and method for improving shooting skills
US5194006A (en) * 1991-05-15 1993-03-16 Zaenglein Jr William Shooting simulating process and training device
DE19519503C2 (en) * 1995-05-27 1996-10-31 Gunnar Dipl Phys Gillessen System for recording, recording, examining and reproducing target and shot processes for shooters with small arms

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012013284A (en) * 2010-06-30 2012-01-19 Hitachi Kokusai Electric Inc Shooting training device
KR20220110657A (en) * 2021-01-31 2022-08-09 (주)이오시스템 Apparatus and method for displaying firearm's aiming indicator

Similar Documents

Publication Publication Date Title
JP4001918B2 (en) Landing position marker for normal or simulated shooting
JPH11510245A (en) Landing position marker for normal or simulated firing
US10234240B2 (en) System and method for marksmanship training
US8459997B2 (en) Shooting simulation system and method
US8794967B2 (en) Firearm training system
US5026158A (en) Apparatus and method for displaying and storing impact points of firearm projectiles on a sight field of view
US10030937B2 (en) System and method for marksmanship training
US4534735A (en) Fire simulation device for training in the operation of shoulder weapons and the like
US5649706A (en) Simulator and practice method
US6942486B2 (en) Training simulator for sharp shooting
US8888491B2 (en) Optical recognition system and method for simulated shooting
CA1194998A (en) Method of formation of a fictitious target in a training unit for aiming at targets
US8678824B2 (en) Shooting simulation system and method using an optical recognition system
US20070254266A1 (en) Marksmanship training device
EA030649B1 (en) Firearm aiming system with range finder, and method of acquiring a target
US8944821B2 (en) Simulation system and method for determining the compass bearing of directing means of a virtual projectile/missile firing device
US4854595A (en) Firearm aiming simulator device
US20060073439A1 (en) Simulation system, method and computer program
AU2020225664A1 (en) Device and method for shot analysis
US20210372738A1 (en) Device and method for shot analysis
JP4614783B2 (en) Shooting training system
AU2013254684A1 (en) 3D scenario recording with weapon effect simulation
EP1580516A1 (en) Device and method for evaluating the aiming behaviour of a weapon
KR101542926B1 (en) Simulation of fire shooting system
KR102151340B1 (en) impact point detection method of shooting system with bullet ball pellet