JP6856914B2 - インテリジェントな物体追跡 - Google Patents

インテリジェントな物体追跡 Download PDF

Info

Publication number
JP6856914B2
JP6856914B2 JP2020505399A JP2020505399A JP6856914B2 JP 6856914 B2 JP6856914 B2 JP 6856914B2 JP 2020505399 A JP2020505399 A JP 2020505399A JP 2020505399 A JP2020505399 A JP 2020505399A JP 6856914 B2 JP6856914 B2 JP 6856914B2
Authority
JP
Japan
Prior art keywords
light source
image
light
image sequence
pixel position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020505399A
Other languages
English (en)
Other versions
JP2020526853A (ja
Inventor
チェン、ハオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Taro Positioning Technology Co ltd
Hangzhou Taro Positioning Technology Co Ltd
Original Assignee
Hangzhou Taro Positioning Technology Co ltd
Hangzhou Taro Positioning Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Taro Positioning Technology Co ltd, Hangzhou Taro Positioning Technology Co Ltd filed Critical Hangzhou Taro Positioning Technology Co ltd
Publication of JP2020526853A publication Critical patent/JP2020526853A/ja
Application granted granted Critical
Publication of JP6856914B2 publication Critical patent/JP6856914B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/04Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand
    • F16M11/041Allowing quick release of the apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/04Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand
    • F16M11/06Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting
    • F16M11/10Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting around a horizontal axis
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/18Heads with mechanism for moving the apparatus relatively to the stand
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/20Undercarriages with or without wheels
    • F16M11/2007Undercarriages with or without wheels comprising means allowing pivoting adjustment
    • F16M11/2014Undercarriages with or without wheels comprising means allowing pivoting adjustment around a vertical axis
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M13/00Other supports for positioning apparatus or articles; Means for steadying hand-held apparatus or articles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M13/00Other supports for positioning apparatus or articles; Means for steadying hand-held apparatus or articles
    • F16M13/04Other supports for positioning apparatus or articles; Means for steadying hand-held apparatus or articles for supporting on, or holding steady relative to, a person, e.g. by chains, e.g. rifle butt or pistol grip supports, supports attached to the chest or head
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/70Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using electromagnetic waves other than radio waves
    • G01S1/703Details
    • G01S1/7032Transmitters
    • G01S1/7038Signal details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/20Undercarriages with or without wheels
    • F16M11/2007Undercarriages with or without wheels comprising means allowing pivoting adjustment
    • F16M11/2035Undercarriages with or without wheels comprising means allowing pivoting adjustment in more than one direction
    • F16M11/2042Undercarriages with or without wheels comprising means allowing pivoting adjustment in more than one direction constituted of several dependent joints
    • F16M11/205Undercarriages with or without wheels comprising means allowing pivoting adjustment in more than one direction constituted of several dependent joints the axis of rotation intersecting in a single point, e.g. gimbals
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/20Undercarriages with or without wheels
    • F16M11/2007Undercarriages with or without wheels comprising means allowing pivoting adjustment
    • F16M11/2035Undercarriages with or without wheels comprising means allowing pivoting adjustment in more than one direction
    • F16M11/2064Undercarriages with or without wheels comprising means allowing pivoting adjustment in more than one direction for tilting and panning
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/20Undercarriages with or without wheels
    • F16M11/24Undercarriages with or without wheels changeable in height or length of legs, also for transport only, e.g. by means of tubes screwed into each other
    • F16M11/242Undercarriages with or without wheels changeable in height or length of legs, also for transport only, e.g. by means of tubes screwed into each other by spreading of the legs
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M2200/00Details of stands or supports
    • F16M2200/04Balancing means
    • F16M2200/041Balancing means for balancing rotational movement of the head
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M2200/00Details of stands or supports
    • F16M2200/04Balancing means
    • F16M2200/044Balancing means for balancing rotational movement of the undercarriage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

視野(FOV:field−of−view)は、カメラによって撮像されるシーンの範囲である。FOV内の物体は、カメラでキャプチャまたは出力された画像に現れる。例えば、FOVは、カメラレンズがカメラの光学センサに入力される光を投影する立体角に対応し得る。
概して、一態様では、本発明は物体追跡のための方法に関する。方法は、カメラデバイスを使用してシーンの画像シーケンスをキャプチャするステップと、画像シーケンスに亘る局所的な光の変化のパターンに基づいて、シーン内の光源を検出するステップと、光源の検出に応答して、画像シーケンスの少なくとも1つの画像内の光源の場所と少なくとも1つの画像内の目標位置とを比較して結果を生成するステップと、結果に基づいて、光源が視野内の目標位置と実質的に整列するようにカメラデバイスの視野を変更するための制御信号を生成するステップとを含む。
概して、一態様では、本発明はカメラデバイスのための追跡コントローラに関する。追跡コントローラは、コンピュータプロセッサと、命令を格納するメモリとを備えている。命令は、実行時に、コンピュータプロセッサに、シーンの画像シーケンスを取得すること、画像シーケンスはカメラデバイスによってキャプチャされており、画像シーケンスに亘る局所的な光の変化のパターンに基づいて、シーン内の光源を検出すること、光源の検出に応答して、画像シーケンスの少なくとも1つの画像内の光源の場所と少なくとも1つの画像内の目標位置とを比較して結果を生成すること、結果に基づいて、光源が視野内の目標位置と実質的に整列するようにカメラデバイスの視野を変更するための制御信号を生成することを行わせる。
概して、一態様では、本発明は物体追跡のための命令を格納する非一時的なコンピュータ可読媒体に関する。命令は、コンピュータプロセッサによる実行時に、シーンの画像シーケンスを取得すること、画像シーケンスはカメラデバイスによってキャプチャされており、画像シーケンスに亘る局所的な光の変化のパターンに基づいて、シーン内の光源を検出すること、光源の検出に応答して、画像シーケンスの少なくとも1つの画像内の光源の場所と少なくとも1つの画像内の目標位置とを比較して結果を生成すること、結果に基づいて、光源が視野内の目標位置と実質的に整列するようにカメラデバイスの視野を変更するための制御信号を生成することのための機能を備える。
本発明の他の態様は、以下の説明および添付の特許請求の範囲から明らかになるであろう。
本発明の1つまたは複数の実施形態によるシステムの概略ブロック図を示す。 本発明の1つまたは複数の実施形態によるシステムの概略ブロック図を示す。 本発明の1つまたは複数の実施形態による方法フローチャートを示す。 本発明の1つまたは複数の実施形態による様々な例を示す。 本発明の1つまたは複数の実施形態による様々な例を示す。 本発明の1つまたは複数の実施形態による様々な例を示す。 本発明の1つまたは複数の実施形態による様々な例を示す。 本発明の1つまたは複数の実施形態による様々な例を示す。 本発明の1つまたは複数の実施形態によるコンピューティングシステムを示す。
本発明の特定の実施形態を、添付の図面を参照して詳細に説明する。様々な図における同様の構成要素は、一貫性のために同様の参照番号で示され得る。
本発明の実施形態の以下の詳細な説明では、本発明のより完全な理解を提供するために、多くの特定の詳細が記載されている。しかしながら、これらの特定の詳細なしで本発明を実施できることは、当業者には明らかであろう。他の例では、説明を不必要に複雑にすることを避けるために、既知の特徴は詳細に説明されていない。
以下の説明において、本発明の様々な実施形態において、図面に関して説明される構成要素は、他の図面に関して説明される1つまたは複数の同様の名称の構成要素と同等であり得る。簡潔にするために、これらの構成要素の少なくとも一部は、様々な凡例に基づいて暗黙的に識別される。さらに、これらの構成要素の説明は、各図面に関して繰り返されない。従って、各図面の構成要素の全ての実施形態は、参照により組み込まれ、1つまたは複数の同様の名称の構成要素を有する他のすべての図面内に任意に存在するものと想定される。さらに、本発明の様々な実施形態によれば、図面の構成要素の任意の記述は、任意の他の図面の対応する同様の名称の構成要素に関して説明された実施形態に加えて、それに関連して、またはその代わりに実施され得る任意の実施形態として解釈されるべきである。図面において、黒の実線と同一線上のドットは、実線と同一線上のドットの前および/または後の構成要素に類似する追加の構成要素が任意に存在してもよいことを示す。さらに、図面の構成要素を結ぶ実線または破線は、接続された構成要素間の関係を表す。破線は、関係に物理的な接続または物理的な要素が含まれないか、またはそれ以外に関連付けられないことを示す。
出願全体を通じて、順序番号(例えば、第1、第2、第3、その他)は、構成要素(即ち、出願における任意の名詞)の形容詞として使用し得る。順序番号の使用は、構成要素の特定の順序を暗示したり作成したりするものではなく、また、「前」、「後」、「単一」、および他のそのような用語の使用などによって明示的に開示されない限り、構成要素を単一の要素に限定するものでもない。むしろ、順序番号の使用は構成要素を区別するためのものである。例として、第1の要素は第2の要素とは異なり、第1の要素は複数の要素を包含し、要素の順序付けにおいて第2の要素に続いても(または先行しても)よい。
概して、本発明の実施形態は、カメラデバイスの視野(FOV)内の物体を追跡するためのシステム、方法、およびコンピュータ可読媒体を提供する。本発明の1つまたは複数の実施形態では、光源が物体に取り付けられ、カメラデバイスを使用して画像シーケンスがキャプチャされる。1つまたは複数の実施形態において、光源は、光の強度および/または色を時々変化させるストロボ光を放射する。画像シーケンス全体に亘る局所的な光の変化のパターンに基づいて、光源がFOV内で検出される。光源の検出に応じて、画像内の光源の場所と目標位置とを比較して、変位または移動パラメータなどの結果を生成する。従って、カメラデバイスホルダを制御するために、結果に基づいて制御信号が生成される。具体的には、カメラデバイスホルダは、光源がFOV内の目標位置と実質的に整列するように、制御信号に基づいてFOVを調整する。1つまたは複数の実施形態において、画像シーケンスはビデオ記録の一部であり、制御信号は、物体がビデオ記録のFOV内の目標位置に現れるようにする。
図1.1は、1つまたは複数の実施形態によるシステム(100)を示す。1つまたは複数の実施形態において、図1.1に示されるモジュールおよび構成要素の1つまたは複数は、省略、反復、および/または置換され得る。従って、本発明の実施形態は、図1.1に示されるモジュールの特定の配置に限定されると考えられるべきではない。
図1.1に示すように、システム(100)は、カメラレンズ(111)を有するカメラデバイス(110)、追跡コントローラ(120)、カメラデバイスホルダ(130)、シーン(140)、カメラレンズ(111)の視野(FOV)(141)、FOV(141)内に現れる物体(142)、および物体(142)に取り付けられた光源(143)を含む。さらに、カメラデバイス(110)、追跡コントローラ(120)、およびカメラデバイスホルダ(130)は、互いに通信可能に接続されている。本発明の1つまたは複数の実施形態では、カメラデバイス(110)、追跡コントローラ(120)、およびカメラデバイスホルダ(130)のうちの2つ以上が単一のデバイスに統合される。例えば、追跡コントローラ(120)の少なくとも一部は、カメラデバイス(110)に含まれ得る。別の例では、追跡コントローラ(120)の少なくとも一部は、カメラデバイスホルダ(130)に含まれ得る。さらに別の例では、追跡コントローラ(120)の一部がカメラデバイス(110)に含まれ、追跡コントローラ(120)の別の部分がカメラデバイスホルダ(130)に含まれる。
本発明の1つまたは複数の実施形態では、光源(143)は、光を放射する任意のデバイスである。1つまたは複数の実施形態において、光源(143)は発光ダイオード(LED)を含む。1つまたは複数の実施形態では、光源(143)は、強度および/または色を時々変化させるストロボ光を放射する。例えば、ストロボ光は、特定のデューティサイクル(即ち、光パターンが明るいレベルを有する時間の割合)及び繰返し率(即ち、単位時間の間に強度が何度も変化する)に応じた自由発振光変化パターン(free−running light change pattern)を放射し得る。本明細書で使用される場合、光変化パターンは、光の強度の変化および/または色の変化のパターンである。1つまたは複数の実施形態において、光源(143)は、カメラデバイス(110)のフレームレートと比較して低い繰り返し率(例えば、10ヘルツ、20ヘルツ、その他)で光変化パターンを放射する。フレームレートは、単位時間中にカメラデバイス(110)によってキャプチャされる多くの画像(例えば、静止画像のバーストまたはビデオ記録)である。1つまたは複数の実施形態において、光源(143)は、カメラデバイス(110)のフレームレートと同期する光変化パターンを放射する。
本発明の1つまたは複数の実施形態では、カメラデバイス(110)は、写真および/またはビデオ記録を撮影するためのカメラレンズ(例えば、カメラレンズ(111))と、関連部品とを備えたデバイスである。通信機能を備えた専用カメラは、カメラデバイス(110)の一例である。1つまたは複数の実施形態において、カメラデバイス(110)は、スマートフォンとして参照される、カメラを内蔵した携帯電話などのモバイルデバイスである。スマートフォンは、前面の大部分(例えば、70%以上)を占めるグラフィカルユーザインタフェースを備えたディスプレイを有し得る。カメラレンズ(111)は、スマートフォンの前面または背面に存在し得る。1つまたは複数の実施形態において、カメラデバイス(110)は、光源(143)のデューティサイクルおよび/または繰り返し率に基づいて画像キャプチャのフレームレートを制御するためのタイマを含む。
1つまたは複数の実施形態では、シーン(140)は、カメラデバイス(110)によって撮像される、アクションまたはイベントが発生する場所である。視野(FOV)(141)は、カメラレンズ(111)を使用してカメラデバイス(110)によって撮像されるシーン(140)の範囲である。換言すれば、FOV(141)内の物体は、カメラデバイス(110)によってキャプチャおよび/または出力された画像内に現れる。例えば、FOV(141)は、カメラデバイス(110)の関連する光学センサ(図示せず)に入力される光をカメラレンズ(111)が投影する立体角に対応し得る。1つまたは複数の実施形態において、FOV(141)は、カメラレンズ(111)がシーン(140)に向けられる方法、シーン(140)に対してズームされる方法、またはそれ以外にシーン(140)に対して配置される方法に応じてシーン(140)の異なる部分に対応している。1つまたは複数の実施形態において、カメラデバイス(110)は、ハードウェアコンポーネント、ソフトウェアコンポーネント、またはそれらの組み合わせを含む。1つまたは複数の実施形態において、カメラデバイス(110)は、以下の図7Aおよび7Bを参照して説明されるコンピューティングシステム(700)およびネットワーク(720)の少なくとも一部を含み得るか、またはそれ以外に使用して実施され得る。
本発明の1つまたは複数の実施形態では、カメラデバイスホルダ(130)は、カメラデバイス(110)を機械的に保持し、追跡コントローラ(120)からの制御信号に応答してカメラレンズ(111)のFOV(141)を調整するように構成される。例えば、カメラデバイスホルダ(130)は、カメラレンズ(111)のカメラ角度を調整するための電動傾斜旋回装置を含み得る。別の例では、カメラデバイスホルダ(130)は、シーン(140)に対するカメラレンズ(111)の位置を調整するための電動水平および垂直スライド装置を含み得る。スライド装置は、カメラデバイス(110)を保持および移動するための機械的ステージを含み得る。カメラデバイスホルダ(130)の例は、図3Aおよび3Bを参照して以下に説明される。
1つまたは複数の実施形態では、追跡コントローラ(120)は、カメラレンズ(111)のFOV(141)を調整するように構成されたハードウェアコンポーネント、ソフトウェアコンポーネント、またはそれらの組み合わせを含む。例えば、追跡コントローラ(120)は、カメラデバイスホルダ(130)を制御することによりFOV(141)を制御し得る。別の例では、追跡コントローラ(120)は、カメラレンズ(111)のズームレベルを制御することにより、FOV(141)をさらに制御し得る。1つまたは複数の実施形態において、追跡コントローラ(120)は、物体(142)がFOV(141)内の目標位置に現れるようにFOV(141)を制御する。1つまたは複数の実施形態において、追跡コントローラ(120)は、図2を参照して以下に説明される方法を使用してFOV(141)を制御する。1つまたは複数の実施形態では、追跡コントローラ(120)は、図1.2を参照して以下に説明される構成要素を含む。
図1.2は、1つまたは複数の実施形態による追跡コントローラ(120)の詳細を示している。図1.2の以下の説明は、図1.1において前に示された様々な構成要素を参照している。1つまたは複数の実施形態において、図1.2に示されるモジュールおよび構成要素の1つまたは複数は、省略、反復、および/または置換され得る。従って、本発明の実施形態は、図1.2に示されるモジュールの特定の配置に限定されると考えられるべきではない。
図1.2に示されるように、追跡コントローラ(120)は、ハードウェアプロセッサ(121)、メモリ(122)、およびリポジトリ(123)を含む。本発明の1つまたは複数の実施形態において、ハードウェアプロセッサ(121)は、図7Aに示される以下のコンピュータプロセッサ(702)に対応する。同様に、メモリ(122)およびリポジトリ(123)は、図7Aに示される以下の非永続的ストレージ(704)および/または永続的ストレージ(706)に対応する。例えば、メモリ(122)は、実行時に、ハードウェアプロセッサ(121)に図1.1において前に示されたカメラデバイス(110)のFOV調整機能を実行させるソフトウェア命令を記憶し得る。1つまたは複数の実施形態において、追跡コントローラ(120)は、図2を参照して説明される以下の方法フローチャートに従ってFOV調整機能を実行する。1つまたは複数の実施形態において、メモリ(122)は、図2を参照して説明される以下の方法フローチャートの1つまたは複数の部分を実行するための命令を格納する。1つまたは複数の実施形態において、追跡コントローラ(120)およびカメラデバイス(110)は単一のデバイスに統合される。そのような実施形態では、図2を参照して説明した方法フローチャートの1つまたは複数の部分を実行する命令は、スマートフォンまたは他のモバイルデバイス上で動作するように設計された、ユーザがインストール可能なソフトウェアアプリケーションである、モバイルアプリケーションまたはモバイルアプリの一部である。
さらに図1.2に示すように、リポジトリ(123)は、画像シーケンス(126)、光変化パターン(124)、変位(125)、移動パラメータ(128)、および目標位置(127)を含む。特に、画像シーケンス(126)は、カメラデバイス(111)によってキャプチャされた連続画像(例えば、画像A(126a))を含む。例えば、画像A(126a)は、特定の時点でFOV(141)によってカバーされるシーン(140)の一部に対応する。光変化パターン(124)は、画像シーケンス(126)に亘って異なる強度レベルおよび/または色の間で交互に変化する光の強度および/または色のパターンである。1つまたは複数の実施形態において、光変化パターン(124)は、画像シーケンス(126)の各画像内のスポットに対応する。例えば、スポットは、各画像内のピクセル位置または結合されたピクセル位置の集合によって定義され得る。1つまたは複数の実施形態において、光変化パターン(124)は、光源(143)から放射されるストロボ光によって生じ、かつ各画像内の光源(143)の場所を示す。換言すれば、各画像内の光源(143)の場所は、画像シーケンス(126)に亘って光変化パターン(124)がどこで発見されるかに基づいて決定され得る。例えば、光変化パターン(124)は、光源(143)が画像A(126a)内の場所A(127a)にあることを示している。同様に、画像シーケンス(126)内の他の各画像は、光源(143)の場所に関連付けられている。目標位置(127)は、追跡コントローラ(120)が物体(142)を追跡するように構成されている所定の位置である。例えば、目標位置(127)は、画像シーケンス(126)の各画像の中心に対応する、FOV(141)の中心として定義され得る。換言すれば、追跡コントローラ(120)は、調整後の画像内の中心(即ち、目標位置(127))に物体(142)が現れるようにFOV(141)を調整するように構成される。他の例では、目標位置(127)は、FOV(141)の中心とは異なる位置として定義され得る。変位(125)は、目標位置(127)と画像内の光源(143)の場所(例えば、場所A(127a))との間の距離である。1つまたは複数の実施形態において、変位(125)は、水平方向距離と垂直距離とを含む。変位(125)は、多数のピクセルまたは他の適切な距離スケールに基づいて表され得る。1つまたは複数の実施形態において、物体(142)は、光源(143)の場所(例えば、場所A(127a))が画像シーケンス(126)内の1つの画像から次に画像に変化し得るような移動物体であり得る。そのような実施形態では、移動パラメータ(128)は、経時的な光源(143)の場所(例えば、場所A(127a))の変化率である。例えば、移動パラメータ(128)は、画像シーケンス(126)内の1つの画像から次の画像への光源(143)の場所(例えば、場所A(127a))の変化を含み得る。物体(142)の移動方向に応じて、移動パラメータ(128)は、水平部分と垂直部分とを含み得る。数学的には、移動パラメータ(128)は、時間の経過に伴う変位(125)の導関数に対応する。
1つまたは複数の実施形態において、追跡コントローラ(120)は、上記した画像シーケンス(126)、光変化パターン(124)、変位(125)、移動パラメータ(128)、および目標位置(127)に基づいてFOV調整機能を実行する。具体的には、追跡コントローラ(120)は、図2を参照して以下に説明される方法を使用してFOV調整機能を実行する。画像シーケンス(126)、光変化パターン(124)、変位(125)、および移動パラメータ(128)の例を、図4〜6を参照して以下に説明する。
図2は、1つまたは複数の実施形態によるフローチャートを示す。図2に示されるプロセスは、例えば、図1.1および1.2を参照して前に説明された1つまたは複数の構成要素によって実行され得る。図2に示される1つまたは複数のステップは、省略され、繰り返され、および/または本発明の異なる実施形態の間で異なる順序で実行され得る。従って、本発明の実施形態は、図2に示されるステップの特定の数および配置に限定されるものと考えられるべきではない。
最初に、ステップ201において、シーン内の光源が起動される。本発明の1つまたは複数の実施形態では、光源はシーン内の物体に取り付けられる。1つまたは複数の実施形態では、光源は、強度および/または色を時々変化させるストロボ光を放射する。例えば、ストロボ光は、光源が起動されている(例えば、点灯している)ことに応答して自由発振光パターンを放射する。1つまたは複数の実施形態において、光源は、カメラデバイスのフレームレートと比較して低い繰り返し率(例えば、10ヘルツ、20ヘルツなど)でストロボ光を放射する。1つまたは複数の実施形態において、光源は、カメラデバイスのフレームレートと同期したストロボ光を放射する。例えば、ストロボ光は、追跡コントローラおよび/またはカメラデバイスから送信されたトリガー信号に基づいて開始および/または同期され得る。
ステップ202において、シーンの画像シーケンスがカメラデバイスによってキャプチャされる。特に、物体は、カメラレンズの視野(FOV)内にあり、かつ画像シーケンス内に現れる。例えば、画像シーケンスは、静止画像のバーストを含むか、または静止画像のバーストの一部であり得る。別の例では、画像シーケンスはビデオ記録を含むか、またはビデオ記録の一部であり得る。1つまたは複数の実施形態では、シーンの画像シーケンスは、光源がストロボ光を放射する間にキャプチャされる。1つまたは複数の実施形態では、画像シーケンスのフレームレートは、連続画像(または、シーケンス内の特定の間隔を有する画像のペア)が光源からの交互の明るいレベルと暗いレベル、および/または交互の色を含むように、光源のデューティサイクルおよび/または繰り返し率に基づいて選択される。例えば、光源は自由発振であり得、フレームレートは、自由発振光源の所定のデューティサイクルおよび/または繰り返し率に基づいて選択される。1つまたは複数の実施形態において、カメラデバイスのタイマは、選択されたフレームレートに従って画像キャプチャを制御するために使用される。
1つまたは複数の実施形態において、光源のデューティサイクルおよび/または繰り返し率は、連続画像(または、シーケンス内の特定の間隔を有する画像のペア)が光源からの交互の明るいレベルと暗いレベル、および/または交互の色を含むように、画像シーケンスのフレームレートに基づいて選択される。例えば、フレームレートは予め決定されてもよく、光源は、例えば、カメラデバイスからのトリガー信号に基づいて、フレームレートに同期される。
ステップ203において、画像シーケンスに亘る局所的な光変化パターンに基づいて、光源がシーン内で検出される。具体的には、光源から放射されたストロボ光は、カメラデバイスの光センサが受け取る光の強度および/または色の変化を引き起こし、その結果、画像シーケンスに亘って局所的な光変化パターンが生じる。1つまたは複数の実施形態において、ストロボ光の強度は、局所的な強度の変化パターンが各画像内で発見される場所のサイズを制御するために調整される。例えば、場所サイズは、FOVの水平寸法および垂直寸法の割合(例えば、1%、3%、その他)に制限され得る。1つまたは複数の実施形態において、場所およびサイズは、カメラデバイスの光学センサによって認識される、連続画像における交互の明るいレベルと暗いレベルおよび/または交互の色の差が所定の閾値を超える場所に定義される。1つまたは複数の実施形態において、場所は画像内の光源の場所として参照される。
1つまたは複数の実施形態において、画像シーケンス内の画像のペアは、対応するピクセルの強度および/または色値の減算により比較される。具体的には、強度および/または色値は光学センサによって生成される。特に、1つの画像内のピクセルの強度および/または色値は、別の画像内の対応するピクセルの強度および/または色値から減算されて、減算結果が生成される。減算結果において交互の明るいレベルと暗いレベルにおける差、および/または交互の色における差が発見されたピクセルは、画像内の光源の場所の一部として選択される。光源のデューティサイクル/繰り返し率対画像シーケンスのフレームレートに応じて、画像のペアは、連続画像であってもよく、または3個の画像毎などの特定の数の画像で分離された2つの画像であってもよい。
ステップ204において、画像シーケンスが分析されて、少なくとも1つの画像内の光源の場所、および画像シーケンスに亘る光源の移動が決定される。1つまたは複数の実施形態において、光源の場所は、カメラデバイスの光学センサによって認識される、画像シーケンスの交互の明るいレベルと暗いレベルにおける差、および/または交互の色における差が所定の閾値を超える場所に基づいて決定される。1つまたは複数の実施形態において、光源の移動は、画像シーケンスに亘る場所の変化率に基づいて決定される。
ステップ205において、光源の検出に応答して、光源の場所と少なくとも1つの画像内の目標位置とが比較されて、結果が生成される。1つまたは複数の実施形態において、結果は、場所から目標位置への変位を含む。1つまたは複数の実施形態では、変位は、画像シーケンス内の1つの画像から次の画像へと変化し、物体が移動物体であることを示している。そのような実施形態では、例えば、1つの画像から次の画像への経時的な変位の変化率は、移動パラメータとして計算される。
ステップ206において、カメラデバイスの向きを決めるために、結果に基づいて制御信号が生成される。1つまたは複数の実施形態では、制御信号は、変位と反対方向にカメラレンズの向きを調整するように構成される。例えば、目標位置が画像内の光源の場所の右側にあることを変位が示す場合、制御信号は、カメラレンズの向きを左に調整する。1つまたは複数の実施形態において、制御信号は、シーンに対するカメラの相対位置を変位に対して反対方向に調整するように構成される。例えば、目標位置が画像内の光源の場所の右側にあることを変位が示す場合、制御信号はカメラの相対位置を左に調整する。1つまたは複数の実施形態において、移動パラメータは、制御信号によって生じる調整量を微調整する際に考慮される。
ステップ207において、制御信号は、カメラデバイスが取り付けられているカメラデバイスホルダ(例えば、傾斜旋回装置または機械的ステージ)に送信される。従って、カメラレンズの向きまたはカメラデバイスの相対位置は、変位と反対方向に調整される。
ステップ208において、目標位置と光源との間の実質的な位置合わせが、カメラデバイスのFOV内で検出される。特に、実質的な位置合わせは、カメラレンズの向きまたは変位と反対方向のカメラデバイスの相対位置を調整した結果である。
ステップ209において、実質的な位置合わせの検出に応答して、シーンの追加画像がキャプチャされる。1つまたは複数の実施形態において、連続画像は、カメラデバイスによって規則的な繰り返し率(即ち、フレームレート)で連続的にキャプチャされ出力される。そのような実施形態では、制御信号を生成するために分析される画像シーケンスは、追加画像に先行するローリング時間窓(例えば、2個の連続画像、5個の連続画像、10個の連続画像などのローリングシーケンス)に制限される。時間が経過すると、追加画像は、更新された制御信号を生成してFOV内の物体を継続的に追跡するための更新された画像シーケンスの一部となる。
1つまたは複数の実施形態において、制御信号を生成するために分析される画像シーケンスは、カメラデバイスによって出力されることなく、制御情報として指定される。対照的に、光源(従って、物体)が目標位置と実質的に整列する追加画像は、カメラデバイスによって出力される。例えば、制御情報は、破棄されるか、それ以外にカメラデバイスから除去されるまで、追加画像とは別に保存され得る。
ステップ210において、画像のキャプチャを継続するかどうかの判定が行われる。決定が肯定的である場合、即ち、画像キャプチャが継続されるべきである場合、方法はステップ202に戻る。決定が否定的である場合、即ち、画像のキャプチャを続行しない場合、方法は終了する。
図3A、3B、4、5、および6は、本発明の1つまたは複数の実施形態による様々な例を示す。図3A、3B、4、5、および6に示される例は、例えば、図1.1および1.2において前に示された1つまたは複数の構成要素、および図2において前に示された方法フローチャートに基づいてもよい。1つまたは複数の実施形態において、図3A、3B、4、5、および6に示されるモジュールおよび構成要素の1つまたは複数は、省略、反復、および/または置換され得る。従って、本発明の実施形態は、図3A、3B、4、5、および6に示されるモジュールの特定の配置に限定されると考えられるべきではない。
図3Aは、図1.1において前に示されたカメラデバイスホルダ(130)の一例としての電動カメラモバイルデバイススタンド(210)を示している。加えて、電動カメラモバイルデバイススタンド(210)によって機械的に保持されるカメラモバイルデバイス(201)(例えば、カメラレンズ(220)を有するスマートフォン)は、図1.1において前に示されたカメラデバイス(110)の一例である。本発明の1つまたは複数の実施形態では、電動カメラモバイルデバイススタンド(210)は、ホルダ(221)、傾斜シャフト(203)、U字ブラケット(204)、回転シャフト(209)、およびスタンド(222)を含む電気機械アセンブリである。ホルダ(221)は、カメラモバイルデバイス(201)を機械的に保持し、傾斜シャフト(203)に機械的に連結するように構成される。スタンド(222)は、固体表面上に配置されている間、電動カメラモバイルデバイススタンド(210)の機械的安定性を維持するように構成されている。明示的には示されていないが、U字ブラケット(204)は、傾斜シャフト(203)に連結された傾斜モータ、回転シャフト(209)に連結された回転モータ、および図1.1において前に示されたカメラデバイス(110)および/または追跡コントローラ(120)と通信するように構成された通信インタフェースを収容する。例えば、通信インタフェースは、ブルートゥース(登録商標)、NFC、USB、または他の無線/有線通信インタフェースに基づくものであり得る。1つまたは複数の実施形態において、回転シャフト(209)は、通信インタフェースを介して追跡コントローラ(120)から受信した制御信号に応答して回転モータにより回転軸(209−1)を中心に回転可能である。同様に、傾斜シャフト(203)は、通信インタフェースを介して追跡コントローラ(120)から受信した制御信号に応答して、傾斜モータにより傾斜軸(203−1)を中心に回転可能である。傾斜軸(203−1)を中心にホルダ(221)を傾斜させること、および/またはホルダ(221)を傾斜シャフト(203)及びブラケット(204)と共に回転軸(209−1)を中心に回転させることに応答して、カメラレンズ(220)の向きを調整することができる。従って、カメラレンズ(220)のFOV(220−1)は、カメラレンズ(220)の向きに従って調整される。
図3Bは、図1.1において前に示されたカメラデバイスホルダ(130)の一例としてのカメラモバイルデバイスのハンドヘルドグリップ(800)を示している。加えて、カメラモバイルデバイスのハンドヘルドグリップ(800)によって機械的に保持されるカメラモバイルデバイス(201)(例えば、カメラレンズ(220)を有するスマートフォン)は、図1.1において前に示されたカメラデバイス(110)の一例である。本発明の1つまたは複数の実施形態では、カメラモバイルデバイスのハンドヘルドグリップ(800)は、ホルダ(221)、傾斜シャフト(203)、傾斜モータ(213)、回転シャフト(209)、回転モータ(219)、ハンドヘルドグリップ(222)を含む電気機械アセンブリである。ホルダ(221)は、カメラモバイルデバイス(201)を機械的に保持し、傾斜シャフト(203)に機械的に連結するように構成される。ハンドヘルドグリップ(222)は、観察者による手持ち状態である間、カメラモバイルデバイスのハンドヘルドグリップ(800)の機械的安定性を維持するように構成される。明示的に示されていないが、ハンドヘルドグリップ(222)は、図1.1において前に示されたカメラデバイス(110)および/または追跡コントローラ(120)と通信するように構成された通信インタフェースを含む。例えば、通信インタフェースは、ブルートゥース(登録商標)、NFC、USB、または他の無線/有線通信インタフェースに基づくものであり得る。1つまたは複数の実施形態において、回転シャフト(209)は、通信インタフェースを介して追跡コントローラ(120)から受信した制御信号に応答して、回転モータ(219)により回転軸(209−1)を中心に回転可能である。同様に、傾斜シャフト(203)は、通信インタフェースを介して追跡コントローラ(120)から受信した制御信号に応答して、傾斜モータ(213)により傾斜軸(203−1)を中心に回転可能である。傾斜軸(203−1)を中心にホルダ(221)を傾斜させること、および/またはホルダ(221)を傾斜シャフト(203)および傾斜モータ(213)と共に回転軸(209−1)を中心に回転させることに応答して、カメラレンズ(220)の向きを調整することができる。従って、カメラレンズ(220)のFOV(220−1)は、カメラレンズ(220)の向きに従って調整される。
図4は、図1.1および1.2において前に示された光源(143)の光変化パターン(124)の一例を示している。図4に示すように、横軸は時間に対応し、縦軸は光の強度に対応する。特に、光変化パターン(124)は、明るいレベル(400a)と暗いレベル(400b)との間で経時的に交互に変化する光の強度のパターンである。例えば、光の強度の明るいレベル(400a)は、期間A(410)に亘って持続し、特定の繰り返し率で経時的に繰り返され得る。光の強度が明るいレベル(400a)と暗いレベル(400b)との間で経時的に交互に変化する間、画像シーケンスは、カメラデバイスによって周期的にキャプチャされる。例えば、シーケンス内の連続画像は、期間B(420)、期間C(430)などによって互いに分離された時点A(401a)、時点B(401b)、時点C(401c)などでキャプチャされ得る。特に、期間A(410)は、時点B(401b)のような少なくとも1つの画像キャプチャ時点を包含する。図4に示される光変化パターン(124)は光の強度の変化のパターンであるが、光変化パターン(124)は、他の例では色の変化をも含み得る。換言すれば、明るいレベル(400a)と暗いレベル(400b)は、色の変化を表すために異なる色で置換または補足することができる。
図5は、図1.1および1.2において前に示されたシーン(140)の画像シーケンス(126)の例を示している。図5に示すように、画像シーケンス(126)は、図4において前に示された時点A(401a)、時点B(401b)、時点C(401c)などでキャプチャされた画像A(126a)、画像B(126b)、画像C(126c)などを含む。図4を参照して前に説明した光変化パターン(124)の例によれば、光源(143)は、画像A(126a)、画像B(126b)、画像C(126c)などにおいて、「a」とマークされた場所に、暗いスポットと明るいスポットとが交互に現れる。対照的に、画像A(126a)、画像B(126b)、画像C(126c)などにおいて、「b」とマークされた別の場所では、光の強度は実質的に一定のままである。例えば、「a」とマークされた場所は、画像A(126a)および画像B(126b)の対応するピクセルの強度値を減算して、減算結果(126d)を生成することによって決定され得る。同様に、「a」とマークされた場所は、画像B(126b)および画像C(126c)の対応するピクセルの強度値を減算して、減算結果(126d)を生成することによってさらに決定され得る。減算結果(126d)では、黒色は差異がないことを示し、白色は非ゼロの差異を示す。従って、光源の場所は、減算結果(126d)の白点に対応する。
さらに、図5に示すように、各画像の中心は目標位置(127)として定義される。従って、「a」とマークされた場所から目標位置(127)までの距離は、変位(125)に対応する。図5に示す「a」とマークされた場所、目標位置(127)、および変位(125)は、図1.2において前にそれぞれ示された場所A(127a)、目標位置(127)、および変位(125)の例である。1つまたは複数の実施形態において、「a」とマークされた場所は、画像A(126a)、画像B(126b)、画像C(126c)などの間で変化する。画像A(126a)、画像B(126b)、画像C(126c)などに亘って「a」とマークされた場所の変化率は、図1.2において前に示された移動パラメータ(128)に対応する。
図6は、図4を参照して前に説明した画像シーケンス(126)の例を含むビデオ記録(600)の例を示している。例示的なシナリオにおいて、目標位置は画像の中心である。図6に示すように、光源(143)は、画像シーケンス(126)内の画像(例えば、画像A(126a))の左側部分の場所において特定される。特に、光源(143)は、男性の両手(即ち、物体(142))によって保持されている。例えば、光源(143)の場所は、図5において前に示された画像A(126a)、画像B(126b)、画像C(126c)などの交互の暗いスポットと明るいスポットに基づいて特定される。換言すれば、光源(143)は、図5に示された画像A(126a)、画像B(126b)、画像C(126c)などにおいて「a」とマークされた場所に対応する。目標位置(即ち、画像中心)は、光源の場所の右側にあるため、物体追跡コントローラ(120)は、光源(143)を保持する男性(即ち、物体(142))が画像の中心に現れるように、カメラデバイス(110)を左に向けるように構成されている。従って、カメラデバイス(110)の向きは、物体(142)が画像X(126a)の中心に現れるように、光源(143)の特定された場所「a」に基づいて調整される。
本発明の実施形態は、コンピューティングシステム上で実施され得る。モバイル、デスクトップ、サーバ、ルータ、スイッチ、組み込みデバイス、またはその他の種類のハードウェアの任意の組み合わせが使用され得る。例えば、図7Aに示すように、コンピューティングシステム(700)は、一つまたは複数のコンピュータプロセッサ(702)、非永続的ストレージ(704)(例えば、ランダムアクセスメモリ(RAM)、キャッシュメモリなどの揮発性メモリ)、永続的ストレージ(706)(例えば、ハードディスク、コンパクトディスク(CD−ROM)ドライブまたはデジタル多用途ディスク(DVD)ドライブなどの光学ドライブ、フラッシュメモリ、その他)、通信インタフェース(712)(例えば、ブルートゥースインタフェース、赤外線インタフェース、ネットワークインタフェース、光インタフェース、その他)、および多数の他の構成要素および機能を含み得る。
コンピュータプロセッサ(702)は、命令を処理するための集積回路であり得る。例えば、コンピュータプロセッサ(単数または複数)は、プロセッサの1つまたは複数のコアまたはマイクロコアであり得る。コンピューティングシステム(700)は、タッチスクリーン、キーボード、マウス、マイク、タッチパッド、電子ペン、または他の任意のタイプの入力デバイスなどの1つまたは複数の入力デバイス(710)をも含み得る。
通信インタフェース(712)は、コンピューティングシステム(700)をネットワーク(図示せず)(例えば、ローカルエリアネットワーク(LAN)、インターネットなどのワイドエリアネットワーク(WAN)、モバイルネットワーク、または他の種類のネットワーク)および/または別のコンピューティングデバイスなどの別のデバイスに接続するための集積回路を含み得る。
さらに、コンピューティングシステム(700)は、スクリーン(例えば、液晶ディスプレイ(LCD)、プラズマディスプレイ、タッチスクリーン、陰極線管(CRT)モニタ、プロジェクタ、または他のディスプレイデバイス)、プリンタ、外部ストレージ、またはその他の出力デバイスなどの1つまたは複数の出力デバイス(708)を含み得る。1つまたは複数の出力デバイスは、入力デバイス(単数または複数)と同じか、または異なるものであり得る。入力および出力デバイス(単数または複数)は、コンピュータプロセッサ(単数または複数)(702)、非永続的ストレージ(704)、および永続的ストレージ(706)にローカルまたはリモートで接続され得る。多くの異なるタイプのコンピューティングシステムが存在し、前述の入力および出力デバイス(単数または複数)は、他の形式をとり得る。
本発明の実施形態を実行するためのコンピュータ可読プログラムコードの形態のソフトウェア命令は、CD、DVD、ストレージデバイス、ディスケット、テープ、フラッシュメモリ、物理メモリ、またはその他のコンピュータ可読ストレージ媒体などの非一時的コンピュータ可読媒体上に全体的または部分的に、一時的または永続的に格納され得る。具体的には、ソフトウェア命令は、プロセッサ(単数または複数)による実行時に、本発明の1つまたは複数の実施形態を実行するように構成されるコンピュータ可読プログラムコードに対応し得る。
図7Aのコンピューティングシステム(700)は、ネットワークに接続されるか、またはネットワークの一部であってもよい。例えば、図7Bに示されるように、ネットワーク(720)は、複数のノード(例えば、ノードX(722)、ノードY(724))を含み得る。各ノードは、図7Aに示されるコンピューティングシステムなどのコンピューティングシステムに対応してもよく、また組み合わされたノードのグループが、図7Aに示されるコンピューティングシステムに対応してもよい。一例として、本発明の実施形態は、他のノードに接続された分散システムのノード上で実施されてもよい。別の例として、本発明の実施形態は、複数のノードを有する分散コンピューティングシステム上で実施されてもよく、本発明の各部分は、分散コンピューティングシステム内の異なるノード上に位置してもよい。さらに、前述のコンピューティングシステム(700)の1つまたは複数の要素が、遠隔地に配置され、ネットワークを介して他の構成要素に接続されてもよい。
図7Bには示されていないが、ノードは、バックプレーンを介して他のノードに接続されているサーバシャーシ内のブレードに対応し得る。別の例として、ノードはデータセンター内のサーバに対応し得る。別の例として、ノードは、共有メモリおよび/またはリソースを備えたコンピュータプロセッサまたはコンピュータプロセッサのマイクロコアに対応し得る。
ネットワーク(720)内のノード(例えば、ノードX(722)、ノードY(724))は、クライアントデバイス(726)に対してサービスを提供するように構成され得る。例えば、ノードは、クラウドコンピューティングシステムの一部であり得る。ノードは、クライアントデバイス(726)からリクエストを受信し、クライアントデバイス(726)にレスポンスを送信する機能を含み得る。クライアントデバイス(726)は、図7Aに示されるコンピューティングシステムなどのコンピューティングシステムであり得る。さらに、クライアントデバイス(726)は、本発明の1つまたは複数の実施形態のすべてまたは一部を含み、かつ/または実行し得る。
図7Aおよび7Bに記載されたコンピューティングシステムまたはコンピューティングシステムのグループは、本明細書に開示された様々な動作を実行するための機能を含み得る。例えば、コンピューティングシステム(単数または複数)は、同じシステムまたは異なるシステム上のプロセス間で通信を実行し得る。何らかの形式のアクティブまたはパッシブ通信を使用する様々なメカニズムにより、同じデバイス上のプロセス間でのデータ交換を容易にすることができる。これらのプロセス間通信の代表例には、ファイル、信号、ソケット、メッセージキュー、パイプライン、セマフォ、共有メモリ、メッセージパッシング、およびメモリマップドファイルの実装が含まれるが、これらに限定されない。
図7Aにおけるコンピューティングシステムは、データリポジトリを実施し、かつ/またはデータリポジトリに接続され得る。例えば、データリポジトリの1つのタイプは、データベースである。データベースは、データの取得、変更、再編成、および削除を容易にするために構成された情報の集合である。データベース管理システム(DBMS)は、ユーザがデータベースを定義、作成、クエリ、更新するためのインタフェース、または管理データベースを提供するソフトウェアアプリケーションである。
ユーザまたはソフトウェアアプリケーションは、ステートメントまたはクエリをDBMSに送信し得る。次に、DBMSはステートメントを解釈する。ステートメントは、情報の要求、ステートメントの更新、ステートメントの作成、ステートメントの削除などを行うための選択ステートメントであり得る。さらに、ステートメントは、データ、またはデータコンテナ(データベース、テーブル、レコード、列、ビュー、その他)、識別子(単数または複数)、条件(比較演算子)、関数(例えば、結合、完全結合、カウント、平均、その他)、ソート(例えば、昇順、降順)、またはその他を指定するパラメータを含み得る。DBMSがステートメントを実行し得る。例えば、DBMSは、ステートメントに応答するために、読み取り、書き込み、削除、またはそれらの任意の組み合わせのために、メモリバッファ、レファレンス、またはインデックスファイルにアクセスし得る。DBMSは、永続的ストレージまたは非永続的ストレージからデータをロードして、クエリに応答するための計算を実行し得る。DBMSは、結果(単数または複数)をユーザまたはソフトウェアアプリケーションに返し得る。
上記の機能の説明は、図7Aのコンピューティングシステム、および図7Bのノードおよび/またはクライアントデバイスによって実行される機能のほんのいくつかの例を示している。本発明の1つまたは複数の実施形態を使用して、他の機能を実行し得る。
限られた数の実施形態に関して本発明を説明したが、本開示の利益を得た当業者は、本明細書に開示された本発明の範囲から逸脱しない他の実施形態を考案できることを理解するであろう。従って、本発明の範囲は、添付の特許請求の範囲によってのみ制限されるべきである。

Claims (14)

  1. 物体追跡のための方法であって、
    カメラデバイスの単一の光学センサを使用してシーンの画像シーケンスをキャプチャするステップと、
    前記単一の光学センサによってキャプチャされた前記画像シーケンスに亘る局所的な光の変化のパターンに基づいて、シーン内の光源を検出するステップと、
    前記光源の検出に応答して、前記画像シーケンスの少なくとも1つの画像内の前記光源の場所と前記少なくとも1つの画像内の目標位置とを比較して結果を生成するステップと、
    前記結果に基づいて、前記光源が視野内の前記目標位置と整列するように前記カメラデバイスの視野を変更するための制御信号を生成するステップと、
    前記局所的な光の変化のパターンは、前記少なくとも1つの画像内の少なくとも第1のピクセル位置を前記光源の場所として特定し、
    前記目標位置は、前記少なくとも1つの画像内の少なくとも第2のピクセル位置に対応しており、
    前記結果は、前記光源の少なくとも前記第1のピクセル位置と前記目標位置の少なくとも前記第2のピクセル位置との間のピクセル位置変位を含
    前記制御信号を、前記カメラデバイスが取り付けられている傾斜旋回装置に送信するステップと、
    前記制御信号の送信に応答して、視野内の前記目標位置と前記光源との間の位置合わせを検出するステップと、
    前記カメラデバイスを使用して、前記位置合わせの検出に応答して、シーンの追加画像をさらにキャプチャするステップと、
    前記追加画像に先行する時間窓において制御情報を取得するように前記画像シーケンスを指定するステップとを含み、
    前記カメラデバイスの視野が、前記制御信号に応答して前記傾斜旋回装置により、前記ピクセル位置変位とは反対の方向に変更され、
    前記位置合わせは、視野内の前記光源と少なくとも前記第2のピクセル位置との重なりに対応し、
    物体が前記追加画像内の少なくとも前記第2のピクセル位置と重なるように前記光源がシーン内の物体に取り付けられている、方法。
  2. 前記画像シーケンスに亘る局所的な光の変化のパターンが、前記光源から放射されるストロボ光によって生成される、請求項1に記載の方法。
  3. 前記局所的な光の変化のパターンは、光の強度の変化、光の色の変化、および光の強度の変化と色の変化との組み合わせからなる群から選択される少なくとも1つを含む、請求項1に記載の方法。
  4. 前記画像シーケンスを分析して、前記少なくとも1つの画像内の前記光源の場所および前記画像シーケンスに亘る前記光源の移動を決定するステップをさらに含み、
    前記制御信号を生成することは、前記移動に基づく、請求項1に記載の方法。
  5. 前記画像シーケンスおよび前記追加画像は、ビデオ記録におけるビデオフレームのシーケンスの一部である、請求項に記載の方法。
  6. カメラデバイスのための追跡コントローラであって、
    コンピュータプロセッサと、
    命令を格納するメモリとを備え、前記命令は、実行時に、前記コンピュータプロセッサに、
    シーンの画像シーケンスを取得すること、前記画像シーケンスはカメラデバイスの単一の光学センサによってキャプチャされており、
    前記単一の光学センサによってキャプチャされた前記画像シーケンスに亘る局所的な光の変化のパターンに基づいて、シーン内の光源を検出すること、
    前記光源の検出に応答して、前記画像シーケンスの少なくとも1つの画像内の前記光源の場所と前記少なくとも1つの画像内の目標位置とを比較して結果を生成すること、
    前記結果に基づいて、前記光源が視野内の前記目標位置と整列するように前記カメラデバイスの視野を変更するための制御信号を生成すること、
    前記局所的な光の変化のパターンは、前記少なくとも1つの画像内の少なくとも第1のピクセル位置を前記光源の場所として特定し、
    前記目標位置は、前記少なくとも1つの画像内の少なくとも第2のピクセル位置に対応しており、
    前記結果は、前記光源の少なくとも前記第1のピクセル位置と前記目標位置の少なくとも前記第2のピクセル位置との間のピクセル位置変位を含
    前記カメラデバイスが取り付けられている傾斜旋回装置に制御信号を送信すること、
    視野内の前記目標位置と前記光源との間の位置合わせを検出すること、
    前記位置合わせの検出に応答して、前記カメラデバイスにシーンの追加画像をさらにキャプチャさせること、
    前記追加画像に先行する時間窓において制御情報を取得するように前記画像シーケンスを指定することを行わせ、
    前記カメラデバイスの視野が、前記制御信号に応答して前記傾斜旋回装置により、前記ピクセル位置変位とは反対の方向に変更され、
    前記位置合わせは、視野内の前記光源と少なくとも前記第2のピクセル位置との重なりに対応し、
    物体が前記追加画像内の少なくとも前記第2のピクセル位置と重なるように前記光源がシーン内の物体に取り付けられている、追跡コントローラ。
  7. 前記画像シーケンスに亘る局所的な光の変化のパターンが、前記光源から放射されるストロボ光によって生成される、請求項に記載の追跡コントローラ。
  8. 前記局所的な光の変化のパターンは、光の強度の変化、光の色の変化、および光の強度と色の変化の組み合わせからなる群から選択される少なくとも1つを含む、請求項に記載の追跡コントローラ。
  9. 前記命令は、実行時に、前記コンピュータプロセッサに、
    前記画像シーケンスを分析して、前記少なくとも1つの画像内の前記光源の場所および前記画像シーケンスに亘る前記光源の移動を決定することを行わせ、
    前記制御信号を生成することは前記移動にさらに基づく、請求項に記載の追跡コントローラ。
  10. 前記画像シーケンスおよび前記追加画像は、ビデオ記録におけるビデオフレームのシーケンスの一部である、請求項に記載の追跡コントローラ。
  11. 物体追跡のための命令を格納する非一時的なコンピュータ可読媒体であって、前記命令は、コンピュータプロセッサによる実行時に、
    シーンの画像シーケンスを取得すること、前記画像シーケンスはカメラデバイスの単一の光学センサによってキャプチャされており、
    前記単一の光学センサによってキャプチャされた前記画像シーケンスに亘る局所的な光の変化のパターンに基づいて、シーン内の光源を検出すること、
    前記光源の検出に応答して、前記画像シーケンスの少なくとも1つの画像内の光源の場所と前記少なくとも1つの画像内の目標位置とを比較して結果を生成すること、
    前記結果に基づいて、前記光源が視野内の前記目標位置と整列するように前記カメラデバイスの視野を変更するための制御信号を生成すること、
    前記局所的な光の変化のパターンは、前記少なくとも1つの画像内の少なくとも第1のピクセル位置を前記光源の場所として特定し、
    前記目標位置は、前記少なくとも1つの画像内の少なくとも第2のピクセル位置に対応しており、
    前記結果は、前記光源の少なくとも前記第1のピクセル位置と前記目標位置の少なくとも前記第2のピクセル位置との間のピクセル位置変位を含
    前記制御信号を、前記カメラデバイスが取り付けられている傾斜旋回装置に送信すること、
    前記制御信号の送信に応答して、視野内の前記目標位置と前記光源との間の位置合わせを検出すること、
    前記カメラデバイスを使用して、前記位置合わせの検出に応答して、シーンの追加画像をさらにキャプチャすること、
    前記追加画像に先行する時間窓において制御情報を取得するように前記画像シーケンスを指定することのための機能を備え、
    前記カメラデバイスの視野が、前記制御信号に応答して前記傾斜旋回装置により、前記ピクセル位置変位とは反対の方向に変更され、
    前記位置合わせは、視野内の前記光源と少なくとも前記第2のピクセル位置との重なりに対応し、
    物体が追加画像内の少なくとも前記第2のピクセル位置と重なるように前記光源がシーン内の物体に取り付けられている、非一時的なコンピュータ可読媒体。
  12. 前記画像シーケンスに亘る局所的な光の変化のパターンは、前記光源から放射されるストロボ光によって生成される、請求項11に記載の非一時的なコンピュータ可読媒体。
  13. 前記局所的な光の変化のパターンは、光の強度の変化、光の色の変化、および光の強度と色の変化の組み合わせからなる群から選択される少なくとも1つを含む、請求項12に記載の非一時的なコンピュータ可読媒体。
  14. 前記命令は、前記コンピュータプロセッサによる実行時に、
    前記画像シーケンスを分析して、前記少なくとも1つの画像内の前記光源の場所および前記画像シーケンスに亘る前記光源の移動を決定することのための機能をさらに備え、
    前記制御信号を生成することは、前記移動にさらに基づく、請求項11に記載の非一時的なコンピュータ可読媒体。
JP2020505399A 2017-07-18 2017-07-18 インテリジェントな物体追跡 Active JP6856914B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/093439 WO2019014861A1 (en) 2017-07-18 2017-07-18 INTELLIGENT FOLLOWING OF OBJECTS

Publications (2)

Publication Number Publication Date
JP2020526853A JP2020526853A (ja) 2020-08-31
JP6856914B2 true JP6856914B2 (ja) 2021-04-14

Family

ID=63633645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505399A Active JP6856914B2 (ja) 2017-07-18 2017-07-18 インテリジェントな物体追跡

Country Status (6)

Country Link
US (3) US10587813B2 (ja)
EP (1) EP3656118A4 (ja)
JP (1) JP6856914B2 (ja)
CN (3) CN108605081B (ja)
TW (3) TWI716708B (ja)
WO (3) WO2019014861A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6856914B2 (ja) 2017-07-18 2021-04-14 ハンジョウ タロ ポジショニング テクノロジー カンパニー リミテッドHangzhou Taro Positioning Technology Co.,Ltd. インテリジェントな物体追跡
US11364637B2 (en) * 2017-07-18 2022-06-21 Hangzhou Taro Positioning Technology Co., Ltd. Intelligent object tracking
JP7210872B2 (ja) * 2017-07-19 2023-01-24 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
TWM560035U (zh) * 2017-11-13 2018-05-11 鄭宇傑 影像追蹤裝置
CN112313576B (zh) * 2018-06-19 2022-09-06 杭州他若定位科技有限公司 具有稳定功能的相机移动设备支架
US11158074B1 (en) * 2018-10-02 2021-10-26 Facebook Technologies, Llc Depth sensing using temporal coding
WO2020118624A1 (en) * 2018-12-13 2020-06-18 Hangzhou Taro Positioning Technology Co., Ltd. Camera mobile device stabilization using a high frame rate auxiliary imaging element
US11831906B2 (en) * 2019-01-02 2023-11-28 Hangzhou Taro Positioning Technology Co., Ltd. Automated film-making using image-based object tracking
US11900616B2 (en) 2019-01-08 2024-02-13 Hangzhou Taro Positioning Technology Co., Ltd. Determining region-of-interest of an object using image-based object tracking
CN113196737B (zh) * 2019-01-09 2022-10-11 杭州他若定位科技有限公司 使用基于图像的对象跟踪进行定向声音捕获
WO2020232703A1 (zh) * 2019-05-23 2020-11-26 深圳市瑞立视多媒体科技有限公司 刚体识别方法、装置、***及终端设备
CN110348418B (zh) * 2019-07-17 2022-03-11 上海商汤智能科技有限公司 目标跟踪方法及装置、智能移动设备和存储介质
KR102216968B1 (ko) * 2019-09-06 2021-02-18 주식회사 원더풀플랫폼 크래들을 이용한 도우미 시스템
TWI772830B (zh) * 2020-07-02 2022-08-01 黑快馬股份有限公司 具有畫面穩定功能的跟拍系統及具有畫面穩定功能的跟拍方法
CN113923338A (zh) * 2020-07-07 2022-01-11 黑快马股份有限公司 具有画面稳定功能的跟拍***及具有画面稳定功能的跟拍方法
CN111830520B (zh) * 2020-07-09 2023-08-04 广东诚浩工程项目管理有限公司 一种工程建设监理质量验收实测实量装置及方法
US11165969B1 (en) * 2020-08-03 2021-11-02 Sky Castle Toys LLC System and method for adding auxiliary lights to a camera to create fluorescence in selected features of a captured image
CN114964183B (zh) * 2022-07-28 2022-10-25 金田产业发展(山东)集团有限公司 一种便携式定位导航工程勘测装置

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5764786A (en) * 1993-06-10 1998-06-09 Kuwashima; Shigesumi Moving object measurement device employing a three-dimensional analysis to obtain characteristics of the moving object
US6618117B2 (en) * 1997-07-12 2003-09-09 Silverbrook Research Pty Ltd Image sensing apparatus including a microcontroller
US6803989B2 (en) * 1997-07-15 2004-10-12 Silverbrook Research Pty Ltd Image printing apparatus including a microcontroller
EP2306229A1 (en) * 1998-05-25 2011-04-06 Panasonic Corporation Range finder device and camera
JP2000165850A (ja) * 1998-11-25 2000-06-16 Matsushita Electric Ind Co Ltd 移動体追尾装置
JP2001305645A (ja) * 2000-04-21 2001-11-02 Fuji Photo Film Co Ltd カメラ及び雲台装置
TW543323B (en) * 2000-10-03 2003-07-21 Jestertek Inc Multiple camera control system
US6515740B2 (en) * 2000-11-09 2003-02-04 Canesta, Inc. Methods for CMOS-compatible three-dimensional image sensing using quantum efficiency modulation
KR100355382B1 (ko) * 2001-01-20 2002-10-12 삼성전자 주식회사 영상 시퀀스에서의 객체 레이블 영상 생성장치 및 그 방법
US6771306B2 (en) * 2001-03-28 2004-08-03 Koninklijke Philips Electronics N.V. Method for selecting a target in an automated video tracking system
US20020171754A1 (en) * 2001-05-18 2002-11-21 I-Jen Lai Digital camera with multi-illuminating source
US20040070565A1 (en) * 2001-12-05 2004-04-15 Nayar Shree K Method and apparatus for displaying images
KR100459179B1 (ko) * 2002-04-16 2004-12-03 엘지전자 주식회사 횡류팬
CN1204417C (zh) * 2002-07-05 2005-06-01 北京创先泰克科技有限公司 自动跟踪运动目标的***和实现方法
JP4284949B2 (ja) * 2002-09-05 2009-06-24 ソニー株式会社 移動撮影システム、移動撮影方法、及び撮影装置
US7847234B2 (en) * 2003-08-06 2010-12-07 The United States Of America As Represented By The Secretary Of The Army Method and system for observing a subject at a first location based upon quantum properties measured at a second location
KR100565318B1 (ko) * 2003-12-15 2006-03-30 엘지전자 주식회사 카메라폰의 촬영 안내 방법 및 장치
US7078672B2 (en) * 2004-01-16 2006-07-18 Tong Xie Method and system for optically tracking a target using interferometric technique
WO2005109859A2 (en) * 2004-05-01 2005-11-17 Eliezer Jacob Digital camera with non-uniform image resolution
US20060098729A1 (en) * 2004-11-09 2006-05-11 Lien-Chieh Shen Smart image processing CCTV camera device and method for operating same
WO2006085834A1 (en) * 2005-01-28 2006-08-17 Microvision, Inc. Method and apparatus for illuminating a field-of-view and capturing an image
US8803978B2 (en) * 2006-05-23 2014-08-12 Microsoft Corporation Computer vision-based object tracking system
US8996172B2 (en) * 2006-09-01 2015-03-31 Neato Robotics, Inc. Distance sensor system and method
CN101919246A (zh) * 2007-08-08 2010-12-15 托尼·迈耶 非后向反射牌照成像***
CN101821583B (zh) * 2007-10-10 2013-08-14 特里伯耶拿有限公司 用于跟踪和测量目标的测量装置
CN100538723C (zh) * 2007-10-26 2009-09-09 浙江工业大学 多视觉传感器信息融合的内河船舶自动识别***
JP5261684B2 (ja) * 2007-11-27 2013-08-14 スタンレー電気株式会社 ストロボ装置
JP5150229B2 (ja) 2007-12-07 2013-02-20 株式会社トプコン 測量システム
JP5060358B2 (ja) * 2008-03-25 2012-10-31 株式会社トプコン 測量システム
JP2009290827A (ja) * 2008-06-02 2009-12-10 Sony Corp 画像処理装置および画像処理方法
CN102113321B (zh) * 2008-08-05 2013-09-11 爱信精机株式会社 目标对象物位置确定装置
EP2194399A1 (de) * 2008-12-03 2010-06-09 Leica Geosystems AG Positionsbestimmungsverfahren und geodätisches Vermessungssystem
CN101494737B (zh) * 2009-03-09 2011-04-20 杭州海康威视数字技术股份有限公司 一种一体化摄像机装置及自适应自动聚焦方法
US8866889B2 (en) * 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
ES2768033T3 (es) * 2010-12-22 2020-06-19 Zspace Inc Seguimiento tridimensional de un dispositivo de control del usuario en un volumen
JP2012149888A (ja) * 2011-01-14 2012-08-09 Ricoh Co Ltd 光検出装置及び光検出方法
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
CN102143324A (zh) * 2011-04-07 2011-08-03 天津市亚安科技电子有限公司 一种云台自动平滑跟踪目标的方法
CN102148965B (zh) * 2011-05-09 2014-01-15 厦门博聪信息技术有限公司 多目标跟踪特写拍摄视频监控***
US8605205B2 (en) * 2011-08-15 2013-12-10 Microsoft Corporation Display as lighting for photos or video
EP2570769A1 (de) * 2011-09-13 2013-03-20 Hexagon Technology Center GmbH Geodätisches Vermessungssystem und Verfahren mit multipler Zielverfolgungsfunktionalität
CN102360423A (zh) * 2011-10-19 2012-02-22 丁泉龙 一种人体智能跟踪方法
US8953094B2 (en) * 2011-11-10 2015-02-10 Apple Inc. Illumination system
US8653427B2 (en) * 2011-12-17 2014-02-18 Raytheon Company Digital semi-active laser receiver tracking of multiple line-of-sight (LOS) objects
KR101290197B1 (ko) * 2012-02-21 2013-07-30 중앙대학교 산학협력단 영상의 깊이 정보 추정 장치 및 방법
US9283677B2 (en) * 2012-04-05 2016-03-15 Rethink Robotics, Inc. Visual indication of target tracking
CN102724482B (zh) * 2012-06-18 2015-08-26 西安电子科技大学 基于gps和gis的智能视觉传感网络运动目标接力跟踪***
JP5966665B2 (ja) * 2012-06-26 2016-08-10 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
US20140037135A1 (en) * 2012-07-31 2014-02-06 Omek Interactive, Ltd. Context-driven adjustment of camera parameters
CN103634509A (zh) * 2012-08-30 2014-03-12 苏州翔合智能科技有限公司 自动追踪录制方法及***
JP2015534055A (ja) * 2012-09-19 2015-11-26 ファロ テクノロジーズ インコーポレーテッド レーザトラッカを用いて再帰反射器を選択、ロックオン、追跡するために手持器具を使用する方法
CN103677237B (zh) * 2012-09-20 2016-12-21 原相科技股份有限公司 对象追踪装置及其控制方法
US9697427B2 (en) * 2014-01-18 2017-07-04 Jigabot, LLC. System for automatically tracking a target
CN103810695B (zh) * 2012-11-15 2017-03-22 浙江大华技术股份有限公司 一种光源定位方法及装置
EP2765388B1 (de) * 2013-02-08 2018-10-17 Hexagon Technology Center GmbH Mobiler Feld-Controller zur Messung und Fernsteuerung
CN203574655U (zh) * 2013-04-09 2014-04-30 北京半导体照明科技促进中心 利用可见光传输信息的装置和***以及光源
EP2827099A1 (de) * 2013-07-16 2015-01-21 Leica Geosystems AG Lasertracker mit Zielsuchfunktionalität
KR102063102B1 (ko) * 2013-08-19 2020-01-07 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
EP2879371B1 (en) * 2013-11-29 2016-12-21 Axis AB System for following an object marked by a tag device with a camera
JP6380843B2 (ja) * 2013-12-19 2018-08-29 株式会社リコー 物体検出装置及びこれを備えた移動体機器制御システム並びに物体検出用プログラム
US9454699B2 (en) * 2014-04-29 2016-09-27 Microsoft Technology Licensing, Llc Handling glare in eye tracking
CN106537252B (zh) * 2014-05-06 2020-03-06 宁波舜宇光电信息有限公司 转光三维成像装置和投射装置及其应用
WO2016005893A1 (en) * 2014-07-08 2016-01-14 Basf Se Detector for determining a position of at least one object
DE102014109701A1 (de) * 2014-07-10 2016-01-14 Epcos Ag Sensor
US10455137B2 (en) * 2014-07-28 2019-10-22 Orbotech Ltd. Auto-focus system
CN106575027B (zh) * 2014-07-31 2020-03-06 麦克赛尔株式会社 摄像装置及其被摄体跟踪方法
US9992396B1 (en) * 2015-02-02 2018-06-05 Apple Inc. Focusing lighting module
WO2016130719A2 (en) * 2015-02-10 2016-08-18 Amnon Shashua Sparse map for autonomous vehicle navigation
EP3064898B1 (de) 2015-03-04 2019-12-18 Leica Geosystems AG Vermessungsgerät mit Feinanzielungs- bzw. Zielverfolgungsfunktionalität
JP6500535B2 (ja) * 2015-03-23 2019-04-17 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN104834903B (zh) * 2015-04-24 2018-04-27 深圳先牛信息技术有限公司 用于移动设备的双眼虹膜图像采集装置
CN105169717B (zh) * 2015-07-22 2017-10-03 深圳市富微科创电子有限公司 一种采用目标追踪技术的玩具飞机遥控***及方法
CN105184776B (zh) * 2015-08-17 2018-09-28 中国测绘科学研究院 目标跟踪方法
WO2017070629A1 (en) * 2015-10-23 2017-04-27 Fluke Corporation Imaging tool for vibration and/or misalignment analysis
AU2016349891B9 (en) * 2015-11-04 2021-05-06 Magic Leap, Inc. Dynamic display calibration based on eye-tracking
JP6604509B2 (ja) * 2015-12-17 2019-11-13 カシオ計算機株式会社 撮像装置、被写体追尾方法、及びプログラム
EP3185037B1 (en) * 2015-12-23 2020-07-08 STMicroelectronics (Research & Development) Limited Depth imaging system
CN105611127A (zh) * 2015-12-28 2016-05-25 天津鼎视汇达科技有限公司 红外球机智能补光***
US10341629B2 (en) * 2016-06-30 2019-07-02 Hipcam Ltd. Touch screen WiFi camera
CN106375596B (zh) * 2016-10-17 2020-04-24 瑞安市任想科技有限责任公司 提示对焦对象的装置及方法
CN106341610A (zh) * 2016-11-25 2017-01-18 广东欧珀移动通信有限公司 拍照方法及移动终端
JP6856914B2 (ja) 2017-07-18 2021-04-14 ハンジョウ タロ ポジショニング テクノロジー カンパニー リミテッドHangzhou Taro Positioning Technology Co.,Ltd. インテリジェントな物体追跡

Also Published As

Publication number Publication date
TWI721290B (zh) 2021-03-11
EP3656118A4 (en) 2021-03-03
CN110914638B (zh) 2021-11-26
US20200154036A1 (en) 2020-05-14
US20200151887A1 (en) 2020-05-14
CN110914638A (zh) 2020-03-24
JP2020526853A (ja) 2020-08-31
TW201908859A (zh) 2019-03-01
TW201913171A (zh) 2019-04-01
CN110915194B (zh) 2021-06-25
US10587813B2 (en) 2020-03-10
WO2019015616A1 (en) 2019-01-24
TWI716707B (zh) 2021-01-21
CN108605081B (zh) 2020-09-01
US11122210B2 (en) 2021-09-14
US11190701B2 (en) 2021-11-30
US20190082112A1 (en) 2019-03-14
TW201913245A (zh) 2019-04-01
EP3656118A1 (en) 2020-05-27
CN108605081A (zh) 2018-09-28
WO2019014861A1 (en) 2019-01-24
TWI716708B (zh) 2021-01-21
WO2019015614A1 (en) 2019-01-24
CN110915194A (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
JP6856914B2 (ja) インテリジェントな物体追跡
CN112313576B (zh) 具有稳定功能的相机移动设备支架
US11881018B2 (en) Detecting dual band infrared light source for object tracking
US11831906B2 (en) Automated film-making using image-based object tracking
US20200213524A1 (en) Intelligent object tracking
US11364637B2 (en) Intelligent object tracking
US11900616B2 (en) Determining region-of-interest of an object using image-based object tracking
US11991445B2 (en) Camera mobile device stabilization using a high frame rate auxiliary imaging element
WO2022188733A1 (en) Scenario triggering and interaction based on target positioning and identification
JP2022188988A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200130

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200701

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210311

R150 Certificate of patent or registration of utility model

Ref document number: 6856914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150