JP6404527B1 - カメラ制御システム、カメラ制御方法、およびプログラム - Google Patents

カメラ制御システム、カメラ制御方法、およびプログラム Download PDF

Info

Publication number
JP6404527B1
JP6404527B1 JP2018525632A JP2018525632A JP6404527B1 JP 6404527 B1 JP6404527 B1 JP 6404527B1 JP 2018525632 A JP2018525632 A JP 2018525632A JP 2018525632 A JP2018525632 A JP 2018525632A JP 6404527 B1 JP6404527 B1 JP 6404527B1
Authority
JP
Japan
Prior art keywords
camera
teacher data
image
camera control
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018525632A
Other languages
English (en)
Other versions
JPWO2018100676A1 (ja
Inventor
俊二 菅谷
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Application granted granted Critical
Publication of JP6404527B1 publication Critical patent/JP6404527B1/ja
Publication of JPWO2018100676A1 publication Critical patent/JPWO2018100676A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract


【課題】人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、画像解析における被写体の検出および識別精度を向上させる。
【解決手段】被写体が何であるかを表すラベルと、そのラベルが付された画像データを対応付けた複数の教師データを用いて機械学習を行う画像解析システムで、教師データの撮像条件を解析する撮像条件解析モジュール211と、解析した撮像条件で撮像させるようにカメラを制御するカメラ制御モジュール212とを備え、撮像条件にあわせて撮像した画像の画像解析を行う。
【選択図】図1

Description

本発明は、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、画像解析における被写体の検出および識別精度を向上させるためのカメラ制御システム、カメラ制御方法、およびプログラムに関する。
人工知能が画像解析を行うための機械学習の手法として、教師あり学習(Supervised Learning)はよく知られる手法である。この教師あり学習のためには、一般的に大量の画像を用意する必要があり、カメラでの撮像時に生じるボケやブレを模した画像処理を参照画像に施すことで学習画像を増やす方法が提案されている(特許文献1)。
国際公開第2010/101186号
しかしながら、特許文献1の方法では、撮像された画像を単に増やして教師データとなる学習用の画像を生成することはできるが、教師データの画像の解像度や撮像角度等が、実際に撮像した画像と異なると、うまく判定できない恐れがある。
この課題に対して、本発明者は、教師データの解像度や撮像角度にあわせて実際の撮像を行い、画像解析することで、被写体の検出および識別精度を向上させることができることに着目した。
本発明は、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、画像解析における被写体の検出および識別精度を向上させるためのカメラ制御システム、カメラ制御方法、およびプログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、
人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムであって、
教師データの撮像条件を解析する撮像条件解析手段と、
前記解析した撮像条件で撮像させるようにカメラを制御するカメラ制御手段と、
を備えることを特徴とするカメラ制御システムを提供する。
第1の特徴に係る発明によれば、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、教師データの撮像条件を解析する撮像条件解析手段と、前記解析した撮像条件で撮像させるようにカメラを制御するカメラ制御手段と、を備える。
第1の特徴に係る発明は、カメラ制御システムのカテゴリであるが、カメラ制御方法、およびプログラムであっても同様の作用、効果を奏する。
第2の特徴に係る発明は、第1の特徴に係る発明であるカメラ制御システムであって、
前記撮像条件解析手段で解析した教師データが複数ある場合に、
複数の教師データの中から1以上の教師データを選択させる教師データ選択手段を備え、
前記カメラ制御手段は、前記選択された教師データの撮像条件で撮像させるようにカメラを制御することを特徴とするカメラ制御システムを提供する。
第2の特徴に係る発明によれば、第1の特徴に係る発明であるカメラ制御システムにおいて、前記撮像条件解析手段で解析した教師データが複数ある場合に、複数の教師データの中から1以上の教師データを選択させる教師データ選択手段を備え、前記カメラ制御手段は、前記選択された教師データの撮像条件で撮像させるようにカメラを制御する。
第3の特徴に係る発明は、第1の特徴または第2の特徴に係る発明であるカメラ制御システムであって、
前記教師データの入力を受け付ける受付手段を備えることを特徴とするカメラ制御システムを提供する。
第3の特徴に係る発明によれば、第1の特徴または第2の特徴に係る発明であるカメラ制御システムにおいて、前記教師データの入力を受け付ける受付手段を備える。
第4の特徴に係る発明は、第1の特徴から第3の特徴のいずれかに係る発明であるカメラ制御システムであって、
前記撮像条件に、解像度、カメラ角度、カメラ倍率、の少なくとも一つを含むことを特徴とするカメラ制御システムを提供する。
第4の特徴に係る発明によれば、第1の特徴から第3の特徴のいずれかに係る発明であるカメラ制御システムにおいて、前記撮像条件に、解像度、カメラ角度、カメラ倍率、の少なくとも一つを含む。
第5の特徴に係る発明は、第1の特徴から第4の特徴のいずれかに係る発明であるカメラ制御システムであって、
前記カメラがドローンに搭載されている場合に、
前記解析した撮像条件を満たす位置に、前記ドローンを飛行させるように制御する飛行制御手段を備えることを特徴とするカメラ制御システムを提供する。
第5の特徴に係る発明によれば、第1の特徴から第4の特徴のいずれかに係る発明であるカメラ制御システムにおいて、前記カメラがドローンに搭載されている場合に、前記解析した撮像条件を満たす位置に、前記ドローンを飛行させるように制御する飛行制御手段を備える。
第6の特徴に係る発明は、
人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御方法であって、
教師データの撮像条件を解析するステップと、
前記解析した撮像条件で撮像させるようにカメラを制御するステップと、
を備えることを特徴とするカメラ制御方法を提供する。
第7の特徴に係る発明は、
人工知能が画像解析する為の画像の撮像に用いるカメラを制御するコンピュータシステムに、
教師データの撮像条件を解析するステップ、
前記解析した撮像条件で撮像させるようにカメラを制御するステップ、
を実行させるためのプログラムを提供する。
本発明によれば、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、画像解析における被写体の検出および識別精度を向上させるためのカメラ制御システム、カメラ制御方法、およびプログラムを提供することが可能となる。
図1は、本発明の好適な実施形態の概要図である。 図2は、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。 図3は、カメラ100での撮像画像をコンピュータ200で画像解析処理を行う場合のフローチャート図である。 図4は、教師データ選択処理を行う場合の、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。 図5は、教師データ選択処理を行う場合の、カメラ100とコンピュータ200のフローチャート図である。 図6は、教師データの受付処理を行う場合の、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。 図7は、教師データの受付処理を行う場合の、カメラ100とコンピュータ200のフローチャート図である。 図8は、カメラ100とコンピュータ200とドローン400の機能ブロックと各機能の関係を示す図である。 図9は、カメラ100を搭載したドローン400の飛行制御処理を行う場合の、カメラ100とコンピュータ200とドローン400のフローチャート図である。 図10は、カメラ100で被写体500を撮像した場合の一例を示す図である。 図11は、教師データのデータ構造の一例を示す表である。 図12は、カメラ100の撮像角度を取得する方法を模式的に説明するための図である。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
[カメラ制御システムの概要]
図1は、本発明の好適な実施形態の概要図である。この図1に基づいて、本発明の概要を説明する。カメラ制御システムは、カメラ100、コンピュータ200、通信網300から構成される。
なお、図1において、カメラ100の数は一つに限らず複数であってもよい。また、コンピュータ200は、実在する装置に限らず、仮想的な装置であってもよい。
カメラ100は、図2に示すように、撮像部10、制御部110、通信部120から構成される。また、コンピュータ200は、同じく図2に示すように、制御部210、通信部220、記憶部230、入出力部240、から構成される。制御部210は記憶部230と協働して撮像条件解析モジュール211を実現する。また、制御部210は通信部220、記憶部230と協働してカメラ制御モジュール212を実現する。通信網300は、インターネット等の公衆通信網でも専用通信網でもよく、カメラ100とコンピュータ200間の通信を可能とする。
カメラ100は、コンピュータ200とデータ通信可能な、撮像素子やレンズ等の撮像デバイスを備え、被写体までの距離を測定可能な、または、被写体を複数の異なる方向から同時に撮像可能な撮像装置である。ここでは、例としてWEBカメラを図示しているが、デジタルカメラ、デジタルビデオ、無人航空機に搭載したカメラ、ウェアラブルデバイスのカメラ、防犯カメラ、車載カメラ、360度カメラ等の必要な機能を備える撮像装置であってよい。
コンピュータ200は、カメラ100とデータ通信可能な計算装置である。ここでは、例としてデスクトップ型のコンピュータを図示しているが、携帯電話、携帯情報端末、タブレット端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の電化製品や、スマートグラス、ヘッドマウントディスプレイ等のウェアラブル端末等であってよい。
図1のカメラ制御システムにおいて、コンピュータ200は、記憶部230に教師データを記憶する。教師データとは、被写体が何であるかを表すラベルと、そのラベルが付された画像データを対応付けたものである。ラベルには例えば、人間、動物、植物、等の大まかな分類を用いてもよいし、成人男性、成人女性、犬、猫、バラ、菊、等のより詳細な分類を用いてもよい。画像解析により、被写体をどのように解析したいか、システムの目的にあわせたラベルを付与した教師データを用意するものとする。
まず、コンピュータ200の撮像条件解析モジュール211は、記憶部230の教師データの撮像条件を解析する(ステップS01)。ここで、撮像条件には、解像度、カメラ角度、カメラ倍率の少なくとも一つを含むものとする。
次に、コンピュータ200のカメラ制御モジュール212は、解析した撮像条件で被写体の撮像を行うよう、カメラ100の制御を行う(ステップS02)。
カメラ100の撮像部10は、コンピュータ200からの制御を受け、指定された撮像条件で、対象物である被写体の動画または静止画等の画像を撮像する(ステップS03)。
図10は、カメラ100で被写体500を撮像した場合の一例を示す図である。ここでは、コンピュータ200のカメラ制御モジュール212により、通信網300で接続されたカメラ100が撮像条件に応じてImageXを撮像したことを示している。カメラ100から被写体500までの距離によって、すべての撮像条件を満たすことが難しい場合には、解像度、カメラ角度、カメラ倍率のいずれを優先するかを、システムで設定可能としてもよいし、ユーザが撮影時に指定してもよい。
最後に、コンピュータ200の制御部210は、通信部220を介して撮像した画像を取得し、画像の解析を行う(ステップS04)。ここで、撮像した「ImageX」は、教師データと同じく「解像度:640×480ppi、カメラ角度30度、カメラ倍率等倍」の撮像条件であるため、画像解析を行う際に短時間で識別精度のよい結果を得ることが可能である。ここでの画像解析は、例えば、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等、システムの目的に応じた適切なものであるとする。
以上のように、本発明によれば、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、画像解析における被写体の検出および識別精度を向上させるためのカメラ制御システム、カメラ制御方法、およびプログラムを提供することが可能となる。
[各機能の説明]
図2は、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。カメラ100は、撮像部10、制御部110、通信部120から構成される。また、コンピュータ200は、制御部210、通信部220、記憶部230、入出力部240、から構成される。制御部210は記憶部230と協働して撮像条件解析モジュール211を実現する。また、制御部210は通信部220、記憶部230と協働してカメラ制御モジュール212を実現する。通信網300は、インターネット等の公衆通信網でも専用通信網でもよく、カメラ100とコンピュータ200間の通信を可能とする。
カメラ100は、コンピュータ200とデータ通信可能な、撮像素子やレンズ等の撮像デバイスを備え、被写体までの距離を測定可能な、または、被写体を複数の異なる方向から同時に撮像可能な撮像装置である。ここでは、例としてWEBカメラを図示しているが、デジタルカメラ、デジタルビデオ、無人航空機に搭載したカメラ、ウェアラブルデバイスのカメラ、防犯カメラ、車載カメラ、360度カメラ等の必要な機能を備える撮像装置であってよい。
カメラ100は、撮像部10として、レンズ、撮像素子、各種ボタン、フラッシュ等の撮像デバイス等を備え、動画や静止画等の撮像画像として撮像する。また、撮像して得られる画像は、画像解析に必要なだけの情報量を持った精密な画像であるものする。また、撮像時の解像度、カメラ角度、カメラ倍率、等を指定可能であるものとする。
制御部110として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。
通信部120として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi−Fi(Wireless Fidelity)対応デバイスまたは第3世代、第4世代移動通信システム等のIMT−2000規格に準拠した無線デバイス等を備える。有線によるLAN接続であってもよい。
コンピュータ200は、カメラ100とデータ通信可能な計算装置である。ここでは、例としてデスクトップ型のコンピュータを図示しているが、携帯電話、携帯情報端末、タブレット端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の電化製品や、スマートグラス、ヘッドマウントディスプレイ等のウェアラブル端末等であってよい。
制御部210として、CPU、RAM、ROM等を備える。制御部210は記憶部230と協働して撮像条件解析モジュール211を実現する。また、制御部210は通信部220、記憶部230と協働してカメラ制御モジュール212を実現する。
通信部220として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi−Fi対応デバイスまたは第3世代、第4世代移動通信システム等のIMT−2000規格に準拠した無線デバイス等を備える。有線によるLAN接続であってもよい。
記憶部230として、ハードディスクや半導体メモリによる、データのストレージ部を備え、撮像画像や、教師データ、画像解析結果、等の処理に必要なデータ等を記憶する。また、記憶部230に、教師データのデータベースを備えてもよい。
入出力部240は、カメラ制御システムを利用するために必要な機能を備えるものとする。入力を実現するための例として、タッチパネル機能を実現する液晶ディスプレイ、キーボード、マウス、ペンタブレット、装置上のハードウェアボタン、音声認識を行うためのマイク等を備えることが可能である。また、出力を実現するための例として、液晶ディスプレイ、PCのディスプレイ、プロジェクターへの投影等の表示と音声出力等の形態が考えられる。入出力方法により、本発明は特に機能を限定されるものではない。
[画像解析処理]
図3は、カメラ100での撮像画像をコンピュータ200で画像解析処理を行う場合のフローチャート図である。上述した各モジュールが実行する処理について、本処理にあわせて説明する。
はじめに、コンピュータ200は、被写体が何であるかを表すラベルとそのラベルが付された画像データを対応付けた教師データを、記憶部230に複数記憶する(ステップS301)。記憶部230に教師データのデータベースを備え、データベースに記憶することとしてもよい。ここで使用するラベルには例えば、人間、動物、植物、等の大まかな分類を用いてもよいし、成人男性、成人女性、犬、猫、バラ、菊、等のより詳細な分類を用いてもよい。画像解析により、被写体をどのように解析したいか、システムの目的にあわせたラベルを付与した教師データを用意するものとする。なお、既に複数の教師データが記憶されている場合には、この処理はスキップしてよいものとする。
次に、コンピュータ200は、記憶部230に記憶した教師データを基に、機械学習を行う(ステップS302)。ここでの機械学習は、被写体をどのように認識したいか、システムの目的に応じた画像解析を行えるようにするためのものである。例えば、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等がシステムの目的として考えられる。ステップS301で教師データが記憶されない場合、または更新されない場合には、この処理はスキップしてよいものとする。
コンピュータ200の撮像条件解析モジュール211は、記憶部230の教師データの撮像条件を解析する(ステップS303)。ここで、撮像条件には、解像度、カメラ角度、カメラ倍率の少なくとも一つを含むものとする。
次に、コンピュータ200のカメラ制御モジュール212は、解析した撮像条件で被写体の撮像を行うよう、カメラ100の制御を行う(ステップS304)。
カメラ100の撮像部10は、コンピュータ200からの制御を受け、指定された撮像条件で、対象物である被写体の動画または静止画等の画像を撮像する(ステップS305)。
図10は、カメラ100で被写体500を撮像した場合の一例を示す図である。ここでは、コンピュータ200のカメラ制御モジュール212により、通信網300で接続されたカメラ100が撮像条件に応じてImageXを撮像したことを示している。カメラ100から被写体500までの距離によって、すべての撮像条件を満たすことが難しい場合には、解像度、カメラ角度、カメラ倍率のいずれを優先するかを、システムで設定可能としてもよいし、ユーザが撮影時に指定してもよい。
カメラ100の制御部110は、通信部120を介して撮像した画像データをコンピュータ200に送信する(ステップS306)。
コンピュータ200は、通信部220を介して撮像した画像データを受信する(ステップS307)。受信した画像データは、記憶部230に保存してもよい。
最後に、コンピュータ200の制御部210は、ステップS302で機械学習した結果を基に、撮像した画像データの解析を行う(ステップS308)。ここで、撮像した「ImageX」は、教師データと同じく「解像度:640×480ppi、カメラ角度30度、カメラ倍率等倍」の撮像条件であるため、画像解析を行う際に短時間で識別精度のよい結果を得ることが可能である。ここでの画像解析は、例えば、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等、システムの目的に応じた適切なものであるとする。
以上のように、本発明によれば、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、画像解析における被写体の検出および識別精度を向上させるためのカメラ制御システム、カメラ制御方法、およびプログラムを提供することが可能となる。
[教師データ選択処理]
図4は、教師データ選択処理を行う場合の、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。図2の構成に加え、コンピュータ200の入出力部240は制御部210、記憶部230と協働して教師データ選択モジュール241を実現する。また、図5は、教師データ選択処理を行う場合の、カメラ100とコンピュータ200のフローチャート図である。上述した各モジュールが実行する処理について、本処理にあわせて説明する。図5のステップS501とステップS502の処理は、図3のステップS301とステップS302の処理に相当するため、ステップS503以降について説明する。ステップS501の処理は、ステップS301と同じく、既に複数の教師データが記憶されている場合にはスキップしてよいものとする。また、ステップS502の処理は、ステップS501で教師データが記憶されない場合、または更新されない場合にはスキップしてよいものとする。
教師データ選択モジュール241は、ユーザが教師データの選択を行うかどうか入出力部240を介してユーザに指定させる(ステップS503)。ここで行った、ユーザが教師データの選択を行うかどうかの指定は、設定として記憶部230に記憶させてその後の処理で使用してもよいものとする。
ユーザが教師データを選択する場合、ユーザによる教師データ選択を行う(ステップS504)。ユーザによる教師データ選択を行うために、入出力部240の表示や音声出力等の出力機能を利用してユーザに対して教師データを提示し、ユーザは入力機能を利用して、その中から適切な教師データを選択するものとする。
図11は、教師データのデータ構造の一例を示す表である。教師データは画像にあわせて、被写体が何であるかを表すラベルを必ず持つ。図11の例では、「ImageA」の画像には「人間」というラベルが、「ImageB」の画像には「自動車」というラベルが、「ImageC」の画像には「携帯電話」というラベルが、「ImageD」の画像には「植物」というラベルが紐付けられている。また、すでに教師データの撮像条件の解析を行った場合には、教師データとあわせて、解像度、カメラ角度、カメラ倍率、等を記憶してもよい。図11では、「教師データ1」、「教師データ2」、「教師データ3」、が既に撮像条件の解析を行われたことがある例を表しており、ここでは、解像度、カメラ角度、カメラ倍率、距離、が解析された撮像条件として、それぞれ教師データとあわせて記憶されている。
ステップS504では、例えば図11の下部に示すような画像とラベルを入出力部240に表示してユーザに選択させてもよい。ユーザは、これから撮像を行いたい被写体が何であるか分かっている場合には、教師データで同じラベルを持つものを選択することで、画像解析の識別精度を向上させることができる。また、ユーザが教師データの選択を行う場合、教師データの数が多いと選択が大変になるので、同じラベルを持つ教師データが複数ある場合には、教師データのうち代表的なもののみを提示してよいものとする。
ユーザが教師データを選択しない場合、コンピュータ200が自動で教師データ選択を行う(ステップS505)。ここで、コンピュータ200がこれから撮像を行う被写体が何であるか分かっている場合には、教師データで同じラベルを持つものを選択することで、画像解析の識別精度を向上させることができる。また、これから撮像を行う被写体が何であるか分かっていない場合には、画像解析の識別精度の良かった教師データを識別精度の高い順から選択してもよいし、既に撮像条件の解析を行われたことがある教師データが存在する場合には、カメラ100の撮像部10の機能と、教師データの解像度、カメラ角度、カメラ倍率、等の撮像条件が適合するものを選択してもよい。
次に、前ステップで選択された教師データの撮像条件の解析を行う(ステップS506)。以降、図5のステップS506からステップS511の処理は、図3のステップS303からステップS308の処理に相当するため、ここでは説明を省略する。
以上のように、本発明によれば、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、教師データの選択を行うことで、画像解析における被写体の検出および識別精度をより一層向上させるカメラ制御システム、カメラ制御方法、およびプログラムを提供することが可能となる。
[受付処理]
図6は、教師データの受付処理を行う場合の、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。図2の構成に加え、コンピュータ200の入出力部240は制御部210と協働して受付モジュール242を実現する。また、図7は、教師データの受付処理を行う場合の、カメラ100とコンピュータ200のフローチャート図である。上述した各モジュールが実行する処理について、本処理にあわせて説明する。図7のステップS701とステップS702の処理は、図3のステップS301とステップS302の処理に相当するため、ステップS703以降について説明する。
受付モジュール242は、新たに教師データの入力を受け付けるかどうかを確認する(ステップS703)。
ステップS703での確認の結果、新たに教師データの入力を受け付ける場合、受付モジュール242はユーザからの教師データの入力を受け付ける(ステップS704)。受け付けた教師データは、画像とラベルをあわせて、記憶部230に記憶させる。例えば、図11の例に教師データを追加する場合、「ImageE」としてラベルとあわせて記憶させればよい。ここで、新たに追加する教師データとして、これまでに撮像した画像を用いてもよい。その場合ラベルは、撮像時の画像解析結果を自動で付加してもよいし、教師データの追加時にユーザが手動で入力してもよいものとする。また、新たに入力する教師データは、一つであっても複数であってもよいものとする。
新たに教師データを入力しない場合、次のステップS705の撮像条件解析に進む。以降、図7のステップS705からステップS710の処理は、図3のステップS303からステップS308の処理に相当するため、ここでは説明を省略する。
以上のように、本発明によれば、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、教師データの入力を受け付けることで、有用な教師データを追加することができ、画像解析における被写体の検出および識別精度をより一層向上させるカメラ制御システム、カメラ制御方法、およびプログラムを提供することが可能となる。
[飛行制御処理]
図8は、カメラ100とコンピュータ200とドローン400の機能ブロックと各機能の関係を示す図である。ドローン400は、カメラ100を搭載しての移動が可能であるものとする。カメラ100はドローン400に直接搭載されていてもよいし、通信部120を介してコンピュータ200やドローン400と通信を行うものとしてもよい。図2の構成に加え、コンピュータ200の制御部210は通信部220、記憶部230と協働して飛行制御モジュール213を実現する。ドローン400は、駆動部40、制御部410、通信部420から構成される。ここでのドローンとは、無線やWi−Fi、Bluetooth(登録商標)等の通信方法や自動操縦で制御可能な無人の移動体を表すものとする。通常ドローンとは、無人航空機をさすことが多いが、ここでは、航空機による空中の飛行のみならず、地上、地中、水上、水中等の移動も含むものとする。通信網300は、インターネット等の公衆通信網でも専用通信網でもよく、カメラ100とコンピュータ200間の通信、ドローン400とコンピュータ200間の通信を可能とする。
ドローン400は、駆動部40として、回転翼、車輪、スクリュー等の推進機を備え、これらを駆動させて移動可能であるものとする。ここでは、推進機の種類は問わず、無人での移動が可能であればよいものとする。
制御部410として、CPU、RAM、ROM等を備える。
通信部420として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi−Fi対応デバイスまたは第3世代、第4世代移動通信システム等のIMT−2000規格に準拠した無線デバイス等を備える。
図9は、カメラ100を搭載したドローン400の飛行制御処理を行う場合の、カメラ100とコンピュータ200とドローン400のフローチャート図である。上述した各モジュールが実行する処理について、本処理にあわせて説明する。図9のステップS901からステップS903の処理は、図3のステップS301からステップS303の処理に相当するため、ステップS904以降について説明する。
撮像条件の解析後、飛行制御モジュール213は、ドローン400に対する飛行制御を行う(ステップS904)。ここでの飛行制御とは、被写体500の撮像条件に合う位置にドローン400を移動させるためのものである。また、ここではドローン400が無人飛行体であるものとして飛行と記載しているが、ドローン400が地上、地中、水上、水中の移動を行うものである場合にも、同様に被写体500の撮像条件に合う位置にドローン400を移動させる。
通信部420を介して飛行制御を受けたドローン400は、制御部410により駆動部40を制御して、撮像条件を満たす位置に飛行する(ステップS905)。
撮像条件を満たす位置への移動後、ドローン400はコンピュータ200に対して、撮像の許可を通知する(ステップS906)。もし、撮像条件を満たす位置への移動ができない場合には、ここで、コンピュータ200に対してエラーを通知して、処理を終了してもよい。
撮像許可を受けたコンピュータ200のカメラ制御モジュール212は、ステップS903で解析した撮像条件で被写体の撮像を行うよう、カメラ100の制御を行う(ステップS907)。図9のステップS907からステップS911の処理は、図3のステップS304からステップS308の処理に相当するため、ここでは説明を省略する。
以上のように、本発明によれば、人工知能が画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムにおいて、撮像条件を満たす位置にドローンを移動させるように制御することで、画像解析における被写体の検出および識別精度をより一層向上させるカメラ制御システム、カメラ制御方法、およびプログラムを提供することが可能となる。
[撮像角度取得処理]
本発明でのカメラ100は、被写体までの距離を測定可能、または、被写体を複数の異なる方向から同時に撮像可能な撮像装置である。被写体までの距離を測定する方法については、カメラ100のセンサ等から取得する他に、被写体を複数の異なる方向から同時に撮像可能である場合には、その複数のカメラそれぞれで撮像した画像のズレの長さと、実際の距離を学習させて、距離を測定することも可能である。また、その測定した距離を用いて、撮像角度を算出することも可能である。複数のカメラから距離を測定する方法については、既存技術として知られているため、ここでは、図12に基づいて、撮像角度を取得する方法について説明する。
図12は、カメラ100の撮像角度を取得する方法を模式的に説明するための図である。図12において、カメラ100は、被写体500と、壁1210と、床1220を撮像した状態である。カメラ100またはコンピュータ200が、撮像画像を画像解析し、撮像角度を取得する場合、撮像画像中に存在する同じパターン(模様)面積が、最大の領域を床または地面等の平面と認識し、平面の傾きから自身の撮像角度を取得する。ここでは、床1220が平面に該当する。
カメラ100の撮像角度を取得する方法は、カメラ100またはコンピュータ200のいずれで行ってもよいが、以下では簡略化のために、コンピュータ200で行うものとして記載する。コンピュータ200は、撮像位置から床1220までの2か所の所定位置1230,1231をサンプルとして抽出する。この所定位置1230,1231と、撮像地点の中心位置1232とを結んだ三角形1233を形成する。三角形1233は、辺1240、辺1241、辺1242の3辺により形成される。コンピュータ200は、中心位置1232から床1220へ垂線1250を形成し、辺1242と垂線1250の交点1234を形成する。コンピュータ200は、複数のカメラで撮像した画像のズレの長さと実際の距離を学習させ、距離を推定することにより辺1240,1241および垂線1250の長さを算出する。コンピュータ200は、辺1242において、所定位置1230と交点1234とを結ぶ線分1260と、所定位置1231と交点1234とを結ぶ線分1261との長さを算出する。コンピュータ200は、三角関数により、角度1270を算出し、この算出した角度1270を自身の3次元の撮像角度として取得する。
以上のように、本発明によれば、カメラに被写体までの距離を測定する機能が無い場合にも、被写体を複数の異なる方向から同時に撮像する機能を利用することにより、被写体までの距離を算出するとともに、撮像時の水平方向からの角度を算出することが可能である。
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態であってもよいし、フレキシブルディスク、CD(CD−ROM等)、DVD(DVD−ROM、DVD−RAM等)、コンパクトメモリ等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
100 カメラ、200 コンピュータ、300 通信網、400 ドローン、500 被写体

Claims (7)

  1. 人工知能が、被写体が何であるかを表すラベルと画像データとを対応付けた教師データをもとに、画像解析のための機械学習を行い、画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムであって、
    前記教師データについて、解像度、カメラ角度、カメラ倍率、の少なくとも一つを含む撮像条件を解析する撮像条件解析手段と、
    前記解析した撮像条件で撮像させるようにカメラを制御するカメラ制御手段と、
    を備えることを特徴とするカメラ制御システム。
  2. 前記撮像条件解析手段で解析した教師データが複数ある場合に、
    複数の教師データの中から1以上の教師データを選択させる教師データ選択手段を備え、
    前記カメラ制御手段は、前記選択された教師データの撮像条件で撮像させるようにカメラを制御することを特徴とする請求項1に記載のカメラ制御システム。
  3. 前記教師データ選択手段は、ユーザが教師データの選択を行うかどうかを前記ユーザにより指定可能とし、ユーザが教師データの選択を行う場合には、教師データを提示してユーザからの選択を受け付け、ユーザが教師データの選択を行わない場合には、これから撮影する被写体にあわせた教師データ、または、画像解析の識別精度の高い教師データ、または、前記カメラの機能と撮像条件が適合する教師データ、を選択することを特徴とする請求項2に記載のカメラ制御システム。
  4. 前記教師データの入力を受け付ける受付手段を備えることを特徴とする請求項1から請求項3のいずれか一項に記載のカメラ制御システム。
  5. 前記カメラがドローンに搭載されている場合に、
    前記解析した撮像条件を満たす位置に、前記ドローンを飛行させるように制御する飛行制御手段を備えることを特徴とする請求項1から請求項4のいずれか一項に記載のカメラ制御システム。
  6. 人工知能が、被写体が何であるかを表すラベルと画像データとを対応付けた教師データをもとに、画像解析のための機械学習を行い、画像解析する為の画像の撮像に用いるカメラを制御するカメラ制御システムが実行するカメラ制御方法であって、
    前記教師データについて、解像度、カメラ角度、カメラ倍率、の少なくとも一つを含む撮像条件を解析するステップと、
    前記解析した撮像条件で撮像させるようにカメラを制御するステップと、
    を備えることを特徴とするカメラ制御方法。
  7. 人工知能が、被写体が何であるかを表すラベルと画像データとを対応付けた教師データをもとに、画像解析のための機械学習を行い、画像解析する為の画像の撮像に用いるカメラを制御するコンピュータシステムに、
    前記教師データについて、解像度、カメラ角度、カメラ倍率、の少なくとも一つを含む撮像条件を解析するステップ、
    前記解析した撮像条件で撮像させるようにカメラを制御するステップ、
    を実行させるためのコンピュータ読み取り可能なプログラム。
JP2018525632A 2016-11-30 2016-11-30 カメラ制御システム、カメラ制御方法、およびプログラム Active JP6404527B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/085563 WO2018100676A1 (ja) 2016-11-30 2016-11-30 カメラ制御システム、カメラ制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP6404527B1 true JP6404527B1 (ja) 2018-10-10
JPWO2018100676A1 JPWO2018100676A1 (ja) 2018-12-06

Family

ID=62242241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018525632A Active JP6404527B1 (ja) 2016-11-30 2016-11-30 カメラ制御システム、カメラ制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US10846326B2 (ja)
JP (1) JP6404527B1 (ja)
WO (1) WO2018100676A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075147A1 (en) * 2018-10-13 2020-04-16 Fovea Technology Intelligent vision system and methods

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020009083A (ja) * 2018-07-06 2020-01-16 日本通運株式会社 情報処理装置、情報処理システム、及び情報処理プログラム
WO2020110775A1 (ja) * 2018-11-30 2020-06-04 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
JP7452832B2 (ja) * 2019-09-10 2024-03-19 i-PRO株式会社 監視カメラおよび検知方法
US11877052B2 (en) * 2020-12-08 2024-01-16 Cortica Ltd. Filming an event by an autonomous robotic system
WO2023135621A1 (ja) * 2022-01-11 2023-07-20 三菱電機株式会社 監視カメラ画像解析システム
DE102022106110A1 (de) 2022-03-16 2023-09-21 Spleenlab GmbH Verfahren zum sicheren Bestimmen eines Flugpfads eines unbemannten Fluggeräts und unbemanntes Fluggerät

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308524A (ja) * 2002-04-16 2003-10-31 Nippon Signal Co Ltd:The アクセスコントロールシステム
WO2013099367A1 (ja) * 2011-12-27 2013-07-04 Necソフト株式会社 画像認識装置、画像認識方法、補正器、プログラムおよび記録媒体
JP2015056713A (ja) * 2013-09-11 2015-03-23 株式会社Jvcケンウッド 撮像装置、及び制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8169484B2 (en) * 2005-07-05 2012-05-01 Shai Silberstein Photography-specific digital camera apparatus and methods useful in conjunction therewith
EP2405391A4 (en) 2009-03-04 2014-11-19 Univ Osaka Prefect Public Corp IMAGE RECOVERY METHOD, IMAGE RECOVERY PROGRAM, AND IMAGE RECORDING METHOD
US8957979B2 (en) * 2011-07-19 2015-02-17 Sony Corporation Image capturing apparatus and control program product with speed detection features
JP6446971B2 (ja) * 2014-10-06 2019-01-09 日本電気株式会社 データ処理装置、データ処理方法、及び、コンピュータ・プログラム
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
US20180247714A1 (en) * 2017-02-28 2018-08-30 Samsung Electronics Co., Ltd. Methods and apparatuses for monitoring condition of object in medical imaging
JP6624167B2 (ja) * 2017-06-26 2019-12-25 カシオ計算機株式会社 撮像制御装置、撮像制御方法及び撮像制御プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308524A (ja) * 2002-04-16 2003-10-31 Nippon Signal Co Ltd:The アクセスコントロールシステム
WO2013099367A1 (ja) * 2011-12-27 2013-07-04 Necソフト株式会社 画像認識装置、画像認識方法、補正器、プログラムおよび記録媒体
JP2015056713A (ja) * 2013-09-11 2015-03-23 株式会社Jvcケンウッド 撮像装置、及び制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075147A1 (en) * 2018-10-13 2020-04-16 Fovea Technology Intelligent vision system and methods

Also Published As

Publication number Publication date
WO2018100676A1 (ja) 2018-06-07
US10846326B2 (en) 2020-11-24
JPWO2018100676A1 (ja) 2018-12-06
US20190340197A1 (en) 2019-11-07

Similar Documents

Publication Publication Date Title
JP6404527B1 (ja) カメラ制御システム、カメラ制御方法、およびプログラム
JP6900575B2 (ja) ゲームプレイを介して環境の詳細データセットを生成する方法およびシステム
US20210133996A1 (en) Techniques for motion-based automatic image capture
JP5067476B2 (ja) 三次元モデル作成システム
JP6474946B1 (ja) 画像解析結果提供システム、画像解析結果提供方法、およびプログラム
KR20200076169A (ko) 놀이 컨텐츠를 추천하는 전자 장치 및 그의 동작 방법
CN113936085B (zh) 三维重建方法和装置
JP2019211257A (ja) 検査システム
JP6246441B1 (ja) 画像解析システム、画像解析方法、およびプログラム
JP2021016547A (ja) プログラム、記録媒体、物体検出装置、物体検出方法及び物体検出システム
EP4246281A1 (en) Information display system, information display method, and carrier means
WO2019064457A1 (ja) コンピュータシステム、位置推測方法及びプログラム
US10057321B2 (en) Image management apparatus and control method capable of automatically creating comment data relevant to an image
JP2019211486A (ja) 検査システム
JP7452543B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
US11202000B2 (en) Learning apparatus, image generation apparatus, learning method, image generation method, and program
JP2020087355A (ja) 検出装置、検出方法、コンピュータプログラム及び学習モデル
US11282228B2 (en) Information processing device, information processing method, and program
JP7075090B1 (ja) 情報処理システム、及び、情報処理方法
JP6246440B1 (ja) 画像解析システム、画像解析方法、およびプログラム
CN114071003B (zh) 一种基于光通信装置的拍摄方法和***
US20240161418A1 (en) Augmented reality enhanced media
WO2022113482A1 (ja) 情報処理装置、方法およびプログラム
Bajenaru et al. Educational robots
JP2023064983A (ja) 移動体管理装置、移動体管理方法、移動体管理プログラム、および移動体管理システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180516

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180912

R150 Certificate of patent or registration of utility model

Ref document number: 6404527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250