JP6624167B2 - 撮像制御装置、撮像制御方法及び撮像制御プログラム - Google Patents

撮像制御装置、撮像制御方法及び撮像制御プログラム Download PDF

Info

Publication number
JP6624167B2
JP6624167B2 JP2017124624A JP2017124624A JP6624167B2 JP 6624167 B2 JP6624167 B2 JP 6624167B2 JP 2017124624 A JP2017124624 A JP 2017124624A JP 2017124624 A JP2017124624 A JP 2017124624A JP 6624167 B2 JP6624167 B2 JP 6624167B2
Authority
JP
Japan
Prior art keywords
imaging
unit
trigger
observation information
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017124624A
Other languages
English (en)
Other versions
JP2019009660A (ja
Inventor
典夫 遠藤
典夫 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017124624A priority Critical patent/JP6624167B2/ja
Priority to US16/015,652 priority patent/US10728437B2/en
Priority to CN201810670121.5A priority patent/CN109120844B/zh
Publication of JP2019009660A publication Critical patent/JP2019009660A/ja
Application granted granted Critical
Publication of JP6624167B2 publication Critical patent/JP6624167B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影に関する制御を行うための、撮像制御装置、撮像制御方法及び撮像制御プログラムに関する。
従来、撮像装置として、各種センサ情報に基づいて自動撮影を行なう撮像装置が知られている。
例えば、特許文献1には、撮像部とは異なる筐体に収容され、撮像部と無線で接続される携帯可能な装置にセンサ手段を設け、このセンサ手段が測定した測定結果に応じて撮像部の撮像タイミングを自動的に制御することが開示されている。
特開2016−072673号公報
上述した特許文献1には、或る決められたセンサ値をセンサにて検出した場合に自動撮影を行なうことが開示されている。
しかしながら、自動撮影を行いたいタイミングは必ずしも一律ではなく、特許文献1に開示の技術のように一律の条件で自動撮影を行うという構成は、ユーザにとって利便性に欠ける場合があった。
本発明は、このような状況に鑑みてなされたものであり、ユーザに適した条件で自動的に画像の取得を行なうことを目的とする。
上記目的を達成するため、本発明の一態様の撮像制御装置は、
ユーザによる記録手段に対しての撮影データ取得操作を検知する検知手段と、
前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得手段と、
前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定手段と、
前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御手段と、を備え、
前記設定手段は、前記ユーザによるシャッター操作を検知したときの前記観測情報を蓄積し、前記蓄積した観測情報に基づいて、前記シャッター操作を検知したときの前記観測情報に対応するパターンを特定し、該特定したパターンの中でも特徴的なパターンに基づいて前記設定する閾値を学習することを特徴とする。
上記目的を達成するため、本発明の他の態様の撮像制御装置は、
ユーザによる記録手段に対しての撮影データ取得操作を検知する検知手段と、
前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得手段と、
前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定手段と、
前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御手段と、を備え、
前記設定手段は、前記観測情報の基準となる基準情報を記憶しており、前記取得手段が取得した前記ユーザによるシャッター操作を検知したときの前記観測情報を蓄積し、該蓄積した観測情報に基づいて前記基準情報を補正することにより前記設定する閾値を学習し、
前記トリガが複数存在する場合には、前記学習はトリガそれぞれ毎に行われることを特徴とする。
本発明によれば、ユーザに適した条件で自動的に画像の取得を行なうことができる。
本発明の実施形態に係る自動撮影システムの構成を示すシステム構成図である。 本発明の実施形態に係る自動撮影システムの処理の概要を示す遷移図である。 本発明の実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。 本発明の実施形態に係る制御装置のハードウェアの構成を示すブロック図である。 本発明の実施形態に係る制御装置の機能的構成のうち、行動推定処理及び学習処理を実行するための機能的構成を示す機能ブロック図である。 本発明の実施形態に係る制御装置及び撮像装置の、行動推定処理及び学習処理時の動作を示すシーケンス図である。 本発明の実施形態に係る制御装置の行動推定処理時の動作を示すフローチャートである。 本発明の実施形態に係る制御装置の学習処理時の動作を示すフローチャートである。 本発明の実施形態の変形例1から変形例3までのシステム構成を示すシステム構成図である。 本発明の実施形態の変形例3に係る携帯端末装置のハードウェアの構成を示すブロック図である。 本発明の実施形態の変形例6に係る撮像装置の機能的構成のうち、行動推定処理及び学習処理を実行するための機能的構成を示す機能ブロック図である。
以下、本発明の実施形態について、図面を用いて説明する。
[システム構成]
図1は、本発明の一実施形態に係る自動撮影システムSの構成を示すシステム構成図である。図1に示すように、自動撮影システムSは、撮像装置10と、制御装置20とを含んで構成される。撮像装置10及び制御装置20のそれぞれは、例えば自動撮影システムSのユーザであるユーザ50によって利用される。
撮像装置10は、自動撮影が可能なカメラにより実現され、例えばユーザ50の身に付けて利用される。例えば、撮像装置10は、撮像部のレンズが撮影対象となる被写体に対して向くような位置に装着して利用される。
制御装置20は、ユーザ50の動きを測定するためのセンサを備えたウェラブルな端末により実現され、ユーザ50の身に付けて利用される。例えば、制御装置20は、ユーザ50の体幹の動きを測定するために、ユーザ50の腰に装着して利用される。
撮像装置10と制御装置20は、通信可能に接続される。撮像装置10と制御装置20との間での通信は、例えば、Bluetooth(登録商標) low energy(以下、「BLE」と称する。)に準拠した通信や、Wi−Fi(Wireless Fidelity)に準拠した通信により実現される。
自動撮影システムSでは、ユーザ50の動作に対応付けて自動撮影を行なう。そのために、自動撮影システムSは、「トリガ動作」を設定する。そして、自動撮影システムSは、ユーザ50の動作において、このトリガ動作が検出された場合に自動撮影を行う。
このように、本実施形態では、ユーザ50の動作に対応付けて設定されたトリガ動作に基づいて自動撮影を実行する。従って、本実施形態では、ユーザに適した条件で自動撮影を行なうことができる。
[状態遷移]
この自動撮影システムSにおける自動撮影時について、図2の状態遷移図を参照して更に説明をする。なお、図1にはユーザ50を図示したことから、上記の明細書中の説明においても「ユーザ50」と記載したが、以下の説明においては符号を省略し、単に「ユーザ」と記載する。
撮像装置10と制御装置20は、自動撮影を行う前提として、無線接続時に時刻の同期を行う。また、撮像装置10と制御装置20は、時刻情報を定期的に双方向でやりとりすることで時刻の同期を常時維持する。この場合に、撮像装置10と制御装置20は、例えば、SNTP(Simple Network Time Protocol)に準拠して時刻の同期を行う。
本実施形態において、撮像装置10と制御装置20が行う処理は、「学習処理」と、「行動推定処理」の2つの処理に分けられる。ここで、学習処理では、トリガ動作を検出するための情報である「トリガ動作検出用情報」を学習する。また、行動推定処理では、学習したトリガ動作検出用情報を用いてトリガ動作を検出し、このトリガ動作の検出を契機として自動撮影を行う。
以下、この2つの処理それぞれについて説明をする。なお、これら2つの処理は、必ずしも交互に行われる訳ではなく、何れか一方の処理が連続して行われた後に、他方の処理が行われることもある。
まず、トリガ動作検出用情報を学習するための学習処理について説明する。
状態S1において、ユーザが、任意のタイミングで所定の動作と共に撮像装置10のシャッター操作を行う。所定の動作には特に限定はなく、例えば、何れかの腕を決まった動きで動かす、ジャンプをする等の動作であってよい。シャッター操作は、例えば、撮像装置10が備えるシャッターボタンを手動で押下することにより行われる。
シャッター操作を受け付けた撮像装置10は、手動撮影を実行する。手動撮影が行われると、状態S2に遷移する。
状態S2において、撮像装置10は、手動撮影を実行した時刻である手動撮影時刻を制御装置20に対して送信する。制御装置20は、この手動撮影時刻のn秒(nは任意の正の値)前から手動撮影時刻までの間に測定された、n秒間のセンサの測定データに基づいて、トリガ検出用情報を学習する。学習が終了すると、状態S3に遷移する。
状態S3において、制御装置20は、学習の結果に基づいて、トリガ動作検出用情報を更新する。これにより、学習処理は終了する。
撮像装置10と制御装置20は、ユーザによる手動撮影が実行される都度、このような学習処理を行う。これにより、トリガ動作検出用情報の更新が繰り返され、トリガ動作の検出精度を高めることができる。
次に、行動推定処理について説明をする。
状態S4において、制御装置20は行動推定を行う。具体的には、制御装置20は、センサの測定データを解析する。そして、制御装置20は、解析した測定データと、トリガ動作検出用情報とに基づいて、トリガ動作を検出するか否かを判定する。すなわち、ユーザ50がトリガ動作を行ったか否かという行動推定をする。行動推定が行われると、状態は、状態S5に遷移する。
状態S5において、制御装置20は、トリガ動作を検出した場合に、撮影実行指示であるシャッタートリガを生成する。そして、制御装置20は、生成したシャッタートリガを撮像装置10に対して送信する。シャッタートリガの送信が行われると、状態S6に遷移する。
状態S6において、撮像装置10は、シャッタートリガを受信し、シャッタートリガを受信したことを契機として自動撮影を実行する。
以上、説明した学習処理と行動推定処理により、自動撮影システムSは、ユーザの動作に対応付けて自動撮影を実行する。従って、自動撮影システムSによれば、ユーザに適した条件で自動撮影を行なうことができる。
[ハードウェア構成]
次に、図3及び図4を参照して、撮像装置10と制御装置20のハードウェア構成について説明をする。
図3は、撮像装置10のハードウェアの構成を示すブロック図である。撮像装置10は、画像の撮影機能を備え、例えば、デジタルカメラによって構成される。制御装置20は、1つの筐体により実現されてもよいが、例えばディスプレイがユニット化された筐体と、撮影機能がユニット化された筐体というように、別個の筐体により実現されてもよい。
図3に示すように、撮像装置10は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、バス114と、入出力インターフェース115と、撮像部116と、入力部117と、出力部118と、記憶部119と、通信部120と、ドライブ121と、を備えている。
CPU111は、ROM112に記録されているプログラム、または、記憶部119からRAM113にロードされたプログラムに従って各種の処理を実行する。
RAM113には、CPU111が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU111、ROM112及びRAM113は、バス114を介して相互に接続されている。このバス114にはまた、入出力インターフェース115も接続されている。入出力インターフェース115には、撮像部116、入力部117、出力部118、記憶部119、通信部120及びドライブ121が接続されている。
撮像部116は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部116の出力信号として出力される。
このような撮像部116の出力信号は、CPU211等に適宜供給される。
入力部117は、シャッターボタン等の各種ボタンやタッチパネル等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部118は、ディスプレイやスピーカあるいはランプ等で構成され、画像や音声や光等を出力する。
記憶部119は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
通信部120は、他の装置との間で行う通信を制御する。本実施形態において、通信部120は、例えば、BLE(登録商標)といった規格や、Wi−Fiにおけるアドホックモードや、Wi−Fi Directと呼ばれる規格に準拠して制御装置20と通信したりする。なお、通信は、装置間での直接的な無線通信によって行われてもよいし、インターネット等のネットワークや中継装置を介して行われてもよい。
ドライブ121には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア131が適宜装着される。ドライブ121によってリムーバブルメディア131から読み出されたプログラムや各種データは、必要に応じて記憶部219にインストールされる。また、リムーバブルメディア131は、記憶部219に記憶されている画像のデータ等の各種データも、記憶部219と同様に記憶することができる。
図4は、制御装置20のハードウェア構成を示すブロック図である。制御装置20は、計測対象であるユーザの動きを検出する各種センサを備えた装置として構成される。
図4に示すように、制御装置20は、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、センサ部216と、入力部217と、出力部218と、記憶部219と、通信部220とを備えている。これらのうち、センサ部216以外の構成は、図3を参照して説明した撮像装置10の同名の各部分と同様である。なお、図3を参照して説明した撮像装置10のドライブ121と同様に、制御装置20にも、半導体メモリ等よりなるリムーバブルメディアを装着可能なドライブを設けるようにしてもよい。
センサ部216は、ユーザの動きに伴い変化する物理量を測定するための動きセンサを少なくとも含む。動きセンサとしては、例えば、3軸方向の加速度を測定する3軸加速度センサと、3軸方向の角速度を測定する3軸角速度センサと、3軸方向の地磁気を測定する3軸地磁気センサとを備えている。センサ部216は、予め設定されたサンプリング周期(例えば、0.001秒)毎に、3軸加速度センサ、3軸角速度センサ及び3軸地磁気センサによって3軸方向の加速度、角速度及び地磁気を測定する。センサ部216によって測定された加速度、角速度及び地磁気のデータは、測定時刻のデータと対応付けて、記憶部219に記憶あるいはCPU311に出力される。
なお、センサ部216には、例えば、気圧センサ、紫外線センサ、温度センサ、湿度センサ等の環境条件を測定するためのセンサが含まれていてもよい。更に、センサ部216には、GPS(Global Positioning System)等の位置測位用のセンサが含まれていてもよい。
[機能的構成]
次に、制御装置20機能的構成について図5を参照して説明をする。図5は、撮像装置10の機能的構成のうち、学習処理と行動推定処理を実行するための機能的構成を示す機能ブロック図である。これら学習処理と行動推定処理は、図2を参照して上述した処理である。
学習処理及び行動推定処理が実行される場合、図5に示すように、CPU211において、測定情報取得部251と、学習部252と、シャッタートリガ生成部253とが機能する。
また、記憶部219の一領域には、測定情報記憶部254と、トリガ動作検出用情報記憶部255とが設定される。
測定情報取得部251は、センサ部216に含まれる各センサが測定した測定値を取得する部分である。測定値としては、例えば、加速度、角速度及び地磁気の測定値と、それぞれの測定値の測定時刻の組み合わせである。測定情報取得部251は、取得した測定値を測定情報記憶部254に記憶させる。
なお、測定情報取得部251は、測定情報記憶部254に測定値を記憶させる場合に、測定値のデータのバラつき防止のためにデータの平滑化を行う。具体的には、各種センサの出力信号をそれぞれフィルタリングすることにより、ノイズの影響を抑制する。
学習部252は、センサ部216に含まれる各センサが測定した測定値に基づいて、トリガ動作検出用情報についての学習を行う部分である。
具体的には、学習部252は、手動撮影を実行した時刻である手動撮影時刻を撮像装置10から受信する。そして、学習部252は、この手動撮影時刻のn秒前から手動撮影時刻までの、n秒間の測定値を測定情報記憶部254から読み出す。次に、学習モデル252は、このn秒間の測定値に基づいて、トリガ動作検出用情報についての学習を行う。
このトリガ動作検出用情報についての学習は、様々な方法で行うことができる。例えば、学習部252は、n秒間の測定値の変動を表す波形をトリガ動作として学習する。この場合に、単に波形そのものを学習するのではなく、波形の特徴部分をトリガ動作検出用情報として学習するようにするとよい。そのために、学習部252は、例えば、手動撮影が行われる都度学習を行うことにより、複数回の手動撮影それぞれに対応するn秒間の測定値の波形を複数生成する。そして、学習部252は、この複数の波形を比較することにより、各波形に共通する特徴部分をトリガ動作検出用情報として学習する。そして、学習部252は、学習したトリガ動作検出用情報を、動作検出用情報記憶部255に記憶させる。なお、動作用検出用情報は、例えば、学習した波形そのものや波形の特徴部分を示す閾値とする。
また、学習部252は、学習として、機械学習を行うようにしてもよい。この場合には、学習部252は、例えばパーセプトロンを組み合わせて構成したニューラルネットワークにより教師あり学習を行う。
そのために、学習部252は、n秒間の測定値から特徴量を抽出する。例えば、学習部252は、n秒間に測定された合成加速度の大きさや、水平方向の移動量等を特徴量として抽出する。また、学習部252は、手動撮影が行われたことを、教師あり学習における正解を表すラベルとする。
そして、学習部252は、この特徴量とラベルの組を教師データとしてニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じとなるように、各パーセプトロンについての重み付けを変更しながら学習を繰り返す。このようにして、学習部252は、教師データの特徴を学習し、入力から結果を推定するための学習モデルを帰納的に獲得する。そして、学習部252は、この学習モデルをトリガ動作検出用情報として、トリガ動作検出用情報記憶部255に記憶させる。
シャッタートリガ生成部253は、センサ部216に含まれる各センサが測定した測定値と、トリガ動作検出用情報記憶部255が記憶するトリガ動作検出用情報とに基づいて、トリガ動作が検出されるか否かの行動推定を行う。
例えば、学習部252が、各波形に共通する特徴部分を示す閾値をトリガ動作検出用情報として学習している場合には、シャッタートリガ生成部253は、センサ部216に含まれる各センサが測定した測定値を、トリガ動作検出用情報である閾値と比較する。そして、シャッタートリガ生成部253は、例えば、測定値が閾値を超えた場合に、トリガ動作を検出したと判定する。
また、例えば、学習部252が、機械学習の学習モデルを動作検出用情報として学習している場合には、シャッタートリガ生成部253は、センサ部216に含まれる各センサが測定した測定値の特徴量を学習モデルの入力とする。そして、シャッタートリガ生成部253は、学習モデルの出力に基づいて、トリガ動作を検出したと判定する。例えば、学習モデルの出力が、トリガ動作が検出された場合を示す閾値を超えた場合に、トリガ動作を検出したと判定する。
そして、シャッタートリガ生成部253は、行動推定の結果、トリガ動作が検出された場合に、自動撮影を行うためのシャッタートリガを生成する。そして、シャッタートリガ生成部253は、生成したシャッタートリガを、通信部220を介して撮像装置10に対して送信する。
制御装置20は、これら機能ブロックにより、センサの測定値と、トリガ動作検出用情報とに基づいて行動推定を行い、ユーザによるトリガ動作が検出された場合に自動撮影を行う。
[動作]
次に、自動撮影システムSの動作を説明する。
図6は、自動撮影システムSにおける撮像装置10と、制御装置20の動作を示すシーケンス図である。
ステップS11において、制御装置20は、撮像装置10に対して接続を確立するための接続要求を送信する。
ステップS12において、撮像装置10は、制御装置20からの接続要求を受けて、接続認証処理を行う。
ステップS13において、撮像装置10は、接続許可を制御装置20に対して送信する。
以上の処理により、撮像装置10と制御装置20との間の通信接続が確立する。なお、ステップS11からステップS13までの処理は、通信規格に準拠して行われるものであり、当業者によく知られているので、詳細な説明は省略する。
次に、学習処理と行動推定処理とが行われる。ここで、図2を参照した説明においても述べたように、これら2つの処理は、必ずしも交互に行われる訳ではなく、何れか一方の処理が連続して行われた後に、他方の処理が行われることもある。
まず学習処理について説明をする。
ステップS21において、撮像装置10は、ユーザからシャッター操作を受け付けた否かを判定する。ユーザからシャッター操作を受け付けていない場合には、ステップS21にてNoとなり、判定は繰り返される。一方で、ユーザからシャッター操作を受け付けていない場合には、ステップS21にてYesとなり、処理はステップS22に進む。
ステップS22において、撮像装置10は、手動撮影を実行する。
ステップS23において、撮像装置10は、手動撮影時刻を制御装置20に対して送信する。
ステップS24において、撮像装置10は、手動撮影時のn秒前から手動撮影時刻までのn秒間のセンサの測定値に基づいて学習を行う。なお、ステップS24の、より詳細な動作については、図7を参照して後述する。
ステップS25において、撮像装置10は、学習結果に基づいて、トリガ動作検出用情報を記録する。
次に、行動推定処理について説明をする。
ステップS31において、制御装置20は、一定時間毎にセンサの測定値と、トリガ動作検出用情報を用いて行動推定を行う。なお、ステップS31の、より詳細な動作については、図8を参照して後述する。
ステップS32において、制御装置20は、シャッタートリガを生成するか否かを判定する。ステップS31での行動推定においてトリガ動作が検出されなかった場合には、ステップS32にてNoと判定され、処理は再度ステップS31に進む。一方で、ステップS31での行動推定においてトリガ動作が検出された場合には、ステップS32にてYesと判定され、処理は再度ステップS33に進む。
ステップS33において、制御装置20は、シャッタートリガを生成する。
ステップS34において、制御装置20は、生成したシャッタートリガを撮像装置10に対して送信する。
ステップS35において、撮像装置10は、シャッタートリガの受信を契機として、自動撮影を実行する。
以上の学習処理及び行動推定処理が繰り返し行われる。そして、ユーザの操作等に伴ってこれらの処理が終了すると、ステップS14において、撮像装置10から制御装置20に対して切断要求が送信される。
ステップS15おいて、制御装置20から撮像装置10に対して切断了解の応答が送信される。
これにより、本処理は終了する。
次に、図7を参照して、図6のステップS24における動作について、より詳細に説明をする。ここで、図7のステップS41からステップS45までの処理が、図6のステップS24に相当する。なお、図7では、学習として教師ありの機械学習を行う場合を例にとって説明をする。
ステップS41において、学習部252は、手動撮影を実行した時刻である手動撮影時刻を撮像装置10から受信する。
ステップS42において、学習部252は、この手動撮影時刻のn秒前から手動撮影時刻までの、n秒間の測定値を測定情報記憶部254から検索して、取得する。
ステップS43において、学習部252は、このn秒間の測定値に基づいて、トリガ動作検出用情報についての学習を行う。そのために、学習部252は、n秒間の測定値から特徴量となるデータを抽出する。例えば、特徴量として、合成加速度や、水平/垂直加速度の分散や標準偏差等を抽出する。
ステップS44において、学習部252は、ステップS43で抽出した特徴量を教師ありの機械学習での教師データとして学習モデルを更新するか否かを判定する。この判定は、特徴量の値が一定の範囲内であるか、データの要素として不足なものはないか等を基準として行う。
学習モデルを更新する場合には、ステップS45にてYesと判定され処理はステップS46に進む。一方で、学習モデルを更新しない場合には、ステップS45にてNoと判定されステップS24は終了する。そして、ステップS25を行うことなく、ステップS21に戻り、処理は繰り返される。
ステップS46において、学習部252は、学習モデルを更新する。これにてステップS24は終了する。そして、処理はステップS25に進む。なお、ステップS25では、ステップS24にて更新した学習モデルをトリガ動作検出用情報としてトリガ動作検出用情報記憶部255に記憶させる。
なお、上述の説明では、教師データが取得される都度、機械学習を行うことを想定した。ただし、このようにすると、様々な動作のそれぞれが、トリガ動作として扱われることとなり、機械学習が収束しない場合がある。そこで、学習部252は、機械学習に用いる教師データの数に、或る程度上限を決めるようにしてもよい。このようにすれば、最近の行動についての教師データを利用して機械学習を行うことができる。
次に、図8を参照して、図6のステップS31の動作について、より詳細に説明をする。ここで、図8のステップS51からステップS56までの処理が、図6のステップS31に相当する。
ステップS51において、シャッタートリガ生成部253は、測定情報記憶部254から直近のn秒間のセンサの測定値を読み込む。
ステップS52において、シャッタートリガ生成部253は、直近のn秒間のセンサの測定値を解析することにより特徴量を抽出する。例えば、ステップS43と同様に、合成加速度や、水平/垂直加速度の分散や標準偏差等を行動推定用のデータとして抽出する。
ステップS53において、シャッタートリガ生成部253は、トリガ動作検出用情報記憶部255からトリガ動作検出用情報である学習モデルを取得する。
ステップS54において、シャッタートリガ生成部253は、ステップS52にて抽出した特徴量と、ステップS53にて取得した学習モデルとに基づいて、トリガ動作が検出されるか否かについて行動推定を行う。
これにより、ステップS31は終了し、処理はステップS32へ進む。
以上、図6、図7及び図8を参照した処理により、本実施形態では、ユーザに適した条件で自動撮影を行なうことができる。
次に、図9を参照して変形例1から変形例3までの3つの変形例について説明をする。
[変形例1]
上述の実施形態において、自動撮影システムSは、撮像装置10と制御装置20という2つの装置を含んで構成されていた。これを変形して、1つの装置にて撮像装置10と制御装置20の双方の機能を実現するようにしてもよい。
例えば、図9に<変形例1>として示すように、撮影部とディスプレイとからなる携帯端末30aにより、撮像装置10と制御装置20の双方の機能を実現するようにしてもよい。また、他にも、図9に<変形例1>として示すように、汎用のスマートフォンである携帯端末30bに、本実施形態特有の機能を実現するためのソフトウェアを組み込むことにより、撮像装置10と制御装置20の双方の機能を実現するようにしてもよい。
本変形例における、携帯端末装置30のハードウェア構成について図10を参照して説明をする。携帯端末装置30は、上記のように撮像装置10の機能及び制御装置20機能の双方を兼ね備えた装置として構成される。
図10に示すように、携帯端末装置30は、CPU311と、ROM312と、RAM313と、バス314と、入出力インターフェース315と、撮像部316と、センサ部317と、入力部318と、出力部319と、記憶部320と、通信部321、ドライブ322とを備えている。これらの構成は、図3を参照して説明した撮像装置10の同名の各部分あるいは図4を参照して説明した制御装置20の同名の各部分と同様である。
本変形例によれば、無線通信を行うことなく、自動撮影システムSを実現することが可能となる。
例えば、上述した実施形態では、シャッタートリガ生成部253を制御装置20に設け、このシャッタートリガ生成部253が生成したシャッタートリガを撮像装置10に対して送信し、このシャッタートリガを受信した撮像装置10が撮影を行っていた。これに対して、本変形例によれば、携帯端末30という1つの装置内において、シャッタートリガを生成し、生成したシャッタートリガに基づいた撮影を行うことができる。
このように、本変形例によれば、シャッタートリガ生成部を何れかの装置に設けた場合に、この何れかの装置自身で撮影を行うための制御を行う構成とするのか、この何れかの装置以外の装置で撮影を行うための制御を行う構成とするのかを、任意に選択することが可能となる。
[変形例2]
上述の実施形態において、自動撮影システムSは、撮像装置10と制御装置20という2つの装置を含んで構成されていた。ここで、図9に<変形例2>として示すように、撮像装置10を、ユーザの身につけるカメラではなく、ユーザが手に持って撮影をしたり、三脚に固定して撮影したりするカメラにより実現してもよい。これにより、例えばユーザがファインダーを確認してレンズ方向等を調整した状態で自動撮影を行うことができる。
また、制御装置20を、センサを備えたスマートウォッチにより実現してもよい。これにより、手首の動き等をセンサにより検出できるので、手首の動き等をトリガ動作とすることができる。
[変形例3]
上述の実施形態において、自動撮影システムSは、撮像装置10と制御装置20という2つの装置を含んで構成されていた。ここで、図9に<変形例3>として示すように、複数の装置に機能を分散するようにしてもよい。
例えば、撮像装置10におけるユーザからのシャッター操作を受け付ける機能をスマートフォンで実現して撮像装置11とし、撮像装置10における撮影を行う機能をカメラで実現して撮像装置12とすることにより、2つの装置に撮像装置10の機能を分散するようにしてもよい。
また、他にも例えば、制御装置20の機能を、図5に示したCPU211や記憶部219が実現する各機能ブロックを備える装置と、図5に示したセンサ部216を備える装置の2つの装置に分散するようにしてもよい。
これにより、自動撮影システムSの構成の自由度を向上させることができる。
[変形例4]
上述の実施形態では、手動撮影が行われた際のセンサによる測定値に基づいてトリガ動作検出用情報を学習していた。また、学習したトリガ動作検出用情報と、センサによる測定値とに基づいて行動推定を行うことにより、トリガ動作を検出していた。これを変形して、センサによる測定ではなく、撮影データを画像解析することにより、トリガ動作検出用情報を学習したり、行動推定を行ってトリガ動作を検出したりするようにしてもよい。
この場合、撮像装置10により、動画又は静止画でユーザを所定の周期で撮影する。そして、手動撮影が行われた際の撮像画像を画像解析することにより、トリガ動作検出用情報を学習する。更に、動画又は静止画でユーザを所定の周期で撮影し、撮像画像を画像解析した情報とトリガ動作検出用情報とに基づいて行動推定を行うことにより、トリガ動作を検出する。なお、これらの処理のために周期的に撮影された動画又は静止画は、画像解析を行いこれらの処理の対象とした後は不要なデータとなるので、逐次削除していくようにする。
これにより、センサによる測定値が難しい状況であっても本実施形態を適用することが可能となる。
[変形例5]
上述した実施形態では、手動撮影が行われた際のセンサによる測定値に基づいて学習を行うことにより、トリガ動作検出用情報を学習していた。この場合に、予め基準となるトリガ動作検出用情報を用意しておくようにしてもよい。そして、手動撮影が行われた際のセンサによる測定値に基づいて学習を行うことにより、この基準となるトリガ動作検出用情報を補正していくようにしてもよい。
これにより、全く何もない状況からトリガ動作検出用情報を生成する場合に比べて、早期にトリガ動作検出用情報の精度を上げることができる可能性がある。
また、基準となるトリガ動作検出用情報が同じものであっても、その後の補正によりユーザそれぞれに適したトリガ動作検出用情報に補正されていくので、個々のユーザに適したトリガ動作を検出することが可能となる。
[使用状況の例]
上述した本実施形態は、多様な状況で使用することができる。
例えば、登山をしているユーザが後ろを振り向いた場合に、後ろにいる同行者を被写体として撮影を行う場合を考える。この場合、ユーザは後ろを振り向いた際に、手動でシャッター操作を行う。すると、学習部252による学習が行われ、ユーザが後ろを振り向いた際の動き(つまり、トリガ動作)を測定した測定データに基づいてトリガ動作検出用情報が記録される。以後は、このトリガ動作検出用情報に基づいた行動推定により、ユーザが後ろを振り向く都度、自動撮影が行われる。
これにより、ユーザは、シャッター操作を行うことなく、後ろにいる同行者を被写体として撮影を行うことが可能となる。
ここで、トリガ動作はユーザが無意識に行うものであってもよいし、ユーザが意図的に行うものであってもよい。例えば、ユーザが右手又は左手を振る等の特徴的な動きを、トリガ動作として意図的に行い、この特徴的な動きを制御装置20に覚え込ませるようにしてもよい。
意図的に覚え込ませる例として、例えば、登山をしているユーザが背景を撮影する場合を考える。この場合、ユーザは立ち止まって特徴的な動きを意図的に行うと共に、手動でシャッター操作を行う。すると、学習部252による学習が行われ、立ち止まって特徴的な動きを意図的に行う際の動き(つまり、トリガ動作)を測定した測定データに基づいてトリガ動作検出用情報が記録される。以後は、このトリガ動作検出用情報に基づいた行動推定により、立ち止まって特徴的な動きを意図的に行う都度、自動撮影が行われる。
これにより、ユーザは、シャッター操作を行うことなく、任意の場所で撮影を行うことが可能となる。
例えば、他の例として、撮像装置10と、制御装置20を別々のユーザが使用するようにしてもよい。例えば、制御装置20を被写体となるユーザが身に付け、撮像装置10を撮影者となるユーザが保持する。そして、撮影者となるユーザが、被写体となるユーザが所定の動き(例えば、ジャンプ)をした場合に、被写体となるユーザを撮影するために、手動でシャッター操作を行う。すると、学習部252による学習が行われ、被写体となるユーザがジャンプをした際の動き(つまり、トリガ動作)を測定した測定データに基づいてトリガ動作検出用情報が記録される。以後は、このトリガ動作検出用情報に基づいた行動推定により、被写体となるユーザがジャンプをする都度、自動撮影が行われる。
例えば、他の例として集合写真を取る場合を考える。この場合、撮影者となるユーザは、被写体となるユーザに対して所定の動き(例えば、手招き)を意図的に行うと共に、手動でシャッター操作を行う。すると、学習部252による学習が行われ、被写体となるユーザに対して手招きをした際の動き(つまり、トリガ動作)を測定した測定データに基づいてトリガ動作検出用情報が記録される。以後は、このトリガ動作検出用情報に基づいた行動推定により、被写体となるユーザに対して手招きを意図的に行う都度、自動撮影が行われる。この場合に、撮像装置10を三脚等に固定し、撮影者となるユーザが、更に被写体となってもよい。
また、トリガ動作を行うのが、人物ではなくて、動物や装置等の動くものであってもよい。例えば、ペット等に制御装置20を身に着けさせ、このペット等のトリガ動作に基づいてこのペット等を撮影するという自動撮影を行うようにしてもよい。更に、例えば、踏切の遮断棹に制御装置20を装着し、遮断棹の開閉動作をトリガ動作として、通過する電車を撮影するという自動撮影を行うようにしてもよい。また、例えば、釣り竿の浮き部分に制御装置20のセンサ部216に相当する機能ブロックを装着し、魚を釣り上げる際の釣り竿の浮き部分の動きをトリガ動作としてもよい。このようにすれば、魚を釣り上げる様子を自動撮影の対象とすることができる。この場合に、撮像装置10は、釣り上げられる魚を撮影する位置に配置されてもよいし、釣り上げるユーザを撮影する位置に配置されてもよい。
また、スポーツを行う状況で自動撮影を行うようにしてもよい。例えば、スノーボードやサーフィンを行うユーザの動きをトリガ動作として、これらユーザが身に付けた撮像装置10で自動撮影を行うようにしてもよい。あるいは、スノーボードやサーフィンを行うユーザの動きをトリガ動作として、これらユーザを被写体として自動撮影を行うようにしてもよい。この場合には、これらユーザを撮影できる位置に撮像装置10を設置しておくようにしてもよい。
また、スノーボードやサーフィンを行うユーザの動きをトリガ動作として、制御装置20に覚え込ませる際の手動撮影を、これらユーザ以外の他のユーザが行うようにしてもよい。
なお、以上説明した状況において自動撮影を行う場合には、図9に示した変形例であって、状況に応じた変形例を利用するようにするとよい。また、これら例示した状況以外の状況で、上述の実施形態を利用するようにしてもよい。
[撮影者、被写体及びトリガ体の関係]
上述の変形例でも例示したように、本実施形態では、撮像装置10を利用して手動撮影を行う「撮影者」と、撮像装置10の手動撮影や自動撮影の撮影対象となる「被写体」と、制御装置20による検出対象であるトリガ動作を行う「トリガ体」とが、一致していてもよいし、それぞれ異なっていてもよい。
例えば、撮影者、被写体及びトリガ体が全て一致していてもよい。また、撮影者と、被写体及びトリガ体とが異なっていてもよい。また、撮影者及び被写体と、トリガ体とが異なっていてもよい。また、撮影者及びトリガ体と、被写体とが異なっていてもよい。また、撮影者、被写体及びトリガ体が全て異なっていてもよい。
更に、本実施形態では、通常の撮像装置を利用する場合と同様に、撮影者や被写体とする対象については特に限定されない。
また、トリガ体とする対象についても特に限定されない。上述の実施形態では、人間であるユーザをトリガ体する場合を例として説明したが、人間以外の動物や、装置あるいは自然現象等のトリガ動作の測定対象とできるものをトリガ体とすることができる。
[変形例6]
上述した実施形態では、ユーザ等のトリガ体による「トリガ動作」が検出されたことを契機として、リアルタイムに自動撮影を行うことにより撮影データを取得していた。
本変形例ではこれを変形する。具体的には、トリガ動作の検出を契機とするのではなく、トリガ体(トリガ)が撮影されたことを契機とするように変形する。また、契機が発生した場合に、リアルタイムに自動撮影を行うことにより撮影データを取得するのではなく、常時撮影により過去に撮影した撮影データを取得するように変形する。ここで、本変形例ではトリガ体の動作の検出を行う必要がないので、例えば、動作を検出する対象ではない背景等(トリガ)もトリガ体として扱うことができる。
このような変形後の処理を実現するための撮像装置10の機能的構成について、図11を参照して説明をする。なお、本変形では、制御装置20によりトリガ動作の検出を行う必要がないので、撮像装置10のみで本変形を実現することができる。
本変形における、学習処理及び行動推定処理が実行される場合、図11に示すように、CPU211において、撮影データ取得部151と、学習部152と、記憶トリガ生成部153とが機能する。
また、記憶部219の一領域には、撮影データ一時保存部154と、トリガ体検出用情報記憶部155と、撮影データ記憶部156とが設定される。
撮影データ取得部151は、撮像部116が撮影した撮像データを取得する部分である。本変形では、撮像部116は常時撮影を行っている。そして、撮像部116の撮影により生成された撮影データは、撮影データ取得部151により逐次取得される。撮影データ取得部151は、取得した撮影データを、撮影データ一時保存部154に保存させる。
撮影データ一時保存部154は、撮影データを一時的に保存する部分である。撮影データ一時保存部154は、所定の記憶容量とされる。そして、撮影データ取得部151は、新たな撮影データを撮影データ一時保存部154に保存させる際に、この所定の記憶容量を超えた撮影データについては、古いものから順次削除する。これにより、撮影データ一時保存部154は、直近の所定期間に撮影された撮影データを常に保存している状態となる。なお、直近の所定期間の長さは、撮影データ一時保存部154の記憶容量の大きさと、撮影データの解像度等により決定される撮影データの大きさにより定まる。
学習部152は、撮像部116が撮影した撮像データに基づいて、トリガ体検出用情報についての学習を行う部分である。
具体的には、学習部152は、ユーザが手動撮影を行うためにシャッターボタンを押下したことを検出すると、この検出時の時刻を、手動撮影を実行した時刻である手動撮影時刻として取得する。なお、シャッターボタンは入力部117により実現される。
ここで、本変形例では、撮影データ一時保存部154に、直近の所定期間に撮影された撮影データを常に保存している。そこで、本変形例では、上述の実施形態と同様に、ユーザがシャッターボタンを押下した場合に、撮像部116に撮像された撮影データを撮影データ記憶部156に記録することを手動撮影としてもよいが、ユーザが撮像データを選択することを手動撮影として扱ってもよい。つまり、ユーザが撮影データ一時保存部154に保存されている撮影データを参照し、ユーザがこの撮影データの中から選択した撮影データを撮影データ記憶部156に記録することを手動撮影として扱ってもよい。なお、ユーザによるこれらの操作は、本発明の「ユーザによる記録手段に対しての撮影データ取得操作」に相当する。
次に、学習部152は、撮影データ一時保存部154から、手動撮影時刻に撮影された撮影データを取得する。そして、学習部152は、取得した撮影データを解析することにより、この撮影データに写っている被写体を特定する。解析方法は、周知の方法でよく、例えば、撮像データのRGB値や輝度の値に基づいたパターンマッチングや、画像処理による輪郭点や特徴点抽出等の手法により、撮影データ内に写りこんでいる被写体を特定する。特定は例えば、「人物」、「動物」、「植物」、「風景」等の大きな区分で行ってもよいが、更に細かい区分で行ってもよい。例えば、顔認識技術を利用して、被写体である個人を特定するようにしてもよい。また、例えば、動物の種類や、植物の種類まで特定するようにしてもよい。また、例えば、単に画像が明るい場所で撮影されたものであるか、暗い場所で撮影されたものであるということを特定するようにしてもよい。
学習部152は、特定された被写体を示す情報を、トリガ体検出用情報として、トリガ体検出用情報記憶部155に記憶させる。なお、本変形においても、上記の特定を繰り返すことにより学習を行い、トリガ体検出用情報の精度を高めるようにしてもよい。
記憶トリガ生成部153は、撮影データ一時保存部154に保存される各撮影データと、トリガ体検出用情報記憶部155が記憶するトリガ体検出用情報とに基づいて、何れかの撮影データからトリガ体が検出されるか否かの判定を行う。
そして、記憶トリガ生成部153は、判定の結果、撮影データからトリガ体が検出されたことをトリガ(契機)として、このトリガ体が検出された撮影データを撮影データ一時保存部154から取得して、撮影データ記憶部156に記憶する。
これにより、本変形では、ユーザが手動撮影により撮影したトリガ体が、常時撮影においても撮影された場合に、このトリガ体が撮影された撮影データを記憶することができる。
例えば、ユーザが、或る種類の花をいつも撮影しているような場合に、ユーザによるシャッター操作を要することなく、自動的にこの或る種類の花の撮影データを記録して、蓄積していくようなことが可能となる。
つまり、本変形においても、ユーザに適した条件で自動撮影を行なうことが可能となる。なお、上述の実施形態における測定データや、本変形における常時撮影により取得される撮影データは、本発明の「観測情報」に相当する。
以上複数の変形例について説明したが、上述の実施形態や各変形例における構成を適宜組み合わせるようにしてもよい。
以上のように構成される制御装置20(撮像装置10)は、測定情報取得部251(入力部117)と、測定情報取得部251(撮影データ取得部152)と、学習部252(学習部152)と、シャッタートリガ生成部253(記憶トリガ生成部153)と、を備える。
測定情報取得部251(入力部117)は、ユーザによる記録手段に対しての撮影データ取得操作を検知する。
測定情報取得部251(撮影データ取得部152)は、撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する。
学習部252(学習部152)は、撮影データ取得操作を検知したときの観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する。
シャッタートリガ生成部253(記憶トリガ生成部153)は、観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う。
これにより、観測情報に基づいて精度高く撮像データを取得できる。
シャッタートリガ生成部253(記憶トリガ生成部153)による自動的に撮影データを取得するための制御に基づいて、当該制御装置20(撮像装置10)又は当該制御装置20(撮像装置10)以外の装置が、自動的に撮影データを取得する。
これにより、観測情報に基づいて自動的に撮像データを取得できる。
シャッタートリガ生成部253(記憶トリガ生成部153)は、撮影データ取得操作を検知しないときの観測情報と、閾値との比較結果に応じて、自動的に撮影データを取得するための制御を行う。
これにより、ユーザが撮像データ取得操作を検知したときと同じ動作をした場合に、撮像データを取得できる。
測定情報取得部251(撮影データ取得部152)は、観測情報としてトリガの動きを測定する動きセンサの測定結果を取得し、
シャッタートリガ生成部253(記憶トリガ生成部153)は、動きセンサの測定結果に基づいてトリガの動きを特定し、該特定されたトリガの動きに基づいて、自動的に撮影データを取得するための制御を行う。
これにより、動きセンサによる推定結果に基づいて、撮像データを取得できる。
測定情報取得部251(撮影データ取得部152)は、観測情報として撮像部116が撮影した撮影データを取得し、
シャッタートリガ生成部253(記憶トリガ生成部153)は、撮像部116が撮影した撮影データを解析することにより、トリガの動きを特定し、該特定されたトリガの動きに基づいて、自動的に撮影データを取得するための制御を行う。
これにより、撮像データの解析結果に基づいて、撮像データを取得できる。
測定情報取得部251(撮影データ取得部152)は、観測情報として撮像部116が撮影した撮影データを取得し、
シャッタートリガ生成部253(記憶トリガ生成部153)は、撮像部116が撮影した撮影データを解析することにより、トリガが撮影されたか否かを判定し、該判定の結果に基づいて、自動的に撮影データを取得するための制御を行う。
これにより、トリガ体が撮影されたか否かに基づいて、撮像データを取得できる。
学習部252(学習部152)は、ユーザによるシャッター操作を検知したときの観測情報を蓄積し、該蓄積した観測情報を用いて設定する閾値を学習する。
これにより、学習結果を利用して、精度高く、撮像データを取得できる。
学習部252(学習部152)は、蓄積した観測情報に基づいて、シャッター操作を検知したときの観測情報に対応するパターンを特定し、該特定したパターンの中でも特徴的なパターンに基づいて学習を行う。
これにより、非特徴的な動きパターンのデータを用いることなく、より精度高く、撮像データを取得できる。
学習部252(学習部152)は、観測情報の基準となる基準情報を記憶しており、測定情報取得部251(撮影データ取得部152)が取得した観測情報に基づいて基準情報を補正することにより学習を行い、
トリガが複数存在する場合には、学習はトリガそれぞれ毎に行われる。
これにより、個々のユーザに適した学習を行うことができる。
トリガ体とはユーザである。
これにより、シャッター操作を行うユーザに適した学習を行うことができる。
撮像部116は、当該制御装置20(撮像装置10)とは別個の装置により実現され、
シャッタートリガ生成部253(記憶トリガ生成部153)は、別個の装置により実現された撮像部116と通信を行うことにより、自動的に撮影データを取得するための制御を行う。
これにより、撮影部を備えていない装置により、制御装置20を実現することができる。
シャッタートリガ生成部253(記憶トリガ生成部153)は、撮像部116のシャッター操作を自動制御することにより撮影データを取得する。
これにより、撮影した新たな撮影データを新たに取得することができる。
撮像部116が撮影した撮影データを一時保存する撮影データ一時保存部154を更に備え、
シャッタートリガ生成部253(記憶トリガ生成部153)は、自動制御により撮影データ一時保存部154に保存された撮影データを取得する。
これにより、一時保存していた撮影データを取得できる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
なお、本実施形態では、トリガ体に関する観測情報は、画像データから抽出された観測情報(例えば、被写体の動きに関する情報や画像のRGB情報や輝度値に関する情報)であった。しかし、トリガ体に関する観測情報は、画像データから抽出された観測情報に限らず、画像データそのものであってもよい。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、例えば図5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が自動撮影システムSに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図5の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア231、331は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されているROM112、212、312や、記憶部119、219、320に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
ユーザによる記録手段に対しての撮影データ取得操作を検知する検知手段と、
前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得手段と、
前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定手段と、
前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御手段と、
を備えることを特徴とする撮像制御装置。
[付記2]
前記制御手段による前記自動的に撮影データを取得するための制御に基づいて、当該撮像制御装置又は当該撮像制御装置以外の装置が、自動的に撮影データを取得することを特徴とする付記1に記載の撮像制御装置。
[付記3]
前記制御手段は、前記撮影データ取得操作を検知しないときの前記観測情報と、前記閾値との比較結果に応じて、前記自動的に撮影データを取得するための制御を行うことを特徴とする付記1又は2に記載の撮像制御装置。
[付記4]
前記取得手段は、前記観測情報として前記トリガの動きを測定する動きセンサの測定結果を取得し、
前記制御手段は、前記動きセンサの測定結果に基づいて前記トリガの動きを特定し、該特定されたトリガの動きに基づいて、前記自動的に撮影データを取得するための制御を行うことを特徴とする付記1乃至3の何れか1に記載の撮像制御装置。
[付記5]
前記取得手段は、前記観測情報として撮像手段が撮影した撮影データを取得し、
前記制御手段は、前記撮像手段が撮影した撮影データを解析することにより、前記トリガの動きを特定し、該特定されたトリガの動きに基づいて、前記自動的に撮影データを取得するための制御を行うことを特徴とする付記1乃至3の何れか1に記載の撮像制御装置。
[付記6]
前記取得手段は、前記観測情報として撮像手段が撮影した撮影データを取得し、
前記制御手段は、前記撮像手段が撮影した撮影データを解析することにより、前記トリガが撮影されたか否かを判定し、該判定の結果に基づいて、前記自動的に撮影データを取得するための制御を行うことを特徴とする付記1乃至3の何れか1に記載の撮像制御装置。
[付記7]
前記設定手段は、前記ユーザによるシャッター操作を検知したときの前記観測情報を蓄積し、該蓄積した観測情報を用いて前記設定する閾値を学習する付記1乃至6の何れか1に記載の撮像制御装置。
[付記8]
前記設定手段は、前記蓄積した観測情報に基づいて、前記シャッター操作を検知したときの前記観測情報に対応するパターンを特定し、該特定したパターンの中でも特徴的なパターンに基づいて前記学習を行うことを特徴とする付記7に記載の撮像制御装置。
[付記9]
前記設定手段は、前記観測情報の基準となる基準情報を記憶しており、前記取得手段が取得した前記観測情報に基づいて前記基準情報を補正することにより前記学習を行い、
前記トリガが複数存在する場合には、前記学習はトリガそれぞれ毎に行われる付記7又は付記8に記載の撮像制御装置。
[付記10]
前記トリガとは前記ユーザであることを特徴とする付記1乃至9何れか1に記載の撮像制御装置。
[付記11]
撮像手段は、当該撮像制御装置とは別個の装置により実現され、
前記制御手段は、前記別個の装置により実現された撮像手段と通信を行うことにより、前記自動的に撮影データを取得するための制御を行うことを特徴とする付記1乃至10の何れか1に記載の撮像制御装置。
[付記12]
前記制御手段は、撮像手段のシャッター操作を自動制御することにより撮影データを取得することを特徴とする付記1乃至11の何れか1に記載の撮像制御装置。
[付記13]
撮像手段が撮影した撮影データを一時保存する一時保存手段を更に備え、
前記制御手段は、自動制御により前記一時保存手段に保存された撮影データを取得することを特徴とする付記1乃至11の何れか1に記載の撮像制御装置。
[付記14]
撮像制御装置が実行する撮像制御方法であって、
ユーザによる記録手段に対しての撮影データ取得操作を検知する検知ステップと、
前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得ステップと、
前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定ステップと、
前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御ステップと、
を備えることを特徴とする撮像制御方法。
[付記15]
撮像制御装置を制御するコンピュータに、
ユーザによる記録手段に対しての撮影データ取得操作を検知する検知機能と、
前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得機能と、
前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定機能と、
前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御機能と、
を実現させることを特徴とする撮像制御プログラム。
S 自動撮影システム,10、10a・・・撮像装置,20・・・制御装置,30・・・携帯端末装置,111、211、311・・・CPU,112、212、312・・・ROM,113、213、313・・・RAM,114、214、314・・・バス,115、215、315・・・入出力インターフェース,116、316・・・撮像部,216、317・・・センサ部,117、217、318・・・入力部,118、218、319・・・出力部,119、219、320・・・記憶部,120、220、321・・・通信部,121、322・・・ドライブ,131、331・・・リムーバブルメディア,151・・・撮影データ取得部,152、252・・・学習部,154・・・撮影データ一時保存部,155・・・トリガ体検出用情報記憶部,156・・・撮影データ記憶部,251・・・測定情報取得部,253・・・シャッタートリガ生成部,254・・・測定情報記憶部,255・・・トリガ動作検出用情報記憶部

Claims (14)

  1. ユーザによる記録手段に対しての撮影データ取得操作を検知する検知手段と、
    前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得手段と、
    前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定手段と、
    前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御手段と、を備え、
    前記設定手段は、前記ユーザによるシャッター操作を検知したときの前記観測情報を蓄積し、前記蓄積した観測情報に基づいて、前記シャッター操作を検知したときの前記観測情報に対応するパターンを特定し、該特定したパターンの中でも特徴的なパターンに基づいて前記設定する閾値を学習することを特徴とする撮像制御装置。
  2. 前記制御手段による前記自動的に撮影データを取得するための制御に基づいて、当該撮像制御装置又は当該撮像制御装置以外の装置が、自動的に撮影データを取得することを特徴とする請求項1に記載の撮像制御装置。
  3. 前記制御手段は、前記撮影データ取得操作を検知しないときの前記観測情報と、前記閾値との比較結果に応じて、前記自動的に撮影データを取得するための制御を行うことを特徴とする請求項1又は2に記載の撮像制御装置。
  4. 前記取得手段は、前記観測情報として前記トリガの動きを測定する動きセンサの測定結果を取得し、
    前記制御手段は、前記動きセンサの測定結果に基づいて前記トリガの動きを特定し、該特定されたトリガの動きに基づいて、前記自動的に撮影データを取得するための制御を行うことを特徴とする請求項1乃至3の何れか1項に記載の撮像制御装置。
  5. 前記取得手段は、前記観測情報として撮像手段が撮影した撮影データを取得し、
    前記制御手段は、前記撮像手段が撮影した撮影データを解析することにより、前記トリガの動きを特定し、該特定されたトリガの動きに基づいて、前記自動的に撮影データを取得するための制御を行うことを特徴とする請求項1乃至3の何れか1項に記載の撮像制御装置。
  6. 前記取得手段は、前記観測情報として撮像手段が撮影した撮影データを取得し、
    前記制御手段は、前記撮像手段が撮影した撮影データを解析することにより、前記トリガが撮影されたか否かを判定し、該判定の結果に基づいて、前記自動的に撮影データを取得するための制御を行うことを特徴とする請求項1乃至3の何れか1項に記載の撮像制御装置。
  7. 前記設定手段は、前記観測情報の基準となる基準情報を記憶しており、前記取得手段が取得した前記観測情報に基づいて前記基準情報を補正することにより前記学習を行い、
    前記トリガが複数存在する場合には、前記学習はトリガそれぞれ毎に行われる請求項1乃至6何れか1項に記載の撮像制御装置。
  8. 前記トリガとは前記ユーザであることを特徴とする請求項1乃至何れか1項に記載の撮像制御装置。
  9. 撮像手段は、当該撮像制御装置とは別個の装置により実現され、
    前記制御手段は、前記別個の装置により実現された撮像手段と通信を行うことにより、前記自動的に撮影データを取得するための制御を行うことを特徴とする請求項1乃至の何れか1項に記載の撮像制御装置。
  10. 前記制御手段は、撮像手段のシャッター操作を自動制御することにより撮影データを取得することを特徴とする請求項1乃至の何れか1項に記載の撮像制御装置。
  11. 撮像手段が撮影した撮影データを一時保存する一時保存手段を更に備え、
    前記制御手段は、自動制御により前記一時保存手段に保存された撮影データを取得することを特徴とする請求項1乃至の何れか1項に記載の撮像制御装置。
  12. 撮像制御装置が実行する撮像制御方法であって、
    ユーザによる記録手段に対しての撮影データ取得操作を検知する検知ステップと、
    前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得ステップと、
    前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定ステップと、
    前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御ステップと、を備え、
    前記設定ステップは、前記ユーザによるシャッター操作を検知したときの前記観測情報を蓄積し、前記蓄積した観測情報に基づいて、前記シャッター操作を検知したときの前記観測情報に対応するパターンを特定し、該特定したパターンの中でも特徴的なパターンに基づいて前記設定する閾値を学習することを特徴とする撮像制御方法。
  13. 撮像制御装置を制御するコンピュータに、
    ユーザによる記録手段に対しての撮影データ取得操作を検知する検知機能と、
    前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得機能と、
    前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定機能と、
    前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御機能と、を実現させる撮像制御プログラムであって、
    前記設定機能は、前記ユーザによるシャッター操作を検知したときの前記観測情報を蓄積し、前記蓄積した観測情報に基づいて、前記シャッター操作を検知したときの前記観測情報に対応するパターンを特定し、該特定したパターンの中でも特徴的なパターンに基づいて前記設定する閾値を学習することを特徴とする撮像制御プログラム。
  14. ユーザによる記録手段に対しての撮影データ取得操作を検知する検知手段と、
    前記撮影データ取得操作の検知に基づいて、自動的に撮影データを取得するためのトリガに関する観測情報を取得する取得手段と、
    前記撮影データ取得操作を検知したときの前記観測情報に基づいて、自動的に撮影データを取得するための閾値を設定する設定手段と、
    前記観測情報の閾値に基づいて、自動的に撮影データを取得するための制御を行う制御手段と、を備え、
    前記設定手段は、前記観測情報の基準となる基準情報を記憶しており、前記取得手段が取得した前記ユーザによるシャッター操作を検知したときの前記観測情報を蓄積し、該蓄積した観測情報に基づいて前記基準情報を補正することにより前記設定する閾値を学習し、
    前記トリガが複数存在する場合には、前記学習はトリガそれぞれ毎に行われることを特徴とする撮像制御装置。
JP2017124624A 2017-06-26 2017-06-26 撮像制御装置、撮像制御方法及び撮像制御プログラム Active JP6624167B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017124624A JP6624167B2 (ja) 2017-06-26 2017-06-26 撮像制御装置、撮像制御方法及び撮像制御プログラム
US16/015,652 US10728437B2 (en) 2017-06-26 2018-06-22 Image capture control apparatus, image capture control method, and image capture control program
CN201810670121.5A CN109120844B (zh) 2017-06-26 2018-06-26 摄像控制装置、摄像控制方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017124624A JP6624167B2 (ja) 2017-06-26 2017-06-26 撮像制御装置、撮像制御方法及び撮像制御プログラム

Publications (2)

Publication Number Publication Date
JP2019009660A JP2019009660A (ja) 2019-01-17
JP6624167B2 true JP6624167B2 (ja) 2019-12-25

Family

ID=64692859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017124624A Active JP6624167B2 (ja) 2017-06-26 2017-06-26 撮像制御装置、撮像制御方法及び撮像制御プログラム

Country Status (3)

Country Link
US (1) US10728437B2 (ja)
JP (1) JP6624167B2 (ja)
CN (1) CN109120844B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018100676A1 (ja) * 2016-11-30 2018-06-07 株式会社オプティム カメラ制御システム、カメラ制御方法、およびプログラム
JP6641447B2 (ja) * 2017-12-26 2020-02-05 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
CN109276217B (zh) * 2018-12-05 2021-12-24 济宁市龙浩钢管制造有限公司 过滤器实时驱动平台
JP7453772B2 (ja) * 2019-11-01 2024-03-21 キヤノン株式会社 情報処理装置及びその制御方法、撮像装置システム、プログラム
US11354026B1 (en) * 2020-01-28 2022-06-07 Apple Inc. Method and device for assigning an operation set

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112054A (ja) * 2002-09-13 2004-04-08 Fuji Photo Film Co Ltd 撮影アドバイスカメラ
JP2004354420A (ja) * 2003-05-27 2004-12-16 Fuji Photo Film Co Ltd 自動撮影システム
JP2004361708A (ja) * 2003-06-05 2004-12-24 Fuji Photo Film Co Ltd リストカメラ
US8169484B2 (en) * 2005-07-05 2012-05-01 Shai Silberstein Photography-specific digital camera apparatus and methods useful in conjunction therewith
US7441063B2 (en) * 2005-12-14 2008-10-21 Aten International Co., Ltd. KVM system for controlling computers and method thereof
JP2007213378A (ja) * 2006-02-10 2007-08-23 Fujifilm Corp 特定表情顔検出方法、撮像制御方法および装置並びにプログラム
US20080231714A1 (en) * 2007-03-22 2008-09-25 Texas Instruments Incorporated System and method for capturing images
JP4513843B2 (ja) * 2007-09-10 2010-07-28 カシオ計算機株式会社 撮像装置及びプログラム
JP2010068499A (ja) * 2008-09-15 2010-03-25 Brother Ind Ltd 撮影履歴記録システム
JP2010146276A (ja) 2008-12-18 2010-07-01 Nec Corp 行動予測システム、行動予測方法および行動予測用プログラム
US8064759B1 (en) * 2009-04-15 2011-11-22 Dp Technologies, Inc. Method and apparatus for motion-state based image acquisition
US8957979B2 (en) * 2011-07-19 2015-02-17 Sony Corporation Image capturing apparatus and control program product with speed detection features
US8957988B2 (en) * 2013-01-23 2015-02-17 Orcam Technologies Ltd. Apparatus for processing images to prolong battery life
US10142598B2 (en) * 2014-05-30 2018-11-27 Sony Corporation Wearable terminal device, photographing system, and photographing method
JP6476692B2 (ja) 2014-09-26 2019-03-06 カシオ計算機株式会社 システム並びに装置、制御方法
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
JP2016213548A (ja) 2015-04-30 2016-12-15 カシオ計算機株式会社 撮影システム、撮影方法、検知装置及び撮影装置

Also Published As

Publication number Publication date
CN109120844A (zh) 2019-01-01
US20180376050A1 (en) 2018-12-27
CN109120844B (zh) 2020-10-30
JP2019009660A (ja) 2019-01-17
US10728437B2 (en) 2020-07-28

Similar Documents

Publication Publication Date Title
JP6624167B2 (ja) 撮像制御装置、撮像制御方法及び撮像制御プログラム
US8509482B2 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP4458173B2 (ja) 画像記録方法、画像記録装置、およびプログラム
JP6049448B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
US20160189392A1 (en) Object tracking apparatus, control method therefor and storage medium
JP2017229033A (ja) 撮像装置およびその制御方法ならびにプログラム
US20160088219A1 (en) Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium
JP2015119323A (ja) 撮像装置、画像取得方法及びプログラム
JP5811654B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5880135B2 (ja) 検出装置、検出方法及びプログラム
JP2017005395A (ja) 撮像装置、撮像制御方法及びプログラム
JP6087615B2 (ja) 画像処理装置およびその制御方法、撮像装置、および表示装置
JP2011130384A (ja) 被写体追跡装置及びその制御方法
JP6399869B2 (ja) 被写体追尾装置、撮像装置、被写体追尾方法及びプログラム
JP5835207B2 (ja) 撮像装置、撮像制御方法、及びプログラム
JP2018099416A (ja) 運動解析装置、運動解析方法及びプログラム
JP5222429B2 (ja) 被写体追跡装置及びその制御方法
JP2010093451A (ja) 撮像装置および撮像装置用プログラム
JP2017199972A (ja) 端末装置、情報取得システム、情報取得方法およびプログラム
JP2010141911A (ja) 画像記録方法、画像記録装置、およびプログラム
JP2018139419A (ja) 撮像制御装置、撮像制御方法、及び、プログラム
JP2019083518A (ja) 撮像装置、撮像装置の制御方法、および、プログラム
WO2019082832A1 (ja) 撮像装置、撮像装置の制御方法、および、プログラム
JP6379840B2 (ja) 制御装置、制御システム、制御方法及びプログラム
JP6631649B2 (ja) 撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191111

R150 Certificate of patent or registration of utility model

Ref document number: 6624167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150