JP7156356B2 - Control device, control method, program - Google Patents

Control device, control method, program Download PDF

Info

Publication number
JP7156356B2
JP7156356B2 JP2020213806A JP2020213806A JP7156356B2 JP 7156356 B2 JP7156356 B2 JP 7156356B2 JP 2020213806 A JP2020213806 A JP 2020213806A JP 2020213806 A JP2020213806 A JP 2020213806A JP 7156356 B2 JP7156356 B2 JP 7156356B2
Authority
JP
Japan
Prior art keywords
state
detection
imaging
recording
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020213806A
Other languages
Japanese (ja)
Other versions
JP2021061626A (en
Inventor
雅也 木下
健太郎 松倉
明 徳世
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2020213806A priority Critical patent/JP7156356B2/en
Publication of JP2021061626A publication Critical patent/JP2021061626A/en
Application granted granted Critical
Publication of JP7156356B2 publication Critical patent/JP7156356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Description

本技術は制御装置、制御方法、プログラムに関し、特に撮像装置等の使用中の状況・状態に応じた撮像処理動作が行われるようにする技術に関する。 TECHNICAL FIELD The present technology relates to a control device, a control method, and a program , and more particularly to a technology for performing an imaging processing operation according to the situation/state during use of an imaging device or the like.

特許第4757173号公報Japanese Patent No. 4757173 特許第4998122号公報Japanese Patent No. 4998122 特開2009-302772号公報JP 2009-302772 A

例えば上記特許文献1,2,3に開示されるように、撮像装置がユーザの操作によらずに所定の条件に応じて自動的に撮像を行うようにする技術が知られている。 For example, as disclosed in Patent Literatures 1, 2, and 3 above, techniques are known in which an imaging device automatically performs imaging according to predetermined conditions without depending on user's operation.

ところで近年、撮像装置の小型化、高性能化に伴って、より多様な撮像環境におけるデジタルビデオカメラの使用が広がっている。
一例として、耐衝撃性・耐水性を持った“アクションカメラ“と呼ばれるジャンルのカメラが登場している。このジャンルのカメラはその特徴からウェアラブルカメラなどとも呼ばれ、マウントを介して身に着けて使用することで旧来のカメラでは撮像できなかったアングルや状況での撮像を可能とする点で有用とされている。
By the way, in recent years, along with the miniaturization and high performance of imaging devices, the use of digital video cameras in more diverse imaging environments is spreading.
As an example, cameras of the genre called "action cameras" with shock resistance and water resistance have appeared. Cameras of this genre are also called wearable cameras due to their characteristics, and they are said to be useful in that they can be used by wearing them on the body via a mount, enabling them to capture images at angles and in situations that cannot be captured with conventional cameras. ing.

このジャンルのカメラの特徴として、身体への装身具、あるいはアクティビティを楽しむためのギア(例えばスノーボード、サーフボード、バイク、ヘルメット等)等といった部材に取り付けた状態で使用されることが多い。また小型化により操作スイッチ類や表示部等のユーザインターフェース部分が乏しい傾向にある。これらのことから、ユーザ(アクティビティを行っている人自身)は録画開始・停止操作を行いづらい。 A feature of cameras in this genre is that they are often used while attached to a member such as a body accessory or gear for enjoying activities (for example, snowboards, surfboards, motorcycles, helmets, etc.). In addition, due to the miniaturization, user interfaces such as operation switches and display units tend to be lacking. For these reasons, it is difficult for the user (the person performing the activity) to start/stop recording.

さらに、操作性の低下に伴って、いわゆる重要シーンのみを撮像したり、重要シーンのみを特殊なモードとすること等が難しい。例えば近年の高機能化により、高画質や特殊効果を付加した映像を撮像することも容易となっているが、アクティビティの途中でそのようなモードに切り換えることはほとんど無理である。例えばスノーボーダーが身体にカメラを装着してしようしているときに、ジャンプの瞬間にモードを切り換えるというようなことはできない。そのため機能を生かせなかったり、記憶容量を費やすモードの状態で無駄に長時間の録画を強いられたりする状況がある。 Furthermore, as the operability deteriorates, it is difficult to image only so-called important scenes or set only important scenes to a special mode. For example, recent advances in functionality have made it easy to capture images with high image quality and special effects, but it is almost impossible to switch to such a mode during an activity. For example, when a snowboarder is wearing a camera and using it, it is not possible to switch modes at the moment of a jump. As a result, there are situations in which the function cannot be utilized, or in a state in which the storage capacity is used up, recording for a long period of time unnecessarily.

そこで本技術は、ユーザインターフェースの乏しい機器や、使用中の操作が困難な状況で使用される機器などにおいて、ユーザにとって望ましい撮像を可能とする手法を提供することを目的とする。 Accordingly, an object of the present technology is to provide a technique that enables imaging that is desirable for a user in a device with a poor user interface, a device that is used in a situation where it is difficult to operate while in use, or the like.

本技術に係る制御装置は、撮像環境が第1ステートになること検出する第1検出と、前記第1ステートから第2ステートになることを検出する第2検出とを行う検出部と、前記第1ステートの検出に基づいて第1モードの撮像処理動作を指示し、前記第2ステートの検出に基づいて第2モードの撮像処理動作を指示する指示部とを備える。
撮像環境とは、撮像装置、又は撮像装置を遠隔制御する遠隔制御装置についての使用中の被装着体又は被写体の状況・状態をいう。「モード」は撮像装置の撮像処理動作としての動作が異なる状態を指す。
検出部が撮像環境についての第1ステート、第2ステートを検出する。第1ステート、第2ステート毎に所定の撮像処理動作を設定しておき、検出部が検出したステートに応じた制御を指示部が行う。即ち第1ステートが検出された場合、指示部は、その検出時点、もしくはその後の時点で、第1モードの指示を行い、第2ステートが検出された場合、指示部は、その検出時点やその後の所定の時点で第2モードの指示を行う。
A control device according to the present technology includes a detection unit that performs a first detection that detects that an imaging environment changes to a first state and a second detection that detects that the imaging environment changes from the first state to a second state; an instruction unit that instructs an imaging processing operation in a first mode based on the detection of one state, and instructs an imaging processing operation in a second mode based on the detection of the second state.
The imaging environment refers to the situation/state of the wearable object or the subject in use with respect to the imaging device or the remote control device that remotely controls the imaging device. "Mode" refers to a state in which the imaging processing operation of the imaging apparatus is different.
A detection unit detects a first state and a second state of the imaging environment. A predetermined imaging processing operation is set for each of the first state and the second state, and the instruction section performs control according to the state detected by the detection section . That is, when the first state is detected, the instruction unit instructs the first mode at the time of detection or after that, and when the second state is detected, the instruction unit instructs at the time of detection or after The second mode is instructed at a predetermined point of time.

上記した本技術に係る制御装置においては、前記検出部は、前記撮像環境として、撮像装置の被装着体もしくは被写体、又は撮像装置と通信可能な機器の被装着体が、前記第1ステート又は前記第2ステートとなることの検出を行うことが考えられる。
即ち撮像環境として、撮像装置や遠隔制御装置を使用する人、装着した人、装着した動物、装着した物体、さらには撮像装置の被写体の状況、状態の検出を行うようにする。例えば被装着体としての人が、或る競技を開始する状態を第1ステート、競技中の特定の動作状態になることを第2ステートなどとする。
In the above-described control device according to the present technology, the detection unit is configured such that, as the imaging environment, the mounted body of the imaging device or the subject, or the mounted body of the device capable of communicating with the imaging device is in the first state or the It is conceivable to detect the transition to the second state.
That is, as an imaging environment, a person using an imaging device or a remote control device, a person wearing the device, an animal wearing the device, an object wearing the device, and further, conditions and states of subjects of the imaging device are detected. For example, a state in which a person as an object to be worn starts a certain competition is defined as a first state, and a specific movement state during a competition is defined as a second state.

上記した本技術に係る制御装置においては、前記検出部は、前記第2検出として、撮像装置の被装着体もしくは被写体、又は撮像装置と通信可能な機器の被装着体の非操作アクションの検出を行うことが考えられる。
第1ステートに至った状態で行う第2検出は、被装着体や被写体の動きを検出するが、その動きは、特に撮像に関する操作のための動きではなく、第2ステートとしての特定の動作を検出するようにする。
In the above-described control device according to the present technology, the detection unit detects, as the second detection, a non-operating action of an imaging device mounted body or a subject, or a mounted body of a device capable of communicating with the imaging device. can be considered.
The second detection, which is performed in the first state, detects the movement of the wearable body or the subject, but the movement is not the movement for the operation related to imaging, but the specific operation as the second state. detect it.

上記した本技術に係る制御装置においては、前記検出部は、前記第1検出として、撮像装置の被装着体もしくは被写体である人の操作アクションの検出を行うことが考えられる。
第1ステートに至ることについては、撮像装置や遠隔制御装置のユーザの意思に基づく操作により判断する。例えばスポーツ、アクティビティなどとしての動作の開始を第1ステートとした場合、その開始をユーザの操作により検知することで、第1モードの撮像処理動作をユーザ意思に基づいて開始する。
In the above-described control device according to the present technology, it is conceivable that the detection unit detects an operation action of a person who is an object to which the imaging device is attached or a subject as the first detection.
Whether or not the first state is reached is determined by the user's intentional operation of the imaging device or the remote control device. For example, if the start of an action such as a sport or an activity is set to the first state, the start of the action is detected by the user's operation, and the imaging processing operation in the first mode is started based on the user's intention.

上記した本技術に係る制御装置においては、前記検出部は、前記第2ステートから第3ステートになることを検出する第3検出を行い、前記指示部は、前記第3ステートの検出に基づいて、少なくとも前記第2モードで実行される撮像処理動作の終了を指示することが考えられる。
即ち第3ステートを検出することで、第2ステートにおいて実行指示する第2モードの終了制御を行う。
In the above-described control device according to the present technology, the detection unit performs third detection for detecting that the state changes from the second state to the third state, and the instruction unit performs the third detection based on the detection of the third state. , to instruct the end of the imaging processing operation executed at least in the second mode.
That is, by detecting the third state, end control of the second mode instructed to be executed in the second state is performed.

上記した本技術に係る制御装置においては、前記指示部が指示する前記第1モードの撮像処理動作は、撮像画像データをリングメモリ形態でメモリへバファリングする処理動作を含み、前記指示部が指示する前記第2モードの撮像処理動作は、前記メモリにバファリングされていく撮像画像データのうちで記録画像として保存する範囲を設定する処理動作を含むことが考えられる。
つまり第1ステート検出に応じて、撮像画像データのバッファリングを開始させる。そして第2ステート検出に応じて、バッファリングしている、もしくはバッファリングされたうちで、記録画像として、所定の記録媒体に転送し保存させる画像の範囲を設定する。
In the above-described control device according to the present technology, the imaging processing operation in the first mode instructed by the instruction unit includes a processing operation of buffering captured image data in a ring memory format in a memory, and the instruction unit instructs It is conceivable that the imaging processing operation in the second mode includes a processing operation for setting a range of captured image data buffered in the memory to be saved as a recorded image.
That is, the buffering of the captured image data is started in response to the detection of the first state. Then, in response to the detection of the second state, the range of the image that is buffered or buffered is set as the image to be transferred and saved in a predetermined recording medium.

上記した本技術に係る制御装置においては、前記指示部が指示する前記第1モードの撮像処理動作は、前記第1ステートとされた期間の撮像画像データを第1のフレームレートで記録画像として保存するための処理動作を含み、前記指示部が指示する前記第2モードの撮像処理動作は、前記第2ステートとされた期間の撮像画像データを前記第1のフレームレートよりは高いフレームレートである第2のフレームレートで記録画像として保存するための処理動作を含むことが考えられる。
つまり第1ステートとされた期間の撮像画像データについては第1のフレームレートで記録され、第2ステートとされた期間の撮像画像データは第2のフレームレート(ハイフレームレート)で記録される。
In the above-described control device according to the present technology, the imaging processing operation in the first mode instructed by the instruction unit stores the captured image data in the first state period as a recorded image at a first frame rate. and the imaging processing operation in the second mode instructed by the instruction unit is a frame rate higher than the first frame rate for the captured image data during the period in which the second state is set. It is conceivable to include a processing operation for saving as a recorded image at a second frame rate.
That is, captured image data during the first state period is recorded at a first frame rate, and captured image data during the second state period is recorded at a second frame rate (high frame rate).

上記した本技術に係る制御装置においては、前記検出部は、前記第2ステートから第3ステートになることを検出する第3検出を行い、前記指示部が指示する前記第1モードの撮像処理動作は、撮像画像データを記録画像として保存するための処理動作を含み、前記指示部が指示する前記第2モードの撮像処理動作は、撮像画像データの記録を停止するための処理動作を含み、前記指示部は、前記第3ステートの検出に基づいて撮像装置の電源オフを指示することが考えられる。
つまり第1ステートとされた期間の撮像画像データについては記録され、第2ステート検出に応じて記録が終了される。さらに第3ステート検出で撮像装置が電源オフとされる。
In the above-described control device according to the present technology, the detection unit performs third detection to detect that the state changes from the second state to the third state, and the imaging processing operation in the first mode instructed by the instruction unit . includes a processing operation for saving the captured image data as a recorded image; the imaging processing operation in the second mode instructed by the instruction unit includes a processing operation for stopping recording of the captured image data; It is conceivable that the instruction unit instructs to turn off the power of the imaging device based on the detection of the third state.
That is, the captured image data during the period in which the state is set to the first state is recorded, and the recording is terminated when the second state is detected. Furthermore, the power supply of the imaging device is turned off upon detection of the third state.

上記した本技術に係る制御装置においては、前記検出部は、撮像装置又は撮像装置と通信可能な機器に搭載されたセンサの検出信号に基づいて、前記第1検出、前記第2検出の一方又は両方を行うことが考えられる。
撮像装置や撮像装置と通信可能な機器(例えば遠隔制御装置)に搭載されるセンサとしては、例えば振動センサ、加速度センサ、角速度センサ、重力センサ、位置センサ、音声センサ(マイクロホン)音圧センサ、照度センサ、光センサ、温度センサ、その他各種考えられる。これらのセンサにより第1ステート、第2ステートとしての撮像環境を検出する。
In the above-described control device according to the present technology, the detection unit performs one of the first detection and the second detection, or It is conceivable to do both.
Sensors installed in imaging devices and devices that can communicate with imaging devices (e.g., remote control devices) include, for example, vibration sensors, acceleration sensors, angular velocity sensors, gravity sensors, position sensors, audio sensors (microphones), sound pressure sensors, and illuminance sensors. A sensor, an optical sensor, a temperature sensor, and various others are conceivable. These sensors detect imaging environments as the first state and the second state.

上記した本技術に係る制御装置においては、前記検出部は、撮像装置によって得られた撮像画像データに基づいて、前記第1検出、前記第2検出の一方又は両方を行うことが考えられる。
撮像画像データの画像解析により被写体の各種状況としての撮像環境(第1ステート、第2ステート)を検出する。例えば撮像画像データから被写体のジェスチャ感知ができる。また撮像画像データに基づいてAF(オートフォーカス)、AE(オートアイリス)、AWB(オートホワイトバランス)などの制御が行われるが、これらは被写体の状況に応じた制御であるため、AF,AE,AWB等の制御値は、被写体状況としての撮像環境を検知する値ともなる。また画像から被写体の動きベクトルを検出して撮像環境を判断することもできる。
In the above-described control device according to the present technology, it is conceivable that the detection unit performs one or both of the first detection and the second detection based on captured image data obtained by an imaging device.
The imaging environment (first state, second state) as various situations of the subject is detected by image analysis of the captured image data. For example, it is possible to sense the gesture of the subject from the captured image data. Controls such as AF (auto focus), AE (auto iris), and AWB (auto white balance) are performed based on captured image data. These control values also serve as values for detecting the imaging environment as the subject situation. It is also possible to determine the imaging environment by detecting the motion vector of the subject from the image.

上記した本技術に係る制御装置においては、前記検出部は、撮像装置と通信可能な機器の間における通信状態に基づいて、前記第1検出、前記第2検出の一方又は両方を行うことが考えられる。
例えば撮像装置と、例えば遠隔制御装置等の通信可能な機器との間の通信が途絶えたまま所定時間を経過した場合など、撮像環境の変化と判断しても良い。
In the above-described control device according to the present technology, it is conceivable that the detection unit performs one or both of the first detection and the second detection based on the communication state between the imaging device and the communicable device. be done.
For example, it may be determined that there is a change in the imaging environment when communication between the imaging device and a communicable device such as a remote control device has been interrupted for a predetermined period of time.

上記した本技術に係る制御装置においては、前記検出部は、被装着体の行動種別に応じて、前記第1検出、前記第2検出の一方又は両方についての検出条件を設定することが考えられる。
例えばスポーツやアクティビティとしての種別を判定し、それに応じて第1ステートのトリガ、第2ステートのトリガを設定する。
In the above-described control device according to the present technology, it is conceivable that the detection unit sets detection conditions for one or both of the first detection and the second detection according to the action type of the wearable body. .
For example, the type of sport or activity is determined, and the trigger of the first state and the trigger of the second state are set accordingly.

上記した本技術に係る制御装置においては、前記検出部は、前記第1検出として複数の検出条件を設定し、前記第1検出で第1ステートを検出した際の検出条件種別に応じて、前記第2検出の検出条件を設定することが考えられる。
第1ステートを検出した際の検出条件が多様であるとした場合に、第1ステートを検出した際の検出条件に応じて、第2ステートの検出条件を選択する。
In the control device according to the present technology described above, the detection unit sets a plurality of detection conditions as the first detection, and according to the detection condition type when the first state is detected in the first detection, the It is conceivable to set detection conditions for the second detection.
Assuming that the detection conditions for detecting the first state are diverse, the detection conditions for the second state are selected according to the detection conditions for detecting the first state.

本技術に係る制御方法は、撮像装置を制御する制御装置の制御方法として、撮像環境が第1ステートになること検出する第1検出手順と、前記第1ステートの検出に基づいて第1モードの撮像処理動作を指示する第1指示手順と、前記第1ステートから第2ステートになることを検出する第2検出手順と、前記第2ステートの検出に基づいて第2モードの撮像処理動作を指示する第2指示手順と、を備える。
この制御方法により撮像装置の動作を撮像環境に応じて的確に制御できる。
本技術に係るプログラムは、以上の各手順を演算処理装置に実行させるプログラムである。このプログラムにより本開示の技術を実行する装置を広く実現することができる。
A control method according to the present technology includes, as a control method for a control device that controls an imaging device, a first detection procedure for detecting that an imaging environment enters a first state; a first instruction procedure for instructing an imaging processing operation; a second detection procedure for detecting that the state changes from the first state to the second state; and an instruction for the imaging processing operation in the second mode based on the detection of the second state. and a second instruction procedure.
With this control method , the operation of the imaging apparatus can be accurately controlled according to the imaging environment.
A program according to the present technology is a program that causes an arithmetic processing device to execute each of the above procedures. This program can widely realize a device that executes the technique of the present disclosure.

本技術によれば、使用中の操作が困難な状況で使用される機器などにおいて、使用者の状況等の撮像環境の変化に応じて望ましい撮像動作を撮像装置に実行させることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
According to the present technology, it is possible to cause an imaging device to perform a desirable imaging operation in accordance with changes in imaging environment such as the user's situation in a device that is used in a situation where operation during use is difficult.
Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

本技術の第1の実施の形態の撮像制御装置の構成のブロック図である。1 is a block diagram of a configuration of an imaging control device according to a first embodiment of the present technology; FIG. 第1の実施の形態の撮像制御装置の処理のフローチャートである。4 is a flow chart of processing of the imaging control device according to the first embodiment; 実施の形態の撮像装置、遠隔制御装置の外観の説明図である。1A and 1B are explanatory diagrams of appearances of an imaging device and a remote control device according to an embodiment; FIG. 実施の形態の撮像装置のブロック図である。1 is a block diagram of an imaging device according to an embodiment; FIG. 実施の形態の遠隔制御装置のブロック図である。1 is a block diagram of a remote control device according to an embodiment; FIG. 実施の形態の合焦領域判定の説明図である。FIG. 5 is an explanatory diagram of in-focus region determination according to the embodiment; 実施の形態の動きベクトル検出の説明図である。FIG. 4 is an explanatory diagram of motion vector detection according to the embodiment; 第2の実施の形態の撮像装置の動作例の説明図である。FIG. 10 is an explanatory diagram of an operation example of the imaging device according to the second embodiment; 実施の形態の撮像装置のバファリングの説明図である。FIG. 10 is an explanatory diagram of buffering of the imaging device according to the embodiment; 実施の形態の撮像装置又は遠隔制御装置のステート検出手法の説明図である。FIG. 4 is an explanatory diagram of a state detection method of an imaging device or a remote control device according to an embodiment; 第2の実施の形態のステート検出例の説明図である。FIG. 11 is an explanatory diagram of an example of state detection according to the second embodiment; 第2の実施の形態の全体処理のフローチャートである。9 is a flowchart of overall processing of the second embodiment; 第2の実施の形態の第1ステート検出処理のフローチャートである。10 is a flowchart of first state detection processing according to the second embodiment; 第2の実施の形態の第2ステート検出処理のフローチャートである。10 is a flowchart of second state detection processing according to the second embodiment; 第2の実施の形態の第2ステート検出処理の他の例のフローチャートである。FIG. 11 is a flowchart of another example of second state detection processing according to the second embodiment; FIG. 第3の実施の形態の撮像装置の動作例の説明図である。FIG. 11 is an explanatory diagram of an operation example of the imaging device according to the third embodiment; 第3の実施の形態のステート検出例の説明図である。FIG. 11 is an explanatory diagram of an example of state detection according to the third embodiment; 第3の実施の形態の全体処理のフローチャートである。10 is a flowchart of overall processing of the third embodiment; 第3の実施の形態のステート検出処理のフローチャートである。10 is a flowchart of state detection processing according to the third embodiment; 第4の実施の形態の撮像装置の動作例の説明図である。FIG. 12 is an explanatory diagram of an operation example of the imaging device according to the fourth embodiment; 第4の実施の形態のバファリング及びエンコード動作の説明図である。FIG. 11 is an explanatory diagram of buffering and encoding operations according to the fourth embodiment; 第5の実施の形態のステート検出処理の説明図である。FIG. 21 is an explanatory diagram of state detection processing according to the fifth embodiment; 第5の実施の形態の全体処理のフローチャートである。FIG. 14 is a flowchart of overall processing of the fifth embodiment; FIG. 第6の実施の形態の説明図である。FIG. 11 is an explanatory diagram of a sixth embodiment; 第7の実施の形態のステート検出条件の設定処理のフローチャートである。FIG. 16 is a flowchart of setting processing of state detection conditions according to the seventh embodiment; FIG.

以下、実施の形態を次の順序で説明する。
<1.第1の実施の形態の撮像制御装置>
<2.撮像装置及び遠隔制御装置>
<3.第2の実施の形態>
<4.第3の実施の形態>
<5.第4の実施の形態>
<6.第5の実施の形態>
<7.第6の実施の形態>
<8.第7の実施の形態>
<9.まとめ及び変形例>
Hereinafter, embodiments will be described in the following order.
<1. Imaging Control Apparatus According to First Embodiment>
<2. Imaging Device and Remote Control Device>
<3. Second Embodiment>
<4. Third Embodiment>
<5. Fourth Embodiment>
<6. Fifth Embodiment>
<7. Sixth Embodiment>
<8. Seventh Embodiment>
<9. Summary and Modifications>

<1.第1の実施の形態の撮像制御装置>
図1により第1の実施の形態の撮像制御装置1と、その制御対象となる構成を説明する。
図1では撮像制御装置1と撮像装置10を示している。
撮像制御装置1は、単体の機器として構成されてもよいし、撮像装置10に内蔵されてもよい。また撮像制御装置1は撮像装置10と通信可能な機器に内蔵されてもよい。撮像装置10と通信可能な機器の一例としては、後述する遠隔制御装置(リモートコントローラ等)があるが、通信可能な機器としては他にも画像再生装置、画像記録装置、画像編集装置、情報処理装置その他の各種の機器が想定される。
<1. Imaging Control Apparatus According to First Embodiment>
An imaging control apparatus 1 according to the first embodiment and a configuration to be controlled by the imaging control apparatus 1 will be described with reference to FIG.
FIG. 1 shows an imaging control device 1 and an imaging device 10 .
The imaging control device 1 may be configured as a single device, or may be incorporated in the imaging device 10 . Also, the imaging control device 1 may be built in a device capable of communicating with the imaging device 10 . An example of a device capable of communicating with the imaging device 10 is a remote control device (remote controller, etc.), which will be described later. Apparatus and various other devices are envisioned.

図1の例では、撮像装置10は撮像部2、撮像信号処理部3、表示部4、記録部5、通信部6を有する。
撮像部2は被写体光を光電変換し、撮像画像データDTを得る。
撮像信号処理部3は撮像画像データDTに対して各種の信号処理を行う。
表示部4はユーザインターフェースのための文字や画像の表示、撮像画像(スルー画)の表示、再生画の表示などに用いられる。後述するアクションカメラ等としての撮像装置の場合、表示部4は設けられないこともある。
記録部5は撮像画像としての動画データ又は静止画データを記録する。
通信部6は動画データ、静止画データ、或いは他の付随情報を外部機器に送信する。
In the example of FIG. 1 , the imaging device 10 has an imaging section 2 , an imaging signal processing section 3 , a display section 4 , a recording section 5 and a communication section 6 .
The imaging unit 2 photoelectrically converts subject light to obtain captured image data DT.
The imaging signal processing unit 3 performs various signal processing on the imaging image data DT.
The display unit 4 is used to display characters and images for a user interface, display captured images (through images), display reproduced images, and the like. In the case of an imaging device such as an action camera, which will be described later, the display unit 4 may not be provided.
The recording unit 5 records moving image data or still image data as captured images.
The communication unit 6 transmits moving image data, still image data, or other accompanying information to the external device.

センサ部7は、撮像制御装置1に検出情報を供給できる部位としている。特にセンサ部7は撮像環境(ステート)の判断のための検出情報を撮像制御装置1に供給する。
センサ部7は撮像装置10に内蔵されてもよいし、撮像制御装置1に内蔵されてもよい。どのような形態であれ、検出情報を撮像制御装置1に送信できればよい。
The sensor unit 7 is a part capable of supplying detection information to the imaging control device 1 . In particular, the sensor unit 7 supplies detection information for judging the imaging environment (state) to the imaging control device 1 .
The sensor unit 7 may be built in the imaging device 10 or may be built in the imaging control device 1 . Any form may be used as long as the detection information can be transmitted to the imaging control device 1 .

実施の形態に係る撮像制御装置1は、一例として撮像装置10その他の機器に内蔵されるマイクロコンピュータ等により実現されることが考えられる。或いは撮像制御装置1はパーソナルコンピュータや携帯端末(例えばスマートフォン、タブレット端末)等の情報処理装置においてソフトウエア(アプリケーションプログラム)により実現される。
いずれにしても撮像制御装置1は、図示するように状態検出部1a、モード処理指示部1bとしての機能を有する。
As an example, the imaging control device 1 according to the embodiment can be realized by a microcomputer or the like built in the imaging device 10 or other equipment. Alternatively, the imaging control device 1 is realized by software (application program) in an information processing device such as a personal computer or a mobile terminal (for example, smart phone, tablet terminal).
In any case, the imaging control device 1 has the functions of a state detection section 1a and a mode processing instruction section 1b as shown.

状態検出部1aは、撮像環境が第1ステートとなること検出する第1検出と、第1ステートから第2ステートになることを検出する第2検出とを行う。
モード処理指示部1bは、第1ステートの検出に基づいて撮像装置10に第1モードの撮像処理動作を指示し、また第2ステートの検出に基づいて、撮像装置10に第2モードの撮像処理動作を指示する。
即ち第1ステート、第2ステート毎に所定の撮像処理動作を設定しておき、状態検出部1aが検出したステートに応じてモード処理指示部1bが制御を行う。ただし、第2ステートとは、第1ステートに移行した後の撮像環境である。
そして第1ステートが検出された場合、モード処理指示部1bは、その検出時点、もしくはその後の時点で、例えば撮像信号処理部3に第1モードの指示を行い、第2ステートが検出された場合、モード処理指示部1bは、その検出時点やその後の所定の時点で撮像信号処理部3に対して第2モードの指示を行う。
The state detection unit 1a performs a first detection for detecting that the imaging environment is in a first state, and a second detection for detecting that the imaging environment is changed from the first state to the second state.
The mode processing instruction unit 1b instructs the imaging device 10 to perform imaging processing in the first mode based on detection of the first state, and instructs the imaging device 10 to perform imaging processing in the second mode based on detection of the second state. direct the action.
That is, a predetermined imaging processing operation is set for each of the first state and the second state, and the mode processing instructing section 1b performs control according to the state detected by the state detecting section 1a. However, the second state is the imaging environment after shifting to the first state.
Then, when the first state is detected, the mode processing instruction unit 1b instructs the imaging signal processing unit 3, for example, the first mode at the time of detection or at a time after that, and when the second state is detected , the mode processing instruction unit 1b instructs the imaging signal processing unit 3 to switch to the second mode at the time of detection or at a predetermined time thereafter.

ここで「撮像環境」とは、撮像装置、又は撮像装置を遠隔制御する遠隔制御装置についての使用中の被装着体又は被写体の状況・状態(例えば動作状態)をいう。具体的には、撮像装置や遠隔制御装置を使用する人、装着した人、装着した動物、装着した物体の状況、状態である。さらには撮像装置の被写体の状況、状態も含まれる。
このような撮像環境、つまり被装着者、被装着体、被写体の状況としての撮像環境について、或る状態を「第1ステート」「第2ステート」とする。
但しこの「ステート」は撮像装置10内の撮像処理動作についての動作状態を意味するものではない。撮像処理動作とは、撮像部1や撮像信号処理部3が行う処理、例えば撮像画像データDTの生成処理、撮像画像データDTに対する各種信号処理、撮像画像データDTの転送、送信、記録等に関する処理である。
一方「モード」は撮像装置10における以上の例のような撮像処理動作としての動作が異なる状態を指す。
Here, the "imaging environment" refers to the situation/state (for example, operating state) of the wearable object or subject in use with respect to the imaging device or the remote control device that remotely controls the imaging device. Specifically, it is the situation and state of the person using the imaging device or the remote control device, the person wearing it, the animal wearing it, and the object wearing it. Furthermore, the situation and state of the subject of the imaging device are also included.
Regarding such an imaging environment, that is, the imaging environment as the situation of the wearer, the wearable body, and the subject, certain states are referred to as a "first state" and a "second state."
However, this "state" does not mean the operating state of the image pickup processing operation within the image pickup apparatus 10 . The imaging processing operation refers to processing performed by the imaging unit 1 and the imaging signal processing unit 3, such as generation processing of the captured image data DT, various signal processing for the captured image data DT, and processing related to transfer, transmission, recording, etc. of the captured image data DT. is.
On the other hand, "mode" refers to a state in which the imaging processing operation in the imaging apparatus 10 differs from the above example.

図2に撮像制御装置1、即ち状態検出部1a及びモード処理指示部1bの機能による処理例を示す。
ステップS1で撮像制御装置1はセンサ部7の検出情報において、撮像環境が第1ステートに至ったと判定するトリガ(第1ステートとしての所定の検出条件を満たす信号もしくは値)が得られたか否かを判断する。
第1ステート判定のトリガが検出されない場合は、ステップS3に進み、現在第1ステートに至っていなければ、図2の処理を終え、ステップS1に戻る。
FIG. 2 shows an example of processing by the functions of the imaging control device 1, that is, the state detection section 1a and the mode processing instruction section 1b.
In step S1, the imaging control device 1 determines whether or not a trigger (signal or value that satisfies a predetermined detection condition as the first state) for determining that the imaging environment has reached the first state is obtained in the detection information of the sensor unit 7. to judge.
If the trigger for the determination of the first state is not detected, the process proceeds to step S3, and if the current state has not reached the first state, the process of FIG. 2 is terminated and the process returns to step S1.

撮像制御装置1は第1ステートと判定するトリガが得られた場合は、第1ステートとなったことが検出されたとしてステップS2に進み、撮像装置10に対して第1モードの処理を指示する。
第1ステートに至ったと判定した後は、撮像制御装置1はステップS3からS4に進み、撮像環境が第2ステートに至ったと判定するトリガ(第2ステートとしての所定の検出条件を満たす信号もしくは値)が得られたか否かを判断する。第2ステート判定のトリガが得られていないときは、そのまま処理を終え、ステップS1に戻る。従って第1ステートの期間は、ステップS4の第2ステート判定を継続する。
撮像制御装置1は第2ステート判定のトリガが得られた場合は、第1ステートから第2ステートに至ったと判断し、ステップS4からS5に進み、撮像装置10に対して第2モードの処理を指示する。
When a trigger for determining the first state is obtained, the imaging control device 1 determines that the first state has been detected, proceeds to step S2, and instructs the imaging device 10 to perform processing in the first mode. .
After determining that the state has reached the first state, the imaging control device 1 proceeds from step S3 to step S4, where it determines that the imaging environment has reached the second state (a signal or value that satisfies a predetermined detection condition as the second state). ) is obtained. When the trigger for the second state determination has not been obtained, the process is terminated as it is, and the process returns to step S1. Therefore, during the period of the first state, the determination of the second state in step S4 is continued.
When a trigger for second state determination is obtained, the imaging control device 1 determines that the first state has changed to the second state, proceeds from step S4 to step S5, and instructs the imaging device 10 to process the second mode. instruct.

この図2のように、撮像制御装置1は、撮像環境が第1ステートになること検出する第1検出手順(S1)と、第1ステートの検出に基づいて第1モードの撮像処理動作を指示する第1指示手順(S2)を行う。また第1ステートから第2ステートになることを検出する第2検出手順(S3,S4)と、第2ステートの検出に基づいて第2モードの撮像処理動作を指示する第2指示手順(S5)を行う。
この構成により撮像環境の変化に応じた撮像処理動作が実行される。即ち撮像環境が第1ステートに至った後に、第2ステートに至るという条件下での撮像処理動作を自動的に行うことができる。これにより撮像に関する使用性、操作性を向上させることができる。
より具体的な実施の形態を以下で説明していく。
As shown in FIG. 2, the imaging control device 1 performs a first detection procedure (S1) for detecting that the imaging environment is in the first state, and instructs the imaging processing operation in the first mode based on the detection of the first state. A first instruction procedure (S2) is performed. Also, a second detection procedure (S3, S4) for detecting that the state changes from the first state to the second state, and a second instruction procedure (S5) for instructing the imaging processing operation in the second mode based on the detection of the second state. I do.
With this configuration, the imaging processing operation is executed according to changes in the imaging environment. That is, it is possible to automatically perform the imaging processing operation under the condition that the second state is reached after the imaging environment reaches the first state. As a result, the usability and operability of imaging can be improved.
A more specific embodiment will be described below.

<2.撮像装置及び遠隔制御装置>
以下では、図3に示すような撮像装置10単体、或いは撮像装置10と遠隔制御装置50を使用する例として実施の形態を説明する。
<2. Imaging Device and Remote Control Device>
In the following, an embodiment will be described using an imaging device 10 alone, or an imaging device 10 and a remote control device 50 as shown in FIG.

上述のように近年、耐衝撃性・耐水性を持った“アクションカメラ“と呼ばれるジャンルのカメラが登場しており、マウントを介して身に着けて使用することで多様なアングルや状況での撮像が可能とされている。
図3にアクションカメラと呼ばれる撮像装置10の一例を示している。この撮像装置10は小型軽量とされ、対応するマウント用アタッチメント等を利用して、ユーザの身体や衣服に装着したり、スポーツ、アクティビティ等で用いるギアに装着することができる。ここでいうギアとは、例えばスノーボード、サーフボード、スキー板、モータバイク、自転車、ラケット、ヘルメット、シューズ、ゴーグル、潜水器具等である。
As mentioned above, in recent years, cameras of the genre called "action cameras" with shock resistance and water resistance have appeared, and by using them with a mount, you can shoot from various angles and situations. is possible.
FIG. 3 shows an example of an imaging device 10 called an action camera. The imaging device 10 is small and lightweight, and can be attached to the user's body or clothes, or to gear used in sports, activities, etc., using a corresponding mount attachment or the like. The gear mentioned here includes, for example, snowboards, surfboards, skis, motorbikes, bicycles, rackets, helmets, shoes, goggles, diving equipment, and the like.

このような撮像装置10をユーザが身体やギアに装着することで、ユーザがスポーツ、アクティビティ、遊技等の各種活動(以下「アクティビティ」と総称する)を行っている際の迫力のある映像を記録することができる。 By attaching such an imaging device 10 to the user's body or gear, a powerful image is recorded when the user is engaged in various activities such as sports, activities, and games (hereinafter collectively referred to as "activities"). can do.

また、撮像装置10を身体やギアに装着した状態によっては、撮像装置10の操作が困難な場合もある。そのため遠隔制御装置50が用意されている。遠隔制御装置50は図示のように、ベルト付きで腕や脚部に装着可能とされたり、スマートフォン等の携帯機器に実装されたり、ウォッチ型などとして装着できるようにされるものがある。
例えばアクティビティを実行する本人が、所持したり、腕等の操作可能な位置に装着した遠隔制御装置50を操作して、撮像装置10を制御することができる。
ところが、このようなアクションカメラの分野では、実際には多様な操作が困難となる事情がある。
Further, depending on the state in which the imaging device 10 is attached to the body or gear, it may be difficult to operate the imaging device 10 . A remote control device 50 is provided for this purpose. As shown in the figure, the remote control device 50 may be attached to a belt so that it can be worn on an arm or leg, mounted on a portable device such as a smartphone, or worn as a watch type.
For example, the person who performs the activity can control the imaging device 10 by operating the remote control device 50 that he or she carries or wears on his/her arm at an operable position.
However, in the field of such action cameras, various operations are actually difficult.

このジャンルのカメラの多くは、耐衝撃性・耐水性などを保つために、超小型かつハウジング入りで使う前提であったり、ユーザの身体や物に装着して撮影するため、そもそも撮像画像の表示装置が搭載されていないものが多い。例えば図3に示す撮像装置10は表示部が存在しない。
仮に撮像画像の表示装置が搭載されてあったとしても、サイズ維持のため記録画質と比較して相当低い解像度・サイズ・品位の表示装置を使っており、どの辺りが写っているかが確認できる程度の役割しか持っていない。
また記録用ボタンなども旧来からの民生用ビデオカメラに比べて操作しづらい形状・配置となっていることが多い。
即ちユーザインターフェースとしての機能が充実していないことが余儀なくされている。
さらには、前述の通り身体への装身具、あるいはアクティビティを楽しむためのギア等といった部材に取り付けた状態で使用されることが多く、上記のユーザインターフェース上の理由と相まって録画開始・停止操作を、アクティビティを行っている人自身が行いづらい。
そのうえ、アクティビティの実行中は、ユーザはそのアクティビティ自体に集中するため、カメラ操作を失念することも多々ある。
以上の操作性の事情は、撮像装置10自体の操作のみならず、遠隔制御装置50を利用した操作に関しても、同様である。
Most of the cameras in this genre are premised on being ultra-compact and used in a housing in order to maintain shock resistance and water resistance. Many do not have equipment. For example, the imaging device 10 shown in FIG. 3 does not have a display unit.
Even if there is a display device for captured images, in order to maintain the size, the resolution, size, and quality of the display device are considerably lower than the recorded image quality, and it is possible to confirm which part is captured. has only the role of
In addition, recording buttons and the like often have shapes and arrangements that are difficult to operate compared to conventional consumer video cameras.
In other words, it is unavoidable that the function as a user interface is not sufficient.
Furthermore, as mentioned above, it is often used in a state where it is attached to a member such as a body accessory or a gear for enjoying an activity. It is difficult for the person who is doing
Moreover, during the execution of the activity, the user concentrates on the activity itself and often forgets to operate the camera.
The operability described above applies not only to the operation of the imaging device 10 itself, but also to the operation using the remote control device 50 .

また、このような操作性の事情は、撮像装置10の機能を有効に発揮できないことにもつながる。
従来、撮像記録時に通常のテレビフレームレートである例えば60fps(frames per second)以上の速さのフレームレートで撮像し、再生時にテレビフレームレートで再生することで高画質かつ印象的な映像表現が実現できるスローモーション記録再生機能(HFR記録)を備えた撮像装置が業務用を中心に存在していた。近年の技術の発展により民生用カメラでもこの撮像機能が登場している。上記の「アクションカメラ」と呼ばれる超小型カメラにおいても実現されつつある。例えばハイフレームレート(以下「HFR」と表記する)としては、960fps、240fpsでの撮像などが可能とされる。
In addition, such circumstances of operability lead to the inability to effectively exhibit the functions of the imaging device 10 .
In the past, images were recorded at a frame rate faster than the normal TV frame rate, such as 60 fps (frames per second), and played back at the TV frame rate to achieve high image quality and impressive visual expression. There have been imaging apparatuses mainly for business use that have a slow-motion recording/reproducing function (HFR recording). With the recent development of technology, this imaging function has also appeared in consumer cameras. It is also being realized in the ultra-compact camera called the "action camera" mentioned above. For example, as a high frame rate (hereinafter referred to as “HFR”), imaging at 960 fps and 240 fps is possible.

このようなHFR撮像では、通常撮像よりも多くの記録領域を必要とすること、また視聴性、映像表現からいってその記録開始や記録停止のタイミングがとても重視される。
しかしながら上記した操作性の理由から、適切なタイミングでのHFR撮像が非常に困難である。結果的にユーザの希望するタイミングに対してずれたタイミングでの記録が開始・停止指示となってしまうことがとても多い。
記録タイミングについては遠隔制御装置50を使った操作も考えられるが、そもそもアクティビティの種類によっては遠隔制御装置50の利用さえも難しいというユースケースも多い。
In such HFR imaging, a larger recording area is required than in normal imaging, and the timing of recording start and stop is very important in terms of viewing and video expression.
However, due to the operability reasons described above, it is very difficult to perform HFR imaging at appropriate timing. As a result, there are many cases in which recording is instructed to start or stop at a timing that is different from the timing desired by the user.
Operation using the remote control device 50 is conceivable for recording timing, but there are many use cases where even the use of the remote control device 50 is difficult depending on the type of activity.

また撮像開始のためにユーザは意識的に電源オン操作、録画開始操作を行うのだが、アクティビティ中に撮像動作状態が判りづらい上に、撮像を開始させた本人がアクティビティに夢中になっているうちに、希望する録画期間が終わったとしても、録画停止、電源オフ操作を忘れてしまいがちで結果的に無駄なメモリ消費、そしてバッテリの消費をしてしまうケースが非常に多い。そのため、いざ次の撮像を行おうと思った時にはメモリ不足が生じたり、バッテリ残量不足になっているといった事態となることも頻発する。 Also, in order to start shooting, the user consciously performs the power on operation and recording start operation, but it is difficult to understand the shooting operation state during the activity. In addition, even if the desired recording period is over, there are many cases where people tend to forget to stop recording and turn off the power, resulting in wasted memory consumption and battery consumption. Therefore, when it is time to take the next image, a memory shortage or a battery shortage often occurs.

そこで実施の形態では、ユーザ自身がHFR録画タイミングを制御しなくても、あらかじめ定められた条件を検知した場合には自動的に記録開始・停止を行う撮像装置を提供することで、アクションカメラにおけるHFR記録を快適に実現する。
あるいはユーザ自身が録画停止・電源オフしなくても、あらかじめ定められた条件を検知した場合には自動的に録画停止、電源オフを行う撮像装置を提供することで、アクションカメラならではの不要メモリ消費、電源消費、あるいは電源・録画系の操作性にまつわる不満点を解消する。
Therefore, in the embodiment, even if the user himself/herself does not control the HFR recording timing, by providing an imaging device that automatically starts and stops recording when predetermined conditions are detected, To comfortably realize HFR recording.
Alternatively, even if the user does not stop recording or turn off the power, by providing an imaging device that automatically stops recording and turns off the power when predetermined conditions are detected, unnecessary memory consumption unique to action cameras can be provided. , power consumption, or power supply / recording system operability to solve the dissatisfaction point.

実施の形態の撮像装置10の構成例を図4に示す。また遠隔制御装置50の構成例を図5に示す。
この撮像装置10や遠隔制御装置50としての実施の形態は、図1に示した撮像制御装置1としての構成(状態検出部1a、モード処理指示部1b)が、撮像装置10、遠隔制御装置50の一方又は両方に内蔵されている例とする。
FIG. 4 shows a configuration example of the imaging device 10 according to the embodiment. An example configuration of the remote control device 50 is shown in FIG.
In the embodiment of the imaging device 10 and the remote control device 50, the configuration of the imaging control device 1 shown in FIG. is built in one or both of

図4の撮像装置10はいわゆるデジタルビデオカメラとされ、動画や静止画の撮像/記録を行う機器である。
撮像装置10は、光学系11、イメージャ12、光学系駆動部13、センサ部14、記録部15、無線通信部16、音声検出部17、電源部18、デジタル信号処理部20、コントローラ30、表示部34、操作部35を有する。
The imaging device 10 in FIG. 4 is a so-called digital video camera, which is a device for capturing/recording moving images and still images.
The imaging device 10 includes an optical system 11, an imager 12, an optical system drive unit 13, a sensor unit 14, a recording unit 15, a wireless communication unit 16, a sound detection unit 17, a power supply unit 18, a digital signal processing unit 20, a controller 30, a display It has a section 34 and an operation section 35 .

光学系11は、カバーレンズ、ズームレンズ、フォーカスレンズ等のレンズや絞り機構を備える。この光学系11により、被写体からの光がイメージャ12に集光される。
イメージャ12は、例えば、CMOS(Complementary Metal OxideSemiconductor)型、CCD(Charge Coupled Device)型などの撮像素子を有する。
このイメージャ12では、撮像素子での光電変換で得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号(撮像画像データDT)を、後段のデジタル信号処理部20に出力する。
The optical system 11 includes lenses such as a cover lens, a zoom lens, and a focus lens, and an aperture mechanism. The optical system 11 converges the light from the subject on the imager 12 .
The imager 12 has, for example, an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) type or a CCD (Charge Coupled Device) type.
The imager 12 performs, for example, CDS (Correlated Double Sampling) processing, AGC (Automatic Gain Control) processing, etc. on electrical signals obtained by photoelectric conversion in the imaging device, and further performs A/D (Analog/Digital) conversion processing. I do. Then, the imaging signal (captured image data DT) as digital data is output to the digital signal processing section 20 in the subsequent stage.

光学系駆動部13は、コントローラ30の制御に基づいて、光学系11におけるフォーカスレンズを駆動し、フォーカス動作を実行する。また光学系駆動部13は、コントローラ30の制御に基づいて、光学系11における絞り機構を駆動し、露光調整を実行する。さらに光学系駆動部13は、コントローラ30の制御に基づいて、光学系11におけるズームレンズを駆動し、ズーム動作を実行する。
なおフォーカスレンズは、撮像画像の合焦状態検出に応じてコントローラ30が光学系駆動部13の動作を制御するオートフォーカスとしての駆動が行われる他、ユーザのフォーカス操作子の操作に応じてコントローラ30が光学系駆動部13の動作を制御するマニュアルフォーカスとしての駆動も行われる。
The optical system drive unit 13 drives the focus lens in the optical system 11 to perform a focus operation under the control of the controller 30 . Further, the optical system driving unit 13 drives the diaphragm mechanism in the optical system 11 and performs exposure adjustment under the control of the controller 30 . Further, the optical system driving section 13 drives the zoom lens in the optical system 11 to perform a zoom operation under the control of the controller 30 .
Note that the focus lens is driven as autofocus in which the controller 30 controls the operation of the optical system driving unit 13 in response to the detection of the focused state of the captured image, and the controller 30 is driven in response to the user's operation of the focus operator. is also driven as a manual focus for controlling the operation of the optical system drive unit 13. FIG.

デジタル信号処理部20は、例えばDSP(Digital Signal Processor)等により画像処理プロセッサとして構成される。このデジタル信号処理部20は、イメージャ12からのデジタル信号(撮像画像データDT)に対して、各種の信号処理を施す。
例えばデジタル信号処理部20は、カメラ信号処理部21、解像度変換部22、コーデック部23、カメラ制御用検波処理部24、内蔵メモリ25、メモリコントローラ26等を備えている。
The digital signal processing unit 20 is configured as an image processing processor such as a DSP (Digital Signal Processor). The digital signal processing unit 20 performs various kinds of signal processing on the digital signal (captured image data DT) from the imager 12 .
For example, the digital signal processing unit 20 includes a camera signal processing unit 21, a resolution conversion unit 22, a codec unit 23, a camera control detection processing unit 24, an internal memory 25, a memory controller 26, and the like.

カメラ信号処理部21は、イメージャ12からの撮像画像データDTに対して、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を施す。またカメラ信号処理部21は、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換部22は、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
コーデック部23は、解像度変換された画像データについて、例えば記録用や通信用の符号化処理を行う。
The camera signal processing unit 21 performs a clamping process for clamping the black levels of R, G, and B to a predetermined level, and a correction process between the R, G, and B color channels for the captured image data DT from the imager 12. etc. The camera signal processing unit 21 also generates (separates) a luminance (Y) signal and a color (C) signal from the R, G, and B image data.
The resolution conversion unit 22 performs resolution conversion processing on image data that has been subjected to various signal processing.
The codec unit 23 performs encoding processing for recording or communication, for example, on the image data whose resolution has been converted.

カメラ制御用検波処理部24は、オートフォーカス制御やオートアイリス制御等のための検波処理や、後述するステート判定その他のための画像解析等を行う。
例えばオートフォーカス制御のためには、カメラ制御用検波処理部24は、撮像画像データDT、例えばカメラ信号処理部21の処理過程又は処理を経た撮像画像データDTを入力し、この撮像画像データDTとしての1フレーム内で、合焦領域と非合焦領域を識別し、合焦領域を示す合焦領域情報をコントローラ30に出力する。
The camera control detection processing unit 24 performs detection processing for autofocus control, auto iris control, etc., and image analysis for state determination, etc., which will be described later.
For example, for autofocus control, the camera control detection processing unit 24 receives captured image data DT, for example, captured image data DT that has undergone the process or processing of the camera signal processing unit 21, and uses this captured image data DT as Within one frame of , the in-focus area and the out-of-focus area are identified, and in-focus area information indicating the in-focus area is output to the controller 30 .

具体的にはカメラ制御用検波処理部24は、例えば図6Aのように1つのフレームFRの撮像画像データDTを多数の領域に分割する。図示する例はあくまでも説明上の一例であるが、例えば領域w1~w36のように各領域を設定する。実際の領域分割数は適宜適切に設定されればよい。
そして各領域w1~w36について、それぞれが合焦領域か非合焦領域かを判定する。
例えば1つの領域w(n)について、図6Bのような処理を行う。即ち領域w(n)を構成する各画素データについて、Y生成部41から積分器46までの処理を行う。
Y生成部41では簡易的にY信号を生成する。そして生成したY信号についてHPF(ハイパスフィルタ)42で高域抽出を行い、さらに絶対値化部43で絶対値化する。即ち高域成分を絶対値として抽出する。そしてコアリング部44で高域成分ノイズ除去を、さらにリミッタ45でリミッタ処理を行った後、積分器46で積分処理を行う。
つまり、各領域w(n)について、その領域w(n)を構成する画素データの高域成分を積算していき、その結果として評価値CSを得る。合焦領域ではエッジ成分が顕著に表れることで高域成分の積算値としての評価値CSが高い値となる。従って評価値CSを所定の合焦領域判定閾値と比較することで、その領域w(n)が合焦領域か非合焦領域かの判定情報が得られることになる。
カメラ制御用検波処理部24は例えばこのように、各領域w1~w36についてそれぞれ合焦領域か非合焦領域かの判定を行い、判定結果としての合焦領域情報をコントローラ30に出力する。
なお、合焦領域の判定は、方形の領域毎ではなく、例えば円形、多角形などの領域や、不定形領域を設定して行ってもよい。
Specifically, the camera control detection processing unit 24 divides the captured image data DT of one frame FR into a large number of regions as shown in FIG. 6A, for example. Although the illustrated example is merely an example for explanation, each area is set, for example, as areas w1 to w36. The actual number of area divisions may be appropriately set.
Then, it is determined whether each of the regions w1 to w36 is in focus or out of focus.
For example, the processing shown in FIG. 6B is performed for one region w(n). That is, the processing from the Y generator 41 to the integrator 46 is performed for each pixel data constituting the area w(n).
The Y generator 41 simply generates a Y signal. A HPF (high-pass filter) 42 extracts a high frequency band from the generated Y signal, and an absolute value converting unit 43 converts the extracted signal into an absolute value. That is, high frequency components are extracted as absolute values. Then, the coring unit 44 removes high-frequency component noise, the limiter 45 performs limiter processing, and the integrator 46 performs integration processing.
That is, for each area w(n), the high-frequency components of the pixel data forming that area w(n) are integrated, and as a result the evaluation value CS is obtained. Since the edge component appears prominently in the in-focus region, the evaluation value CS as the integrated value of the high-frequency component becomes a high value. Therefore, by comparing the evaluation value CS with a predetermined in-focus area determination threshold value, it is possible to obtain determination information as to whether the area w(n) is in-focus area or out-of-focus area.
For example, the camera control detection processing unit 24 determines whether each of the areas w1 to w36 is in-focus area or out-of-focus area, and outputs in-focus area information as the determination result to the controller 30. FIG.
Note that the in-focus area may be determined by setting, for example, a circular or polygonal area, or an indefinite area instead of each square area.

以上はフォーカス制御のための処理であるが、露出制御のためにカメラ制御用検波処理部24は、図6Aの各領域w1~w36のそれぞれについて、輝度を積分した値を算出する。
またカメラ制御用検波処理部24はホワイトバランス調整のためには、図6Aの各領域w1~w36のそれぞれについて、R、G、B信号別に積分した値を算出する。
The above processing is for focus control. For exposure control, the camera control detection processing unit 24 calculates a value obtained by integrating luminance for each of the regions w1 to w36 in FIG. 6A.
For white balance adjustment, the camera control detection processing unit 24 calculates integrated values for each of the R, G, and B signals for each of the regions w1 to w36 in FIG. 6A.

またカメラ制御用検波処理部24は、画像における動きベクトルの検出も行う。
例えばブロックマッチングを用いて2フレーム間の動きベクトルを検出する。2フレーム間の動きベクトルを検出するに当たって、元フレームについて、複数個のターゲットフレームを設定して、その複数個のターゲットフレームのそれぞれについてブロックマッチングを施す。
一例として、元フレームに、例えば16個のターゲットブロックTGi(i=1,2,・・・,16)を設定し、参照フレーム102には、図7に示すように、元フレームの16個のターゲットブロックに対応する16個の射影イメージ104i(i=1,2,・・・,16)を設定する。そして、それぞれの射影イメージに対するサーチ範囲105i(i=1,2,・・・,16)を設定し、それぞれのサーチ範囲105i(i=1,2,・・・,16)において、対応するターゲットブロックについてのSADテーブルTBLi(i=1,2,・・・,16)を作成する。
The camera control detection processing unit 24 also detects a motion vector in an image.
For example, block matching is used to detect motion vectors between two frames. In detecting a motion vector between two frames, a plurality of target frames are set for the original frame, and block matching is performed for each of the plurality of target frames.
As an example, 16 target blocks TGi (i=1, 2, . . . , 16) are set in the original frame, and 16 target blocks TGi (i=1, 2, . Set up 16 projection images 104i (i=1, 2, . . . , 16) corresponding to the target block. Then, a search range 105i (i=1, 2, . . . , 16) is set for each projection image, and in each search range 105i (i=1, 2, . Create a SAD table TBLi (i=1, 2, . . . , 16) for the block.

そして、作成した16個のターゲットブロックのSADテーブルTBLiについて、図7に示すように、16個のSADテーブルTBLiを重ね合わせるように縦方向に並べたときに、SADテーブルTBLiのそれぞれを求めるサーチ範囲内で互いに対応する参照ブロック位置のSAD値を合算し、合算差分絶対値和(合算SAD値という)を求める。そして、その合算SAD値からなるSADテーブルとして、一つのサーチ範囲内の複数参照ブロック位置分についての合算SADテーブルSUM_TBLを生成する。 Then, for the SAD tables TBLi of the created 16 target blocks, as shown in FIG. 7, when the 16 SAD tables TBLi are arranged in the vertical direction so as to overlap each other, the search range for obtaining each of the SAD tables TBLi is The SAD values of the reference block positions corresponding to each other are summed up within, and the sum of sum of sum of absolute difference values (referred to as summed SAD value) is obtained. Then, as a SAD table composed of the summed SAD values, a summed SAD table SUM_TBL for a plurality of reference block positions within one search range is generated.

ここで、合算SADテーブルSUM_TBLの座標位置(x,y)の合算SAD値SUM_TBL(x,y)は、各SADテーブルTBLiの対応する座標位置(x,y)のSAD値をTBLi(x,y)とすると、
SUM_TBL(x,y)=TBL1(x,y)+TBL2(x,y)+・・・
+TBL16(x,y)
=ΣTBLi(x,y)
となる。
そして、合算SADテーブルSUM_TBLから、元画面に対する参照画面の動きベクトル(グローバル動きベクトル;撮像装置における手ぶれベクトルとなる)を検出する。
Here, the sum SAD value SUM_TBL(x, y) at the coordinate position (x, y) of the sum SAD table SUM_TBL is obtained by converting the SAD value at the coordinate position (x, y) corresponding to each SAD table TBLi to TBLi(x, y). ), then
SUM_TBL(x,y)=TBL1(x,y)+TBL2(x,y)+...
+TBL16(x, y)
= ΣTBLi(x, y)
becomes.
Then, a motion vector (global motion vector; used as a camera shake vector in the imaging device) of the reference screen with respect to the original screen is detected from the summation SAD table SUM_TBL.

合算SADテーブルSUM_TBLからグローバル動きベクトルを算出する方法としては、合算SADテーブルSUM_TBLにおいて合算SAD値の最小値の位置を検出し、その検出した合算SAD値の最小値位置に対応する参照ベクトルを、グローバル動きベクトルとして検出する従来の方法を用いることができる。
しかし、この最小値の合算SAD値を用いる方法では、1画素単位の精度の動きベクトルしか得られないので、例えば合算SAD値の最小値位置の合算SAD値およびその近傍の複数個の合算SAD値を用いて、近似曲面補間を行うことで、グローバル動きベクトルを検出することが考えられる。すなわち、合算SAD値の最小値位置の合算SAD値およびその近傍の複数個の合算SAD値を用いて、近似高次曲面を生成し、その近似高次曲面の極小値位置を検出することで、1画素単位以下の小数点精度で、グローバル動きベクトルを検出する。
As a method of calculating a global motion vector from the summed SAD table SUM_TBL, the position of the minimum summed SAD value is detected in the summed SAD table SUM_TBL, and the reference vector corresponding to the detected minimum summed SAD value position is transferred to the global motion vector. Conventional methods of detection as motion vectors can be used.
However, with this method using the summed SAD value of the minimum value, only a motion vector with accuracy in units of one pixel can be obtained. It is conceivable to detect a global motion vector by performing approximate curved surface interpolation using . That is, by generating an approximate high-order surface using the sum SAD value at the minimum value position of the sum SAD value and a plurality of sum SAD values in the vicinity thereof, and detecting the minimum value position of the approximate high-order surface, A global motion vector is detected with a decimal precision of one pixel or less.

図4に戻って、デジタル信号処理部20における内蔵メモリ25は、例えばカメラ信号処理部21の処理を経た撮像画像データDTとしてのフレームデータのバファリングを行う記憶領域とされる。内蔵メモリ25は、例えばD-RAM(Dynamic Random Access Memory)、S-RAM(Static Random Access Memory)、NV-RAM(Non-Volatile RAM)等の半導体メモリとして形成される。この内蔵メモリ25を用いたバファリングについては後述する。
メモリコントローラ26は、内蔵メモリ25に対するデータの書き込み//読み出しを制御する。例えばデータ転送の制御や、ライトポインタ、リードポインタ等による書込/読出アドレスの管理等を行う。
Returning to FIG. 4, the built-in memory 25 in the digital signal processing unit 20 is a storage area for buffering frame data as captured image data DT processed by the camera signal processing unit 21, for example. The built-in memory 25 is formed as a semiconductor memory such as D-RAM (Dynamic Random Access Memory), S-RAM (Static Random Access Memory), NV-RAM (Non-Volatile RAM), or the like. Buffering using this built-in memory 25 will be described later.
The memory controller 26 controls writing/reading of data to/from the built-in memory 25 . For example, it controls data transfer and manages write/read addresses using write pointers, read pointers, and the like.

コントローラ30は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなどを備えたマイクロコンピュータ(演算処理装置)により構成される。
CPUがROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置10全体を統括的に制御する。
RAMは、CPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
ROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。本例においては特に、ステート検出及びそれに応じたモード制御のための処理を実行するためのプログラムも記憶される。
The controller 30 is configured by a microcomputer (arithmetic processing unit) including a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), flash memory, and the like.
The overall control of the imaging apparatus 10 is performed by the CPU executing programs stored in ROM, flash memory, or the like.
The RAM is used for temporary storage of data, programs, etc. as a work area for various data processing of the CPU.
ROM and flash memory (non-volatile memory) store the OS (Operating System) for the CPU to control each part, content files such as image files, application programs for various operations, firmware, etc. Used. Particularly in this example, a program for executing processing for state detection and corresponding mode control is also stored.

このようなコントローラ30は、デジタル信号処理部20における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、ズーム、フォーカス、露光調整等のカメラ動作、ユーザインターフェース動作等について、必要各部の動作を制御する。
また本実施の形態の場合、コントローラ30は、状態検出部1a、モード処理指示部1bとしての機能を備える。即ち図1で説明した撮像制御装置1としての機能である。
Such a controller 30 performs various signal processing instructions in the digital signal processing unit 20, imaging operations and recording operations according to user operations, playback operations of recorded image files, camera operations such as zoom, focus, and exposure adjustment. Controls the operations of necessary units for user interface operations and the like.
Further, in the case of the present embodiment, the controller 30 has the functions of the state detection section 1a and the mode processing instruction section 1b. That is, it is a function of the imaging control device 1 described with reference to FIG.

表示部34はユーザ(撮像者等)に対して各種表示を行う表示部であり、例えば撮像装置10の筐体上に形成されるLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスを有して形成される。なお、いわゆるビューファインダーの形態で、LCDや有機ELディスプレイ等を用いて形成されてもよい。
なお、上述のアクションカメラとしての撮像装置10の場合、表示部34は設けられないことが多い。
撮像装置10に表示部34が設けられる場合、表示部34は、上記のディスプレイデバイスと、該ディスプレイデバイスに表示を実行させる表示ドライバとから成る。表示ドライバは、コントローラ30の指示に基づいて、ディスプレイデバイス上に各種表示を実行させる。例えば表示ドライバは、撮像して記録媒体に記録した静止画や動画を再生表示させたり、デジタル信号処理部20からの表示データ(例えば解像度変換された撮像画像データ)に応じて、記録待機中や記録中に撮像される各フレームの撮像画像データによる動画としてのスルー画をディスプレイデバイスの画面上に表示させる。
また表示ドライバはコントローラ30の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
The display unit 34 is a display unit that performs various types of display for a user (photographer, etc.). display device. In addition, it may be formed using an LCD, an organic EL display, or the like in the form of a so-called viewfinder.
In addition, in the case of the imaging device 10 as the action camera described above, the display unit 34 is often not provided.
When the imaging apparatus 10 is provided with the display unit 34, the display unit 34 is composed of the display device described above and a display driver that causes the display device to perform display. The display driver executes various displays on the display device based on instructions from the controller 30 . For example, the display driver reproduces and displays still images and moving images captured and recorded on a recording medium, and responds to display data (for example, resolution-converted captured image data) from the digital signal processing unit 20 during recording standby, A through image as a moving image is displayed on the screen of the display device based on the captured image data of each frame captured during recording.
In addition, the display driver executes various operation menus, icons, messages, etc., that is, displays as a GUI (Graphical User Interface) on the screen based on instructions from the controller 30 .

操作部35は、ユーザの操作を入力する入力機能を有し、入力された操作に応じた信号をコントローラ30へ送る。
この操作部35としては、例えば撮像装置10の筐体上に設けられた各種操作子や、タッチパッド、表示部34に形成されたタッチパネルなどとして実現される。
筐体上の操作子としては、再生メニュー起動ボタン、決定ボタン、十字キー、キャンセルボタン、ズームキー、スライドキー、シャッターボタン(レリーズボタン)、フォーカスリング等が考えられる。
またタッチパネルと表示部34に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
或いはタッチパッド等によりユーザのタップ操作を検出する形態もある。
但し、上述のアクションカメラとしての撮像装置10の場合、操作部35として十分な操作キー等を配置することは困難であり、少数のキーやタッチパッド程度とされることが想定される。
The operation unit 35 has an input function of inputting a user's operation, and sends a signal according to the input operation to the controller 30 .
The operation unit 35 is implemented, for example, as various operation elements provided on the housing of the imaging device 10, a touch pad, a touch panel formed on the display unit 34, and the like.
As operating elements on the housing, a playback menu activation button, enter button, cross key, cancel button, zoom key, slide key, shutter button (release button), focus ring, and the like can be considered.
Further, various operations may be enabled by touch panel operation using icons, menus, and the like displayed on the touch panel and the display unit 34 .
Alternatively, there is also a form in which a user's tap operation is detected using a touch pad or the like.
However, in the case of the imaging device 10 as the action camera described above, it is difficult to arrange sufficient operation keys and the like as the operation unit 35, and it is assumed that only a small number of keys and a touch pad are provided.

記録部15は、例えば不揮発性メモリからなり、静止画データや動画データ等の画像ファイル(コンテンツファイル)や、画像ファイルの属性情報、サムネイル画像等を記憶する記憶領域として機能する。
画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式で記憶される。
記録部15の実際の形態は多様に考えられる。例えば記録部15は、撮像装置10に内蔵されるフラッシュメモリでもよいし、撮像装置10に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置10に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
また、本例において撮像制御装置1(状態検出部1aとモード処理指示部1b)としての処理をコントローラ30に実行させるためのプログラムは、記録部15に記憶されてもよい。
The recording unit 15 is composed of, for example, a non-volatile memory, and functions as a storage area for storing image files (content files) such as still image data and moving image data, attribute information of image files, thumbnail images, and the like.
Image files are stored in formats such as JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), and GIF (Graphics Interchange Format).
Various actual forms of the recording unit 15 are conceivable. For example, the recording unit 15 may be a flash memory built in the imaging device 10, or a memory card (for example, a portable flash memory) detachable from the imaging device 10 and a card recording/reproducing access for recording/reproducing access to the memory card. It may be in the form of a part. Moreover, it may be implemented as an HDD (Hard Disk Drive) or the like as a form incorporated in the imaging device 10 .
Further, in this example, the recording unit 15 may store a program for causing the controller 30 to execute processing as the imaging control device 1 (the state detection unit 1a and the mode processing instruction unit 1b).

無線通信部16は、外部機器との間の無線通信を行う。例えばWIFI(Wireless Fidelity)やブルートゥース(登録商標)等の無線通信規格等の通信方式による通信を行う。本例の場合、例えば遠隔制御装置50との間で通信を行うものとする。
なお、図示していないが、撮像装置10には、他にも外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う部位が設けられてもよい。
例えば外部の表示装置、記録装置、再生装置等の間で撮像画像データ(静止画ファイルや動画ファイル)の通信を行うようにしたり、ネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
The wireless communication unit 16 performs wireless communication with external devices. For example, communication is performed according to a communication method such as wireless communication standards such as WIFI (Wireless Fidelity) and Bluetooth (registered trademark) . In this example, it is assumed that communication is performed with the remote control device 50, for example.
Although not shown, the imaging apparatus 10 may also be provided with a part that performs wired or wireless data communication and network communication with an external device.
For example, communication of captured image data (still image files and moving image files) is performed between external display devices, recording devices, playback devices, etc., and as a network communication unit, for example, the Internet, a home network, a LAN (Local Area Network) ), etc., and various data transmission/reception may be performed with a server, a terminal, or the like on the network.

音声検出部17は撮像装置10の周囲の音声を検出する。特には状態検出部1aが撮像環境としてのステート判定のための周囲音声検出を行う。
音声検出部17はマイクロホンにより形成されればよいが、より簡易には、対応する周波数帯域が狭い音圧感知素子などでもよい。
音声検出部17として専用のマイクロホン等を備えてもよいが、通常、撮像装置10には動画記録の際の音声集音のためのマイクロホンが搭載されている(図4では図示省略)。そこで録音音声集音用のマイクロホンをステート判定のための周囲音声検出を行う音声検出部17として兼用してもよい。
The sound detection unit 17 detects sounds around the imaging device 10 . In particular, the state detection unit 1a detects surrounding sounds for state determination as an imaging environment.
The voice detection unit 17 may be formed by a microphone, but more simply, a sound pressure sensing element with a narrow corresponding frequency band may be used.
A dedicated microphone or the like may be provided as the audio detection unit 17, but usually the imaging device 10 is equipped with a microphone for collecting audio when recording moving images (not shown in FIG. 4). Therefore, a microphone for collecting recorded sound may also be used as the sound detection unit 17 that detects ambient sound for state determination.

センサ部14は各種センサを包括的に示している。例えば手ぶれ、或いは撮像装置10の姿勢や移動(パン移動、チルト移動等)等、撮像装置10の全体の動きを検出するためのジャイロセンサ(角速度センサ)、加速度センサ等が設けられる。
また露光調整等のための外部照度を検出する照度センサ、さらには被写体距離を測定する測距センサが設けられてもよい。
またセンサ部14として、光学系11におけるズームレンズの位置を検出するズームレンズ位置センサ、フォーカスレンズの位置を検出するフォーカスレンズ位置センサが設けられる場合もある。
またセンサ部14として、メカアイリス(絞り機構)の開口量を検出するセンサが設けられる場合もある。
またセンサ部14としてGPS(Global Positioning System)受信器などの位置センサを設けることも考えられる。
さらにセンサ部14としては、重力センサ、光センサ、温度センサ、その他各種のセンサが考えられる。
The sensor section 14 comprehensively indicates various sensors. A gyro sensor (angular velocity sensor), an acceleration sensor, and the like are provided for detecting the overall movement of the imaging device 10, such as camera shake, or the posture and movement (pan movement, tilt movement, etc.) of the imaging device 10, for example.
Further, an illuminance sensor for detecting external illuminance for exposure adjustment and the like, and a distance measuring sensor for measuring subject distance may be provided.
As the sensor unit 14, a zoom lens position sensor for detecting the position of the zoom lens in the optical system 11 and a focus lens position sensor for detecting the position of the focus lens may be provided.
Further, as the sensor section 14, a sensor for detecting the opening amount of the mechanical iris (diaphragm mechanism) may be provided.
It is also conceivable to provide a position sensor such as a GPS (Global Positioning System) receiver as the sensor unit 14 .
Furthermore, as the sensor section 14, a gravity sensor, an optical sensor, a temperature sensor, and other various sensors can be considered.

センサ部14の各種センサは、それぞれ検出した情報をコントローラ30に伝達する。コントローラ30は、センサ部14で検出された情報を用いて各種制御を行うことができる。
コントローラ30の状態検出部1aは、センサ部14からの検出情報を撮像環境としてのステート判断に用いることができる。
Various sensors of the sensor unit 14 transmit the detected information to the controller 30 . The controller 30 can perform various controls using information detected by the sensor section 14 .
The state detection unit 1a of the controller 30 can use detection information from the sensor unit 14 to determine the state of the imaging environment.

続いて図5で遠隔制御装置50の構成例を説明する。
遠隔制御装置50は無線通信部51、デジタル信号処理部52、表示部53、操作部54、音声検出部55、センサ部56、コントローラ60を備える。
Next, a configuration example of the remote control device 50 will be described with reference to FIG.
The remote control device 50 includes a wireless communication section 51 , a digital signal processing section 52 , a display section 53 , an operation section 54 , an audio detection section 55 , a sensor section 56 and a controller 60 .

無線通信部51は撮像装置10の無線通信部16との間で無線通信を行う。無線通信部51、16間では、例えば制御データや撮像画像データの通信が行われる。
デジタル信号処理部52は、撮像装置10との無線通信により受信されたデータのデコードや表示用の処理などを行う。例えば撮像装置10から撮像画像データその他の情報が送信されてきた場合に、その撮像画像データについての表示のための処理を行い、表示部53で表示させる。
表示部53では、デジタル信号処理部52で処理された撮像画像の表示データや各種通知情報を表示する。例えば撮像装置10の動作状態等の表示も行う。
操作部54は各種操作子を示している。上述した撮像装置10の操作部35と同様に各種の操作子の態様が想定される。
The wireless communication unit 51 wirelessly communicates with the wireless communication unit 16 of the imaging device 10 . For example, control data and captured image data are communicated between the wireless communication units 51 and 16 .
The digital signal processing unit 52 decodes data received through wireless communication with the imaging device 10 and performs processing for display. For example, when captured image data and other information are transmitted from the imaging device 10 , processing for displaying the captured image data is performed and displayed on the display unit 53 .
The display unit 53 displays the display data of the captured image processed by the digital signal processing unit 52 and various kinds of notification information. For example, the operating state of the imaging device 10 is also displayed.
An operation unit 54 indicates various operators. As with the operation unit 35 of the imaging device 10 described above, various types of operation elements are assumed.

コントローラ60は、遠隔制御装置50内の各種動作を制御する。主にコントローラ60は操作部54での操作内容に応じた指示信号(制御コマンド等)を無線通信部51から撮像装置10に送信する。撮像装置10のコントローラ30は、無線通信部16によって受信した指示信号を受け取ることで、遠隔制御装置50による操作に応じた処理を実行できる。
またコントローラ60も、図1で説明した撮像制御装置1としての機能、即ち状態検出部1a、モード処理指示部1bの機能を備えている。
The controller 60 controls various operations within the remote control device 50 . Mainly, the controller 60 transmits an instruction signal (control command or the like) according to the operation content of the operation unit 54 from the wireless communication unit 51 to the imaging device 10 . The controller 30 of the imaging device 10 can execute processing according to the operation by the remote control device 50 by receiving the instruction signal received by the wireless communication unit 16 .
The controller 60 also has the functions of the imaging control device 1 described with reference to FIG. 1, that is, the functions of the state detection section 1a and the mode processing instruction section 1b.

音声検出部55は遠隔制御装置50の周囲の音声を検出する。特には状態検出部1aが撮像環境としてのステート判定のための周囲音声検出を行う。この音声検出部55もマイクロホン等により形成されればよい。 The sound detection unit 55 detects sounds around the remote control device 50 . In particular, the state detection unit 1a detects surrounding sounds for state determination as an imaging environment. This voice detection unit 55 may also be formed by a microphone or the like.

センサ部56は撮像装置10のセンサ部14で説明したものと同様に各種センサを包括的に示している。このセンサ部56の検出情報は、コントローラ60が状態検出部1aの機能により撮像環境(ステート)を判定するために用いる。
例えばセンサ部56としては、遠隔制御装置50に加わった衝撃や、遠隔制御装置50を装着したユーザ等の動きを検出するため振動センサ、ジャイロセンサ(角速度センサ)、加速度センサ等が設けられる。また外部照度を検出する照度センサ、温度センサ等が設けられてもよい。
さらには装着者の身体状況を検出する生体センサ(脈拍、発汗、体温、血圧等のセンサ)とされていてもよい。また位置センサが設けられてもよい。
A sensor unit 56 comprehensively represents various sensors similar to those described for the sensor unit 14 of the imaging device 10 . The information detected by the sensor unit 56 is used by the controller 60 to determine the imaging environment (state) by the function of the state detection unit 1a.
For example, the sensor unit 56 includes a vibration sensor, a gyro sensor (angular velocity sensor), an acceleration sensor, and the like for detecting impact applied to the remote control device 50 and movement of the user wearing the remote control device 50 . Further, an illuminance sensor for detecting external illuminance, a temperature sensor, or the like may be provided.
Furthermore, it may be a biosensor (sensor for pulse, perspiration, body temperature, blood pressure, etc.) that detects the physical condition of the wearer. A position sensor may also be provided.

<3.第2の実施の形態>
以上の撮像装置10や遠隔制御装置50を用いる場合として、第2の実施の形態の動作を説明する。
図8は第2の実施の形態で撮像装置10が行う動作を模式的に示している。これは第2ステートST2としての期間にHFR撮像記録を行う例とする。
<3. Second Embodiment>
The operation of the second embodiment will be described assuming that the imaging device 10 and the remote control device 50 described above are used.
FIG. 8 schematically shows operations performed by the imaging device 10 in the second embodiment. This is an example of performing HFR image recording during the period of the second state ST2.

なお、以下の各実施の形態の説明における撮像装置10のコントローラ30の処理は、状態検出部1a及びモード処理指示部1bとしての機能による処理である。
また以下はコントローラ30の処理として説明するが、その処理は、遠隔制御装置50におけるコントローラ60の処理としてもよい。その場合、コントローラ60は無線通信により撮像装置10のコントローラ30に指示信号を送信し、コントローラ30が受信した指示信号に応じてイメージャ12やデジタル信号処理部20の動作を制御することになる。
Note that the processing of the controller 30 of the imaging device 10 in the description of each embodiment below is processing by the functions of the state detection unit 1a and the mode processing instruction unit 1b.
Further, although the processing of the controller 30 will be described below, the processing may be the processing of the controller 60 in the remote control device 50 . In that case, the controller 60 transmits an instruction signal to the controller 30 of the imaging device 10 by wireless communication, and controls the operations of the imager 12 and the digital signal processing section 20 according to the instruction signal received by the controller 30 .

時点t1でコントローラ30が第1ステートST1としてのトリガ(所定の検出条件を満たす信号もしくは値)を検出したとする。この場合に、撮像装置10では、撮像画像データDTとしてHFRでのフレーム取り込み及びバファリングを開始する(図8A)。
そして第1ステートST1の検出後は、コントローラ30は第2ステートST2としてのトリガ(所定の検出条件を満たす信号もしくは値)を監視する。
時点t2においてコントローラ30は第2ステートST2としてのトリガを検知したとする。コントローラ30は、これに応じて、HFR撮像の記録範囲(記録する先頭フレームから最終フレームのタイミング)を設定し、さらに可能な時点で、デジタル信号処理部20に対して当該記録範囲の撮像画像データについて記録部15での記録のための処理を指示する。
Assume that the controller 30 detects a trigger (signal or value that satisfies a predetermined detection condition) as the first state ST1 at time t1. In this case, the imaging apparatus 10 starts capturing and buffering frames in HFR as captured image data DT (FIG. 8A).
After detecting the first state ST1, the controller 30 monitors a trigger (signal or value that satisfies a predetermined detection condition) as the second state ST2.
Assume that the controller 30 detects a trigger for the second state ST2 at time t2. In response to this, the controller 30 sets the recording range for HFR imaging (the timing from the first frame to the last frame to be recorded), and, at a possible time, sends the captured image data of the recording range to the digital signal processing unit 20. is instructed to perform processing for recording in the recording unit 15 .

例えばコントローラ30は、図8Bのように、第2ステートST2を検知した時点t2において得られたフレームより所定時間前の時点taのフレームから、一定時間TL後の時点tbまでの範囲のフレームを、HFR記録するフレームの範囲(記録範囲RL1)とする。
或いは、コントローラ30は、図8Cのように、第2ステートST2を検知した時点t2において得られたフレームから、一定時間TL後の時点tcまでの範囲のフレームを、HFR記録するフレームの範囲(記録範囲RL2)とする。
或いは、コントローラ30は、図8Dのように、第2ステートST2を検知した時点t2において得られたフレームを最終フレームとし、一定時間TL前の時点tdのフレームを先頭フレームとするように、HFR記録するフレーム範囲を設定する(記録範囲RL3)。
For example, as shown in FIG. 8B, the controller 30 selects frames from a frame at time ta, which is a predetermined time before the frame obtained at time t2 when the second state ST2 is detected, to a time tb, which is after a predetermined time TL. The range of frames to be HFR-recorded (recording range RL1).
Alternatively, the controller 30, as shown in FIG. 8C, HFR-records a range of frames (recording RL2).
Alternatively, as shown in FIG. 8D, the controller 30 performs HFR recording so that the frame obtained at the time t2 when the second state ST2 is detected is the last frame, and the frame at the time td before the fixed time TL is the first frame. set the frame range to be recorded (recording range RL3).

そしてコントローラ30は、所定の時点で、これらの記録範囲のフレームデータについて記録処理を実行させる。
例えばコントローラ30は図8Bのように記録範囲RL1を設定した場合、図8Eのように時点t2から記録処理を開始させてもよい。記録処理とは、バッファリングされたフレームデータを読み出して記録のためのエンコードを行い、記録部15に転送して記録媒体に記録させる処理である。或いは、記録範囲RL1についての記録処理は、図8Fのように記録範囲RL1のバファリングを終えた時点tbから開始させてもよい。
またコントローラ30は、例えば図8Cのように記録範囲RL2を設定した場合、図8Eのように時点t2から記録処理を開始させてもよい。つまりその時点からバファリングされたフレームを即座に読み出して記録処理に供する。或いは図8Fのように記録範囲RL2の途中までバファリングした時点tbから記録処理を開始させてもよいし、図8Gのように記録範囲RL2のバファリングを終えた時点tcから記録処理を開始させてもよい。
またコントローラ30は、例えば図8Dのように記録範囲RL3を設定した場合、すでに時点t2で記録範囲RL3のバファリングは完了しているので、図8Eのように時点t2から記録処理を開始させればよい。
The controller 30 causes the frame data in these recording ranges to be recorded at a predetermined time.
For example, when the recording range RL1 is set as shown in FIG. 8B, the controller 30 may start the recording process from time t2 as shown in FIG. 8E. The recording process is a process of reading the buffered frame data, encoding it for recording, transferring it to the recording unit 15, and recording it on a recording medium. Alternatively, the recording process for the recording range RL1 may be started at time tb when the buffering of the recording range RL1 is finished, as shown in FIG. 8F.
For example, when the recording range RL2 is set as shown in FIG. 8C, the controller 30 may start the recording process from time t2 as shown in FIG. 8E. In other words, the buffered frames are immediately read out from that time point and subjected to the recording process. Alternatively, as shown in FIG. 8F, the recording process may be started at time tb after buffering has been performed to the middle of the recording range RL2, or as shown in FIG. may
Further, when the recording range RL3 is set as shown in FIG. 8D, the controller 30 has already completed the buffering of the recording range RL3 at time t2, so the recording process is started at time t2 as shown in FIG. 8E. Just do it.

図9は時点t1以降のバファリングの様子を示している。
図9Aは時点t1以降に撮像されるフレームを示している。例えば960bps等のHFRで各フレームを構成する撮像画像データDTが得られる。
内蔵メモリ25は上述のようにリングメモリ形態で使用される。図9BのようにアドレスAdSからアドレスAdEまでがバファリングエリアとされているとする。
撮像される各フレームは、順次アドレスAdS~AdEの範囲に記憶されていく。あるフレームの記憶がアドレスAdEに達したら、次のフレームはアドレスAdSに記憶される。即ち、過去のフレームデータが上書きされながらバファリングされていく。
FIG. 9 shows the state of buffering after time t1.
FIG. 9A shows frames captured after time t1. For example, captured image data DT forming each frame with HFR such as 960 bps is obtained.
The built-in memory 25 is used in a ring memory configuration as described above. Assume that the buffering area is from address AdS to address AdE as shown in FIG. 9B.
Each frame to be imaged is sequentially stored in the range of addresses AdS to AdE. When storage of a frame reaches address AdE, the next frame is stored at address AdS. That is, buffering is performed while past frame data is overwritten.

第2ステートST2が検知された時点t2のフレームデータが、図9Bの矢印で示すアドレスに記憶されたフレームであるとすると、上記した記録範囲RL1、RL2,RL3は図示するように内蔵メモリ25のアドレス範囲にバファリングされた(又はその後バファリングされる)フレーム範囲となる。 Assuming that the frame data at time t2 when the second state ST2 is detected is the frame stored at the address indicated by the arrow in FIG. This results in a range of frames buffered (or subsequently buffered) to the address range.

なおHFR記録において以上のようにバファリングを行い、その中である期間の撮像画像データについてのみ記録処理を行うことの理由の1つは、HFRのリアルタイム記録処理は処理負担が過大となることである。
例えば960fpsで撮像を行う場合、その各フレームをリアルタイムでエンコードして記録していくことは処理負担が大きい。そこで、バファリングされた中で記録処理することで、デジタル信号処理部20の負担を軽減している。
One of the reasons why buffering is performed in HFR recording as described above and recording processing is performed only for the captured image data for a certain period of time is that the HFR real-time recording processing has an excessive processing load. be.
For example, when imaging at 960 fps, encoding and recording each frame in real time imposes a heavy processing load. Therefore, the load on the digital signal processing unit 20 is reduced by performing recording processing while buffered.

また第1ステートST1の検出に伴ってバファリングを開始し、第2ステートST2の検出に応じてHFRの記録範囲を設定するのは、第2ステートST2の検出時点において過去の時点を含めてHFR記録することができるようにしたり(記録範囲RL1やRL3)、或いは記録範囲RL2のように、その時点t2の瞬間のフレームを先頭とするときに頭切れが生じないようにするためである。 The reason why the buffering is started upon detection of the first state ST1 and the HFR recording range is set upon detection of the second state ST2 is that the HFR including the past point of time when the second state ST2 is detected. This is to enable recording (recording ranges RL1 and RL3), or to prevent truncation when the frame at the moment of time t2 is set as the head as in the recording range RL2.

またバファリングを、内蔵メモリ25における所定範囲の領域をリングメモリとして用いて行うのは、あまり長い時間のフレーム範囲をバファリングする必要性が乏しいためである。上記のようにHFR記録は、通常レートでの再生時にスローモーション画像となる。そのためユーザにとっては、本当に重要な場面(スローモーションに適した場面)のみがHFR記録されればよいと通常考え、逆にあまり長時間のHFR録画は、再生時に冗長になるとしてユーザが欲しないことが想定されるためである。
また、リングメモリ形態とすることで、HFRのフレームデータのバファリングによってメモリ容量を圧迫されないようにする目的もある。
Buffering is performed by using a predetermined range of area in the built-in memory 25 as a ring memory because there is little need for buffering a frame range for a very long time. As noted above, HFR recording results in slow motion images when played back at normal rates. For this reason, users usually think that only really important scenes (scenes suitable for slow motion) should be HFR-recorded, and conversely, users do not want HFR recording for too long because it becomes redundant during playback. is assumed.
Further, by adopting a ring memory form, there is also an object to prevent pressure on the memory capacity due to buffering of HFR frame data.

当然ながら、バファリングをアドレスAdS~AdEの範囲で行うことで、記録範囲RL1~RL3としての一定期間TLは、最大でバッファ容量で規定される期間(フレーム数)となる。
なお実施の形態の説明では一定時間TLをHFR記録するものとして説明するが、当然ながら、必ずしも一定時間TLとして記録する時間長を固定する必要はない。
As a matter of course, by performing buffering in the range of addresses AdS to AdE, the fixed period TL as the recording range RL1 to RL3 becomes a period (the number of frames) defined by the buffer capacity at maximum.
In the description of the embodiment, HFR recording is performed for the fixed time TL, but it is of course not necessary to fix the recording time length of the fixed time TL.

また記録範囲RL(RL1,RL2,RL3等)の設定は、例えばフレームナンバの指定(フレームのタイムコードの指定)として行ってもよいし、バファリングしている内蔵メモリ25のアドレス範囲での指定として行ってもよい。
或いは、フレームに対応してタグを付加するようにしてもよい。
The setting of the recording range RL (RL1, RL2, RL3, etc.) may be performed, for example, by specifying the frame number (specifying the time code of the frame), or by specifying the address range of the internal memory 25 buffered. You can go as
Alternatively, a tag may be added corresponding to the frame.

図8の例では、バファリングはユーザによってHFR撮像の終了の操作が行われる時点t5まで継続するようにしている。
例えば第2ステートST2とされた機会が複数回発生することもあり得るため、一旦第2ステートST2を検出し、さらに記録範囲RLとしての最終フレームまでバファリングを完了した後も、バファリングは継続するとよい。但し、もちろん記録範囲RLとしての最終フレームまでバファリングを完了した時点でバファリングを終了するという処理方式も考えられる。
In the example of FIG. 8, the buffering continues until time t5 when the user performs an operation to end the HFR imaging.
For example, since the second state ST2 may occur multiple times, the buffering continues even after the second state ST2 is once detected and buffering is completed up to the final frame of the recording range RL. do it. However, of course, a processing method is also conceivable in which the buffering is terminated when the buffering is completed up to the last frame as the recording range RL.

第1ステートST1や第2ステートST2の判定のトリガについて各種例を説明する。
撮像環境としての第1ステートST1や第2ステートST2は、例えば撮像装置10や遠隔制御装置50を装着したユーザの状況である。例えばスノーボードやモータバイクで発進する状態を第1ステートST1、ある地点でジャンプする状態が第2ステートST2などとする。
少なくとも発進時は、ユーザは撮像に関する操作を行うことができる。例えば発進直前にタッピング操作を行うことなどは可能なため、これを第1ステートST1のトリガとしてもよい。しかし第2ステートST2(ジャンプに至った状態)では操作は困難である。そこで少なくとも第2ステートST2の検知のためのトリガは、ユーザの意識的な操作ではないものとすることが望ましい。もちろん発進した状態(第1ステートST1)を振動等により検知してもよい。
Various examples of triggers for determination of the first state ST1 and the second state ST2 will be described.
The first state ST1 and the second state ST2 as imaging environments are situations of the user wearing the imaging device 10 and the remote control device 50, for example. For example, a state in which a snowboard or a motorbike is started is assumed to be the first state ST1, and a state in which the user jumps at a certain point is assumed to be the second state ST2.
At least when the vehicle starts moving, the user can perform operations related to imaging. For example, since it is possible to perform a tapping operation just before starting, this may be used as a trigger for the first state ST1. However, the operation is difficult in the second state ST2 (the state of jumping). Therefore, it is desirable that at least the trigger for detecting the second state ST2 should not be a user's intentional operation. Of course, the starting state (first state ST1) may be detected by vibration or the like.

図10では、第1ステートST1や第2ステートST2の検知の例を示している。
図10Aは、予め登録した振動パタンの検出をトリガとする例である。
コントローラ30は、センサ部14におけるジャイロセンサや加速度センサの検出信号を検知する(PH1)。例えば5回のノッキングについての振動パタンが登録されているとするときに、検出信号として、5回の振動に応じた波形が得られたとする。
この検出信号についてAD(Analog to Digital)変換し(PH2)、さらにコアリング(ローパスフィルタ処理)や、閾値判定による2値パルス化処理等を行う(PH3)。そして得られた2値パルスの波形を登録された各種パタンと比較照合する(PH4)。例えば所定時間TRG内のパルス発生数やパルス間隔を比較し、類似しているパタンが存在するか否かを判定する。そして類似しているパタンが存在していることをステート検出のトリガとする。
例えばユーザが意識的に5回タッピングする動作を第1ステートST1検出のトリガと判定することが考えられる。
或いはアクティビティ開始時の特有の振動パタンを第1ステートST1検出のトリガとしたり、アクティビティの過程の特有の振動パタンを第2ステートST2検出のトリガとすることが考えられる。
FIG. 10 shows an example of detection of the first state ST1 and the second state ST2.
FIG. 10A shows an example in which detection of a pre-registered vibration pattern is used as a trigger.
The controller 30 detects detection signals from the gyro sensor and the acceleration sensor in the sensor unit 14 (PH1). For example, when vibration patterns for five knockings are registered, it is assumed that a waveform corresponding to the five vibrations is obtained as a detection signal.
This detection signal is subjected to AD (Analog to Digital) conversion (PH2), and further subjected to coring (low-pass filter processing), binary pulsing processing by threshold determination, etc. (PH3). Then, the obtained binary pulse waveform is compared with various registered patterns (PH4). For example, the number of pulse occurrences and pulse intervals within a predetermined time TRG are compared to determine whether or not a similar pattern exists. The presence of similar patterns is used as a trigger for state detection.
For example, it is conceivable that the action of the user intentionally tapping five times is determined as the trigger for detecting the first state ST1.
Alternatively, it is conceivable to use a peculiar vibration pattern at the start of the activity as a trigger for detecting the first state ST1, or use a peculiar vibration pattern in the course of the activity as a trigger for detecting the second state ST2.

図10Bは、予め登録した音声パタンの検出をトリガとする例である。
コントローラ30は音声検出部17としてのマイクロホンからの音声信号を入力する(PH11)。そして当該音声信号をAD変換し(PH12)、デジタルデータ化した状態で音声認識処理を行う(PH13)。そして音声認識処理でキーワード抽出を行い、抽出したキーワードが予め登録した音声パタンとマッチングして、一致(又は類似)しているか否かを判定する(PH14)。一致又は類似する音声パタンが存在することをステート検出のトリガとする。
例えば「Let’s Go」等のユーザが発声した際の音声パタンを第1ステートST1のトリガと判定することが考えられる。
またアクティビティ開始時の特有の音声パタンを第1ステートST1検出のトリガとしたり、アクティビティの過程の特有の音声(ユーザのかけ声、ジャンプ等の特定の状態で得られる周囲音声、歓声等)を第2ステートST2検出のトリガとすることが考えられる。
FIG. 10B is an example in which detection of a pre-registered voice pattern is used as a trigger.
The controller 30 receives an audio signal from a microphone as the audio detector 17 (PH11). Then, the voice signal is AD-converted (PH12), and voice recognition processing is performed in a digital data state (PH13). Keywords are then extracted by speech recognition processing, and the extracted keywords are matched with pre-registered speech patterns to determine whether they match (or are similar) (PH14). State detection is triggered by the presence of matching or similar speech patterns.
For example, it is conceivable to determine a voice pattern when the user utters "Let's Go" as a trigger for the first state ST1.
Also, the unique voice pattern at the start of the activity is used as a trigger for detecting the first state ST1, and the unique voice in the process of the activity (user shout, ambient voice obtained in a specific state such as jumping, cheers, etc.) is used as the second state. It is conceivable to use it as a trigger for state ST2 detection.

図10Cは、予め登録したジェスチャの検出をトリガとする例である。
例えばコントローラ30は、センサ部14におけるジャイロセンサや加速度センサの検出信号を検知する(PH21)。この検出信号についてAD変換し(PH22)、デジタルデータ化した状態でジェスチャ解析を行う(PH23)。即ち、ジェスチャに伴って生ずる振動のパタンを解析する。そして予め登録してある各種ジェスチャに応じた振動パタンとマッチングして、一致(又は類似)しているパタンが存在するか否かを判定する(PH24)。一致又は類似するパタンが存在することをステート検出のトリガとする。
また、画像からジェスチャを検知してもよい。コントローラ30はイメージャ12で撮像されデジタル信号処理部20で処理される各フレームデータを取り込む(PH31)。そして各フレームデータから被写体となっているジェスチャを解析する(PH32)。そして解析したジェスチャのパタンを、予め登録してある各種ジェスチャパタンとマッチングして、一致(又は類似)しているパタンが存在するか否かを判定する(PH33)。一致又は類似するパタンが存在することをステート検出のトリガとする。
例えばユーザが撮像装置10の被写体として映り込むようにして行った手や腕の特定の動作等を第1ステートST1検出のトリガとすることが考えられる。またアクティビティ開始時の特有のジェスチャ(例えばスタートのポーズなど)を第1ステートST1検出のトリガとしたり、アクティビティの過程の特有のジェスチャ(ジャンプ姿勢等)を第2ステートST2検出のトリガとすることが考えられる。
FIG. 10C is an example in which the detection of a pre-registered gesture is used as a trigger.
For example, the controller 30 detects detection signals from the gyro sensor and the acceleration sensor in the sensor unit 14 (PH21). This detection signal is AD-converted (PH22), and gesture analysis is performed in the state of digital data (PH23). That is, it analyzes the pattern of vibration that accompanies the gesture. Then, it is matched with vibration patterns corresponding to various gestures registered in advance, and it is determined whether or not there is a matching (or similar) pattern (PH24). The presence of matching or similar patterns is used as a trigger for state detection.
Also, a gesture may be detected from an image. The controller 30 takes in each frame data imaged by the imager 12 and processed by the digital signal processing unit 20 (PH31). Then, the gesture as a subject is analyzed from each frame data (PH32). Then, the analyzed gesture pattern is matched with various pre-registered gesture patterns to determine whether or not there is a matching (or similar) pattern (PH33). The presence of matching or similar patterns is used as a trigger for state detection.
For example, it is conceivable that a specific action of a hand or arm performed by the user so as to be reflected as a subject of the imaging device 10 may be used as a trigger for detecting the first state ST1. Also, a gesture peculiar to the start of an activity (for example, a start pose) can be used as a trigger for detecting the first state ST1, or a gesture peculiar to the course of the activity (jump posture, etc.) can be used as a trigger for detecting the second state ST2. Conceivable.

以上は一例である。第1ステートST1や第2ステートST2としての判定のトリガは、他にも考えられる。上記も含めて各種例示すると、撮像装置10或いは遠隔制御装置50に加わる事象として検知できるトリガとしては、
・所定パタンの振動の検知
・所定パタンの音(音声)の検知
・所定パタンのジェスチャの検知
・所定領域内への進入の検知
・遠隔制御装置50とのWIFI等の無線接続の切断の検知
等が考えられる。
所定領域内への進入とは、撮像装置10又は遠隔制御装置50を装着するユーザなどが或るエリアに進入したことを検知して、第1又は第2ステート検出を行うことである。例えばスキー、レース等で特定の場所の走行中であることを第2ステートST2とするなどが想定される。
遠隔制御装置50とのWIFI等の無線接続の切断の検知とは、撮像装置10と遠隔制御装置50との通信切断により、状況が変化したことを検知するものである。無線通信が切断するのは、撮像装置10と遠隔制御装置50との距離が離れた状況である。このような状況を或るステートとする。
The above is just an example. Other triggers for determination as the first state ST1 and the second state ST2 are conceivable. To give various examples including the above, as a trigger that can be detected as an event applied to the imaging device 10 or the remote control device 50,
・Detection of vibration in a predetermined pattern ・Detection of sound (voice) in a predetermined pattern ・Detection of gesture in a predetermined pattern ・Detection of entry into a predetermined area ・Detection of disconnection of wireless connection such as WIFI with the remote control device 50 can be considered.
Entry into a predetermined area means detecting that a user or the like wearing the imaging device 10 or the remote control device 50 has entered a certain area, and performing first or second state detection. For example, it is assumed that the second state ST2 is running in a specific place in skiing, racing, or the like.
The detection of disconnection of the wireless connection such as WIFI with the remote control device 50 is to detect that the situation has changed due to the communication disconnection between the imaging device 10 and the remote control device 50 . The disconnection of wireless communication occurs when the imaging device 10 and the remote control device 50 are separated from each other. Let such a situation be a certain state.

また、撮像装置10が撮像しているシーン(被写体)の状態によるトリガとして
・所定パタンのオートアイリス制御用検波値変化の検知
・所定パタンのオートホワイトバランス制御用検波値の変動検知
・所定パタンの画面内動きベクトル(グローバルベクトル)の変動検知
・所定パタンのジェスチャ検知
などが考えられる。
アイリス状態、ホワイトバランス状態の制御値の変化によっては、被写体の大きな変化を検知することができる。例えばアクティビティ中のジャンプによって被写体が地上の周囲風景から空一面に切り替わるような状態である。
また画面内のグローバルベクトルの変動とは、被写体の全体的な動きを表すため、グローバルベクトルを監視することで被写体の大きな変化を生じたことが検知できる。
Triggers based on the state of the scene (subject) being imaged by the imaging device 10 ・Detection of change in detection value for auto iris control of predetermined pattern ・Detection of change in detection value for auto white balance control of predetermined pattern ・Screen of predetermined pattern Fluctuation detection of internal motion vector (global vector) ・Predetermined pattern gesture detection, etc. can be considered.
Depending on changes in the control values of the iris state and white balance state, it is possible to detect a large change in the subject. For example, a jump during an activity causes the subject to switch from the surrounding scenery on the ground to the entire sky.
In addition, since the fluctuation of the global vector within the screen represents the overall movement of the subject, it is possible to detect that the subject has undergone a large change by monitoring the global vector.

図11でステート判定の具体例を説明する。
図11Aはセンサ部14による検出信号に基づく検波値の推移を示している。また図11Bは検波値を微分及びコアリングした信号値SJ、図11Cは信号値SJに基づくカウント制御フラグCTF、図11Dはステート判定のためのカウンタのカウント値CJを示している。
閾値範囲sjTHは信号値SJについての安定/変動の判定のための閾値範囲である。
カウント制御フラグCTFは、信号値SJが閾値範囲sjTHの範囲内、つまり安定しているとする範囲内のときに“1”、閾値範囲sjTHを越えた場合、つまり大きく変動しているときに“0”とするフラグである。
カウンタ値CJは、カウント制御フラグCTFが“0”のときにカウントアップされ、カウント制御フラグCTFが“1”のときにリセットされるカウンタのカウント値である。
A specific example of state determination will be described with reference to FIG.
FIG. 11A shows the transition of the detection value based on the detection signal by the sensor section 14. FIG. FIG. 11B shows the signal value SJ obtained by differentiating and coring the detected value, FIG. 11C shows the count control flag CTF based on the signal value SJ, and FIG. 11D shows the count value CJ of the counter for state determination.
The threshold range sjTH is the threshold range for determination of stability/variation for the signal value SJ.
The count control flag CTF is set to "1" when the signal value SJ is within the threshold range sjTH, that is, within the stable range, and is set to "1" when it exceeds the threshold range sjTH, that is, when it fluctuates greatly. 0”.
The counter value CJ is a count value of a counter which is incremented when the count control flag CTF is "0" and reset when the count control flag CTF is "1".

図11Eは第1ステート判定タイミングを示している。このタイミングはHFR撮像及びバファリングを開始するタイミングとなる。
図11Fは第2ステート判定タイミングを示している。これはバファリングしたフレームデータのうちの記録範囲の設定及び記録処理が可能となるタイミングを示したものである。
FIG. 11E shows the first state determination timing. This timing is the timing to start HFR imaging and buffering.
FIG. 11F shows the second state determination timing. This indicates the timing at which setting of the recording range and recording processing of the buffered frame data are possible.

ここではモータバイクのオフロード走行を行うユーザが撮像装置10又は遠隔制御装置50を装着しており、コントローラ30(又はコントローラ60)が振動の検出信号によりステート判断を行う例で説明する。
時点t0において撮像装置10(或いはさらに遠隔制御装置50)が電源オンとされたとする。コントローラ30にとっては時点t0からセンサ部14の検出信号を取り込んで検波値を監視可能となる。
時点t1に、ユーザのタッピング操作パタンが検出されたり、バイク発車時の振動パタンが検出されたとする。コントローラ30はこれにより第1ステートST1になったと判断し、HFR撮像及びバファリングを開始させる。
Here, an example will be described in which a user riding a motorcycle off-road wears the imaging device 10 or the remote control device 50, and the controller 30 (or the controller 60) makes a state determination based on a vibration detection signal.
Assume that the imaging device 10 (or the remote control device 50) is powered on at time t0. From time t0, the controller 30 can take in the detection signal from the sensor section 14 and monitor the detection value.
Assume that the user's tapping operation pattern or the vibration pattern at the time of starting the motorcycle is detected at time t1. The controller 30 thereby determines that the first state ST1 has been reached, and starts HFR imaging and buffering.

時点t1以降は、コントローラ60は第2ステートST2に至ったか否かの判定を行う。この判定は、カウント値CJがカウント閾値rTHを越えたことを条件とするものとする(換言すればCJ>rTHをトリガとして第2ステートST2の判定を行う)。
振動の検波値としてはバイク走行時の振動に応じて大きな変動が観測される。このためカウント値CJはリセットが繰り返され、閾値rTHに達しない状態が続く。
ある時点tjでバイクがジャンプしたとする。空中にある間、振動の検波値としては、ある値に張り付くような状態が観測される。そして検波値の変動がほとんど無くなることから微分値の変化が小さくなり、信号値SJが安定する。これによってカウント値CJのリセットがある程度の時間行われず、時点t2でカウント値CJが閾値rTHを越えたとする。
コントローラ30は、この時点t2において第1ステートST1から第2ステートST2に至ったと判定する。そしてこのタイミング以降に第2モードの処理を指示する。具体的には、例えば図8Bのように時点t2で一定時間TLの記録範囲RL1を設定する。図11では、時点tjから時点t4までの一定時間TLが記録範囲とされた例を示している。そしてコントローラ30はその後所定の時点でデジタル信号処理部20にHFR記録処理を開始させる。
バイクが着地した時点t4以降では、再び大きな振動が加わることで信号SJの変化が大きくなり、カウント値CJはリセットが繰り返される状態となる。
After time t1, the controller 60 determines whether or not the state has reached the second state ST2. This determination is made on the condition that the count value CJ exceeds the count threshold value rTH (in other words, the determination of the second state ST2 is performed using CJ>rTH as a trigger).
As for the vibration detection value, a large fluctuation is observed according to the vibration during riding on the motorcycle. Therefore, the count value CJ is repeatedly reset and continues to fail to reach the threshold value rTH.
Suppose the bike jumps at some point in time tj. While in the air, the vibration detection value is observed to stick to a certain value. Since there is almost no change in the detected value, the change in the differential value is small, and the signal value SJ is stabilized. As a result, the count value CJ is not reset for a certain amount of time, and the count value CJ exceeds the threshold value rTH at time t2.
The controller 30 determines that the state has changed from the first state ST1 to the second state ST2 at time t2. After this timing, the second mode processing is instructed. Specifically, for example, as shown in FIG. 8B, a recording range RL1 for a certain time TL is set at time t2. FIG. 11 shows an example in which the fixed time TL from time tj to time t4 is set as the recording range. After that, the controller 30 causes the digital signal processing section 20 to start the HFR recording process at a predetermined time.
After time t4 when the motorcycle lands on the ground, a large vibration is applied again, and the change in the signal SJ increases, and the count value CJ is repeatedly reset.

例えばこのような処理としてコントローラ30がステート判断を行い、撮像動作処理のモード制御を行うようにした処理例を図12、図13、図14、図15で説明する。
図12はコントローラ30の撮像制御装置1としての機能(状態検出部1a及びモード処理指示部1b)による全体処理を示している。
コントローラ30は、この図12の処理をフレームタイミング毎に繰り返す。
For example, processing examples in which the controller 30 performs state determination as such processing and mode control of the imaging operation processing will be described with reference to FIGS. 12, 13, 14 and 15. FIG.
FIG. 12 shows the overall processing by the functions of the controller 30 as the imaging control device 1 (the state detection section 1a and the mode processing instruction section 1b).
The controller 30 repeats the processing of FIG. 12 for each frame timing.

コントローラ30は、ステップS101で本機能(撮像制御装置1としての機能)がオンであるか否かを確認する。状態検出部1a及びモード処理指示部1bによる本機能は、例えばユーザが所定の操作により機能オン/オフを選択できるものとする。
機能オフとされている期間は、コントローラ30は常にステップS102の処理のみを行って図12の1回の処理を終える。
ステップS102では、HFR撮像指示フラグFbのオフ(“0”)、HFR記録指示フラグFrをオフ(“0”)、第1ステート検出フラグF1のオフ(“0”)、第2ステート検出フラグF2のオフ(“0”)を行う。
HFR撮像指示フラグFbは、第1ステート検出に伴った第1モードの撮像処理動作の指示が可能な状態(もしくは指示すべき状態)を示すフラグである。コントローラ30は、HFR撮像指示フラグFbがオン(“1”)となることに応じて第1モード動作の指示制御、具体的にはHFRでの撮像及びバファリングの指示を行う。
HFR記録指示フラグFrは、第2ステート検出に伴った第2モードの撮像処理動作の指示が可能な状態(もしくは指示すべき状態)を示すフラグである。コントローラ30は、HFR記録指示フラグFrがオン(“1”)となることに応じて所定のタイミングで第2モード動作の指示制御、具体的にはHFR撮像データの記録範囲の設定及び記録処理の指示を行う。
第1ステート検出フラグF1は、第1ステートST1の検出状態を示すフラグであり、第1ステート検出に応じてオン(“1”)とされる。
第2ステート検出フラグF2は、第2ステートST2の検出状態を示すフラグであり、第2ステート検出に応じてオン(“1”)とされる。
In step S101, the controller 30 confirms whether or not this function (function as the imaging control device 1) is on. This function by the state detection unit 1a and the mode processing instruction unit 1b can be turned ON/OFF by a predetermined operation, for example, by the user.
During the period in which the function is turned off, the controller 30 always performs only the processing of step S102 and completes one processing of FIG.
In step S102, the HFR imaging instruction flag Fb is turned off (“0”), the HFR recording instruction flag Fr is turned off (“0”), the first state detection flag F1 is turned off (“0”), and the second state detection flag F2 is turned off (“0”). is turned off ("0").
The HFR imaging instruction flag Fb is a flag indicating a state in which it is possible (or a state in which an instruction should be given) to perform an imaging processing operation in the first mode following detection of the first state. When the HFR imaging instruction flag Fb is turned on (“1”), the controller 30 performs instruction control of the first mode operation, specifically, instruction of HFR imaging and buffering.
The HFR recording instruction flag Fr is a flag indicating a state in which it is possible (or a state in which an instruction should be given) for the imaging processing operation in the second mode following the detection of the second state. When the HFR recording instruction flag Fr is turned on (“1”), the controller 30 instructs and controls the second mode operation at a predetermined timing, specifically setting the recording range of the HFR imaging data and performing the recording process. give instructions.
The first state detection flag F1 is a flag indicating the detection state of the first state ST1, and is turned on (“1”) in response to detection of the first state.
The second state detection flag F2 is a flag indicating the detection state of the second state ST2, and is turned on (“1”) in response to detection of the second state.

撮像制御装置1としての機能オンが選択されているときは、コントローラ30はステップS103に進み、第1ステートST1が検出済みであるか否かを確認する。即ち第1ステート検出フラグF1=1であるか否かを確認する。
第1ステート検出フラグF1=0であって第1ステート未検出の状態であれば、コントローラ30はステップS104に進み、第1ステート検出処理を行う。例えば図11の時点t0~t1は、このステップS104の処理を行うことになる。
When the function ON as the imaging control device 1 is selected, the controller 30 proceeds to step S103 and confirms whether or not the first state ST1 has been detected. That is, it is checked whether or not the first state detection flag F1=1.
If the first state detection flag F1=0 and the first state has not been detected, the controller 30 proceeds to step S104 to perform the first state detection process. For example, from time t0 to t1 in FIG. 11, the process of step S104 is performed.

第1ステート検出処理の例を図13に示す。
コントローラ30はセンサ部14の検出信号や音声検出部17からの入力音声信号、或いはイメージャ12による撮像画像データDTを対象に第1ステート検出処理を行う。一例として図13では、図10Aで説明したセンサ部14の検出信号を対象とする例を示している。
コントローラ30はまずステップS201で検波値を取得する。そしてステップS202で直流成分カットやノイズ平滑化のために検波値に対してフィルタ処理、例えばバンドパスフィルタによる帯域抽出処理を行う。さらにステップS203で微小振幅カットのためのコアリング処理を行い、ステップS204で閾値を用いた判定を行う。そしてコントローラ30はステップS205で、以上の処理で得られたパルスについて、所定時間内のパルスパタン(パルス発生数やパルス間隔)を、予め登録されているパルスパタンと比較する。
この比較の結果として、コントローラ30は、第1ステート検出フラグF1=0であって、かつ事前登録されているパタンと一致するパルスパタンが検出されたという条件が満たされなかったら、ステップS206からS209に進み、第1ステート検出フラグF1=0の状態を維持する。
上記の条件が満たされた場合は、コントローラ30は、ステップS206からS207に進み、第1ステート検出フラグF1=1とする。つまり第1ステートST1としてのトリガが検出されたとする。
FIG. 13 shows an example of the first state detection process.
The controller 30 performs the first state detection processing on the detection signal from the sensor section 14, the input audio signal from the audio detection section 17, or the captured image data DT by the imager 12. FIG. As an example, FIG. 13 shows an example in which the detection signal of the sensor unit 14 described with reference to FIG. 10A is targeted.
The controller 30 first acquires a detection value in step S201. Then, in step S202, filter processing, for example, band extraction processing using a band-pass filter is performed on the detected value in order to cut DC components and smooth noise. Further, in step S203, coring processing for cutting minute amplitude is performed, and in step S204, determination using a threshold value is performed. Then, in step S205, the controller 30 compares the pulse pattern (the number of generated pulses and the pulse interval) within a predetermined time with the pre-registered pulse pattern for the pulses obtained by the above processing.
As a result of this comparison, if the conditions that the first state detection flag F1=0 and that a pulse pattern matching a pre-registered pattern is detected are not satisfied, the controller 30 proceeds from step S206 to step S209. Then, the state of the first state detection flag F1=0 is maintained.
If the above conditions are satisfied, the controller 30 proceeds from step S206 to step S207 and sets the first state detection flag F1=1. That is, assume that a trigger as the first state ST1 is detected.

以上の第1ステート検出処理によって第1ステートST1が検出され、第1ステート検出フラグF1=1となった後の図12の処理では、コントローラ30はステップS103からS105に進む。
この場合、さらにコントローラ30はHFR撮像指示フラグFb=1とする。これに伴ってコントローラ30は、第1モードの指示、即ちイメージャ12でHFR撮像の開始及びデジタル信号処理部20でのバファリング開始の指示を行う。図11では時点t1以降の状態となる。
In the process of FIG. 12 after the first state ST1 is detected by the above first state detection process and the first state detection flag F1 is set to 1, the controller 30 proceeds from step S103 to step S105.
In this case, the controller 30 further sets the HFR imaging instruction flag Fb=1. Along with this, the controller 30 instructs the first mode, that is, instructs the imager 12 to start HFR imaging and the digital signal processing unit 20 to start buffering. In FIG. 11, the state is after time t1.

そしてこの期間、コントローラ30はステップS106で第2ステート検出処理を行う。
第2ステート検出処理の例を図14に示す。ここでは図11で説明した動作に対応する処理例としている。
コントローラ30はまずステップS301でセンサ部14からの検出信号の検波値を取得する。そしてステップS302で直流成分カットやノイズ平滑化のために検波値に対してフィルタ処理、例えばバンドパスフィルタによる帯域抽出処理を行う。さらにステップS303で微小振幅カットのためのコアリング処理を行う。以上の処理で得られるのが図11で述べた信号値SJとなる
コントローラ30はステップS304で信号値SJが閾値範囲sjTH以内であるか否かを確認する。そして信号値SJが閾値範囲sjTH内であればステップS305でカウント制御フラグCTF=1とし、信号値SJが閾値範囲sjTH内でなければステップS306でカウント制御フラグCTF=0とする。
During this period, the controller 30 performs the second state detection process in step S106.
FIG. 14 shows an example of the second state detection process. Here, a processing example corresponding to the operation described with reference to FIG. 11 is used.
The controller 30 first acquires the detection value of the detection signal from the sensor unit 14 in step S301. Then, in step S302, filter processing, for example, band extraction processing using a band-pass filter is performed on the detected value in order to cut DC components and smooth noise. Further, in step S303, coring processing is performed for minute amplitude cut. The signal value SJ described in FIG. 11 is obtained by the above processing. In step S304, the controller 30 checks whether the signal value SJ is within the threshold range sjTH. If the signal value SJ is within the threshold range sjTH, the count control flag CTF is set to 1 in step S305, and if the signal value SJ is not within the threshold range sjTH, the count control flag CTF is set to 0 in step S306.

続いてコントローラ30はステップS307で、カウント制御フラグCTFに応じて処理を分岐する。カウント制御フラグCTF=0のときは、ステップS308に進んでカウント値CJをカウントアップする。一方、カウント制御フラグCTF=1のときは、ステップS309に進んでカウント値CJをリセットする。
なおステップS309では、カウント値CJのカウントダウンを行うという処理例も考えられる。
Subsequently, in step S307, the controller 30 branches the processing according to the count control flag CTF. When the count control flag CTF=0, the process proceeds to step S308 to count up the count value CJ. On the other hand, when the count control flag CTF=1, the process proceeds to step S309 to reset the count value CJ.
Note that in step S309, a processing example of counting down the count value CJ is also conceivable.

次にコントローラ30はステップS310で、カウント値CJと閾値rTHを比較する。
CJ>rTHでなければ、ステップS312において、HFR記録指示フラグFr=0を維持するとともに、第2ステート検出フラグF2=0を維持する。
この場合、図12の処理はステップS107から1回の処理を終了することになる。
Next, in step S310, the controller 30 compares the count value CJ and the threshold value rTH.
If CJ>rTH, in step S312, the HFR recording instruction flag Fr=0 is maintained and the second state detection flag F2=0 is maintained.
In this case, the processing of FIG. 12 ends from step S107 once.

ステップS310の段階でCJ>rTHであれば、コントローラ30はステップS311において、HFR記録指示フラグFr=1とし、また第2ステート検出フラグF2=1とする。
HFR記録指示フラグFr=1に応じてコントローラ30は第2モードの指示を所定のタイミングで行う。例えばこの時点で、図8B、図8C、図8DのようにHFRでの記録範囲RL(RL1,RL2,RL3のいずれか)を設定する。
また図8E、図8F、図8Gのいずれかのタイミングで、バファリングされた記録範囲のフレームについてのHFR記録処理、具体的には記録用のエンコード処理や記録部15への転送をデジタル信号処理部20に実行させる制御を行う。(但し図12の処理例では記録範囲RLのバファリング完了後にステップS109で記録処理を指示する例としている。)
If CJ>rTH at the stage of step S310, the controller 30 sets the HFR recording instruction flag Fr=1 and sets the second state detection flag F2=1 at step S311.
The controller 30 instructs the second mode at a predetermined timing in response to the HFR recording instruction flag Fr=1. For example, at this point, the HFR recording range RL (one of RL1, RL2, and RL3) is set as shown in FIGS. 8B, 8C, and 8D.
8E, 8F, and 8G, the HFR recording process for the frames in the buffered recording range, specifically, the encoding process for recording and the transfer to the recording unit 15 are performed by digital signal processing. Control to be executed by the unit 20 is performed. (However, in the processing example of FIG. 12, the recording processing is instructed in step S109 after the buffering of the recording range RL is completed.)

以上のように第2ステートST2を検出した後のフレームタイミングでの図12の処理では、第2ステート検出フラグF2=1となっているため、コントローラ30はステップS107からステップS108に進める。
ステップS108でコントローラ30は、一定時間TLの経過を確認する。この確認は、記録範囲RLして設定した先頭のフレームから一定時間TL後のフレームまでのバファリングが完了したか否かを確認する処理となる。つまり記録範囲RLとしての全フレームのバファリングを待機する処理である。
バファリングが完了していなければ、図12の処理を終える。
In the process of FIG. 12 at the frame timing after detecting the second state ST2 as described above, the second state detection flag F2=1, so the controller 30 proceeds from step S107 to step S108.
In step S108, the controller 30 confirms the elapse of the fixed time TL. This confirmation is a process of confirming whether or not the buffering from the first frame set in the recording range RL to the frame after the predetermined time TL has been completed. That is, this is a process of waiting for buffering of all frames as the recording range RL.
If the buffering has not been completed, the process of FIG. 12 ends.

ある時点で記録範囲RLのバファリングが完了したときは、コントローラ30は図12の処理をステップS108からS109に進め、デジタル信号処理部20に対してHFR記録処理を指示する。つまりバファリングされた記録範囲RLのフレームについて、記録用のエンコード処理及び記録部15への転送をデジタル信号処理部20に実行させる。これにより、第2ステート検出時点から一定時間TLの期間のHFR映像が記録されることになる。 When the buffering of the recording range RL is completed at a certain time, the controller 30 advances the process of FIG. 12 from step S108 to step S109 and instructs the digital signal processing section 20 to perform the HFR recording process. In other words, the digital signal processing unit 20 is caused to execute encoding processing for recording and transfer to the recording unit 15 for the buffered frames in the recording range RL. As a result, the HFR video is recorded for the fixed time TL from the time when the second state is detected.

当該指示の後、コントローラ30はステップS110で第1ステート検出フラグF1=0、第2ステート検出フラグF2=0とする。
この場合、第1ステート検出フラグF1=0に応じてHFR撮像及びバファリングを停止させればよい。
或いは、第1ステート検出フラグF1=1を継続し、HFR撮像及びバファリングも継続する例も考えられる。その場合は、再び第2ステート検出が行われ、第2ステート検出に応じてHFR記録が実行されることになる。
After the instruction, the controller 30 sets the first state detection flag F1=0 and the second state detection flag F2=0 in step S110.
In this case, HFR imaging and buffering may be stopped according to the first state detection flag F1=0.
Alternatively, an example of continuing the first state detection flag F1=1 and continuing HFR imaging and buffering is also conceivable. In that case, the second state detection is performed again, and HFR recording is performed in response to the second state detection.

なお、以上の処理例では、HFR記録指示フラグFr=1とした後に直ぐに記録処理を指示せず、バファリング完了を待機してからステップS109で記録処理を指示するようにしている。これは、例えば図8Bの記録範囲RL1を設定した場合に図8Fのタイミングで記録処理を実行させる例、或いは図8Cの記録範囲RL2を設定した場合に図8Gのタイミングで記録処理を実行させる例、さらには図8Dの記録範囲RL3設定した場合に図8Eのタイミングで記録処理を実行させる例に相当する。
これ以外に、例えば図8B又は図8Cのように記録範囲RL1又はRL2を設定し、図8Eのタイミングで即座に(バファリング完了を待たずに)記録処理を開始させてもよい。その場合コントローラ30は、図14のステップS311でHFR記録指示フラグFr=1とした時点で、すぐにデジタル信号処理部20に対して記録処理を指示するようにすればよい。
In the above processing example, the recording process is not instructed immediately after the HFR recording instruction flag Fr is set to 1, but the recording process is instructed in step S109 after waiting for the completion of buffering. This is an example of executing the recording process at the timing of FIG. 8F when the recording range RL1 of FIG. 8B is set, or an example of executing the recording process at the timing of FIG. 8G when the recording range RL2 of FIG. 8C is set. Furthermore, it corresponds to an example in which the recording process is executed at the timing of FIG. 8E when the recording range RL3 of FIG. 8D is set.
Alternatively, for example, the recording range RL1 or RL2 may be set as shown in FIG. 8B or 8C, and the recording process may be started immediately (without waiting for completion of buffering) at the timing shown in FIG. 8E. In this case, the controller 30 may immediately instruct the digital signal processing unit 20 to perform the recording process when the HFR recording instruction flag Fr is set to 1 in step S311 of FIG.

ところで第2ステート検出処理としての図14の例は、振動による判定のみの例で示したが、上述したように多様な検出態様で第2ステート検出を行うことができる。そこで複数の条件で第2ステート検出を行うことも考えられる。図15に複数の要素で検出を行う第2ステート検出処理の例を示す。 By the way, the example of FIG. 14 as the second state detection processing is shown as an example of determination only by vibration, but the second state detection can be performed in various detection modes as described above. Therefore, it is conceivable to detect the second state under a plurality of conditions. FIG. 15 shows an example of the second state detection processing that performs detection using a plurality of elements.

コントローラ30は例えばセンサ部14のジャイロセンサの出力の取得(S320-1)、カメラ制御用検波処理部24からのオートアイリス検波値の取得(S320-2)、カメラ制御用検波処理部24からのオートホワイトバランス検波値の取得(S320-3)等を並行して行う。
そして各検波値に対して処理Xを行う。処理Xとは図14に示したステップS302~S309の処理(もしくはそれと同等の処理)である。
例えばジャイロセンサの検出信号について検波値について処理X(ステップS302~S309)としての処理を行い、カウント値CJ1を得る(S321-1)。
またオートアイリス検波値や、オートホワイトバランス検波値についても処理Xと同等の処理を行い、カウント値CJ2,CJ3を得る(S321-2,S321-3)。
For example, the controller 30 acquires the output of the gyro sensor of the sensor unit 14 (S320-1), acquires the auto iris detection value from the camera control detection processing unit 24 (S320-2), and acquires the auto iris detection value from the camera control detection processing unit 24. Acquisition of the white balance detection value (S320-3) and the like are performed in parallel.
Then, processing X is performed on each detected value. Processing X is the processing of steps S302 to S309 shown in FIG. 14 (or processing equivalent thereto).
For example, the detection value of the detection signal of the gyro sensor is processed as processing X (steps S302 to S309) to obtain a count value CJ1 (S321-1).
Also, the auto iris detection value and the auto white balance detection value are processed in the same manner as the processing X to obtain count values CJ2 and CJ3 (S321-2, S321-3).

そしてステップS322でコントローラ30は、それぞれのカウント値CJ1,CJ2,CJ3を、それぞれ対応する閾値rTH1,rTH2,rTH3と比較する。閾値rTH1,rTH2,rTH3は、それぞれ各検出要素について、第2ステートST2としての特徴に応じて設定された値である。
コントローラ30は、例えばステップS322において、Cj1>rTH1、Cj2>rTH2、Cj3>rTH3の条件が全て揃えば、第2ステートと判断する(AND条件)。
或いは、いずれかが満たされれば第2ステートST2に至ったと判断してもよい(OR条件)。
さらには、全部でなくとも、一部(例えば3つのうち2つ)が満たされれば、第2ステートST2と判断することも考えられる。
Then, in step S322, the controller 30 compares each count value CJ1, CJ2, CJ3 with the corresponding threshold value rTH1, rTH2, rTH3. The thresholds rTH1, rTH2, and rTH3 are values set for each detection element according to the characteristics of the second state ST2.
For example, in step S322, the controller 30 determines that the state is the second state if all of the conditions Cj1>rTH1, Cj2>rTH2, and Cj3>rTH3 are met (AND condition).
Alternatively, it may be determined that the state has reached the second state ST2 if either one of them is satisfied (OR condition).
Furthermore, it is conceivable to determine the second state ST2 if not all but some (for example, two out of three) are satisfied.

コントローラ30は、ステップS322の条件が満たされないときはステップS324でHFR記録指示フラグFr=0を維持するとともに、第2ステート検出フラグF2=0を維持する。
一方、ステップS322の条件が満たされたら、コントローラ30はステップS323において、HFR記録指示フラグFr=1とし、また第2ステート検出フラグF2=1とする。
このように複数の検出要素を用いて第2ステートST2の検出を行うようにすることで、多様な状況に対応して第2ステート検出を行うことができる。
When the condition of step S322 is not satisfied, the controller 30 maintains the HFR recording instruction flag Fr=0 and the second state detection flag F2=0 in step S324.
On the other hand, if the condition of step S322 is satisfied, the controller 30 sets the HFR recording instruction flag Fr=1 and the second state detection flag F2=1 in step S323.
By detecting the second state ST2 using a plurality of detection elements in this manner, the second state detection can be performed in response to various situations.

図15では3つの要素(振動、露光状態、色状態)を例示したが、もちろん上述した他の要素、例えば音、位置、動きベクトルなども加えてもよい。より多数の検出要素を用いることで、第2ステート検出の精度や多様性を調整できる。
例えばアンド条件により、第2ステート検出精度を向上できる。
またオア条件、複数条件の一部充足条件により、第2ステートST2としての多様な状態、状況に対応できる。
さらに、アクティビティの種別、或いは第2ステートST2としたい状態の選択に応じて、第2ステート検出条件を切り換えるようにしてもよい。例えばバイクやスノーボード等のジャンプシーン、フィギュアスケートの回転シーン、剣道の打ち込みのシーン、野球、テニス等の球技の打撃シーン、サッカーのキーパー視線のシュートボール接近シーンなど、アクティビティ種別やシーン種別によって、第2ステートST2としたい状況が異なる。そこで、第2ステートST2としたいシーンに合わせて、第2ステート検出条件を切り換えることができるようにするとよい。
Although three elements (vibration, exposure state, color state) are illustrated in FIG. 15, of course, the other elements described above, such as sound, position, motion vector, etc., may also be added. By using a larger number of detection elements, the precision and variety of second state detection can be adjusted.
For example, the AND condition can improve the second state detection accuracy.
Moreover, various states and situations as the second state ST2 can be handled by the OR condition and the partial satisfaction condition of a plurality of conditions.
Furthermore, the second state detection condition may be switched according to the type of activity or the selection of the state desired to be the second state ST2. For example, jump scenes such as motorcycles and snowboards, spinning scenes in figure skating, scenes of hitting kendo, hitting scenes in ball games such as baseball and tennis, and shooting ball approach scenes from the goalkeeper's line of sight in soccer. The situation in which the 2-state ST2 is desired is different. Therefore, it is preferable to switch the second state detection condition according to the scene desired to be the second state ST2.

また第1ステートST1の検出についても、ユーザ操作に応じたトリガだけでなく、アクティビティに特有の要素(振動パタンや音声等)トリガを用いてもよいし、複数の要素により判定してもよい。 In detecting the first state ST1, not only a trigger corresponding to a user's operation, but also an activity-specific element (vibration pattern, sound, etc.) trigger may be used, or a plurality of elements may be used for determination.

以上、第2の実施の形態によれば、アクションカメラとしての撮像装置10や遠隔制御装置50の使用において、通常より備わっているデバイス群の利用のみで、追加的なハードウエアコスト無しに、ユーザ自身がHFR記録トリガ用ボタンを押下しなくても、あらかじめ定められた条件を検知した場合に自動的にHFR記録開始・停止を行う撮像装置10を提供できる。これにより、アクションカメラならではの記録操作性(特にHFR撮像)にまつわるユーザの不満を解消し、かつユーザにとって望ましい動画撮像が可能となる。
As described above, according to the second embodiment, when using the imaging device 10 or the remote control device 50 as an action camera, the user can perform the following actions without additional hardware cost by using only the device group normally provided. It is possible to provide an imaging device 10 that automatically starts and stops HFR recording when a predetermined condition is detected without pressing the HFR recording trigger button. This eliminates the user's dissatisfaction with the recording operability (especially HFR imaging) unique to action cameras, and allows the user to capture desirable moving images.

<4.第3の実施の形態>
第3の実施の形態の動作を説明する。図16は第3の実施の形態で撮像装置10が行う動作を模式的に示している。これは第2ステートST2としての期間にHFR撮像記録を行うまでは第2の実施の形態の図8と同様であるが、第3ステートST3に至ったことを検出することに応じて、HFR記録を終了させる(記録範囲RLの終点を決める)例である。
<4. Third Embodiment>
The operation of the third embodiment will be explained. FIG. 16 schematically shows operations performed by the imaging device 10 in the third embodiment. This is the same as in FIG. 8 of the second embodiment until the HFR image recording is performed during the period of the second state ST2. is terminated (the end point of the recording range RL is determined).

時点t1でコントローラ30が第1ステートST1としてのトリガを検出したとする。この場合に、撮像装置10では、撮像画像データDTとしてHFRでのフレーム取り込み及びバファリングを開始する(図16A)。そして第1ステートST1の検出後は、コントローラ30は第2ステートST2としてのトリガを監視する。
時点t2においてコントローラ30は第2ステートST2としてのトリガを検知したとする。コントローラ30は、これに応じて、HFR撮像の記録範囲RLの先頭フレームを設定する。この例ではまだ記録範囲RLとしての最終フレームは設定されない。
例えばコントローラ30は、図16Bのように、第2ステートST2を検知した時点t2において得られたフレームを、HFR記録する記録範囲RL4の先頭フレームとする。
或いは、コントローラ30は、図16Cのように、第2ステートST2を検知した時点t2において得られたフレームより所定時間前に得られたフレームを、HFR記録する記録範囲RL5の先頭フレームとする。
Assume that the controller 30 detects a trigger for the first state ST1 at time t1. In this case, the imaging apparatus 10 starts capturing and buffering frames in HFR as captured image data DT (FIG. 16A). After detecting the first state ST1, the controller 30 monitors the trigger as the second state ST2.
Assume that the controller 30 detects a trigger for the second state ST2 at time t2. The controller 30 accordingly sets the first frame of the recording range RL for HFR imaging. In this example, the final frame as the recording range RL has not yet been set.
For example, as shown in FIG. 16B, the controller 30 sets the frame obtained at time t2 when the second state ST2 is detected as the first frame of the recording range RL4 for HFR recording.
Alternatively, as shown in FIG. 16C, the controller 30 sets the frame obtained a predetermined time before the frame obtained at time t2 when the second state ST2 is detected as the first frame of the recording range RL5 for HFR recording.

時点t2以降、コントローラ30は第3ステートST3に至ったか否かの検出を行う。
時点t3においてコントローラ30は第3ステートST3としてのトリガを検知したとすると、コントローラ30は、これに応じて、HFR撮像の記録範囲RLの最終フレームを設定する。
例えば時点t3のタイミングで撮像されたフレームを記録範囲RL(RL4又はRL5)の最終フレームとする。
After time t2, the controller 30 detects whether or not the state has reached the third state ST3.
Assuming that the controller 30 detects a trigger for the third state ST3 at time t3, the controller 30 accordingly sets the final frame of the recording range RL for HFR imaging.
For example, the frame imaged at the timing of time t3 is set as the last frame of the recording range RL (RL4 or RL5).

コントローラ30は、第2ステートST2を検出した時点t2以降に、デジタル信号処理部20に対して当該記録範囲RLの撮像画像データについて記録部15での記録のための処理を指示する。
例えばコントローラ30は、図16Dのように時点t2から記録処理を開始させる。
或いはコントローラ30は、図16Eのように第3ステートST3の検出により最終フレームが決まった時点t3以後に、記録処理を開始させてもよい。
After the time t2 when the second state ST2 is detected, the controller 30 instructs the digital signal processing section 20 to perform processing for recording the captured image data of the recording range RL in the recording section 15 .
For example, the controller 30 starts the recording process from time t2 as shown in FIG. 16D.
Alternatively, the controller 30 may start the recording process after time t3 when the final frame is determined by the detection of the third state ST3 as shown in FIG. 16E.

図16の例では、バファリングはユーザによってHFR撮像の終了の操作が行われる時点t6まで継続するようにしている。
例えば第3ステートST3を検知した後、再び第1ステートST1,第2ステートST2と進行することもあり得るため、第3ステートST3を検出し、記録範囲RLとしての最終フレームまでバファリングを完了した後も、バファリングは継続するとよい。但し、もちろんステートST3の検出時点でバファリングを終了するという処理方式も考えられる。
In the example of FIG. 16, the buffering continues until time t6 when the user performs an operation to end the HFR imaging.
For example, after detecting the third state ST3, it is possible that the state progresses to the first state ST1 and the second state ST2 again. Continue buffering afterwards. However, of course, a processing method of ending buffering at the time of detection of state ST3 is also conceivable.

なお、第1ステートST1や第2ステートST2の判定のトリガについては第1の実施の形態と同様に各種考えられる。
また第3ステートST3の検出のトリガも、同様に各種考えられるが、第3ステートST3検出のトリガとしては、バファリング容量がフルになることが加わる。
これは、バファリングを図9で説明したようにリングメモリ形態で行うため、記録範囲RLとしては、最大でリングメモリ容量限度のフレーム数とするためである。
但し、HFR記録処理の速度とHFRの値にもよるが、上書きしてもよいアドレス領域、つまりすでに記録処理を終えたフレームをバファリングしていたメモリ範囲が存在する場合は、まだバッファフルとしない(第3ステートSTのトリガとしない)ような処理も考えられる。
Various triggers for the determination of the first state ST1 and the second state ST2 can be considered as in the first embodiment.
Various triggers for the detection of the third state ST3 are similarly conceivable, but the trigger for the detection of the third state ST3 is that the buffering capacity becomes full.
This is because buffering is performed in the form of a ring memory as described with reference to FIG. 9, so that the maximum number of frames in the recording range RL is the ring memory capacity limit.
However, depending on the speed of HFR recording processing and the value of HFR, if there is an address area that can be overwritten, that is, if there is a memory range buffering frames that have already been recorded, the buffer may still be full. A process that does not (does not trigger the third state ST) is also conceivable.

図17でステート判定の具体例を説明する。
図17A、図17B、図17C、図17Dは、図11と同様に、センサ部14による検出信号に基づく検波値、検波値を微分及びコアリングした信号値SJ、信号値SJに基づくカウント制御フラグCTF、ステート判定のためのカウンタのカウント値CJを示している。
また図17Eは第1ステート判定タイミング、図17Fは第2ステート判定タイミング、図17Gは第3ステート判定タイミングを示している。図17では図11と同様にモータ
イクのオフロード走行のようなシーンを想定する。
A specific example of state determination will be described with reference to FIG.
Similar to FIG. 11, FIGS. 17A, 17B, 17C, and 17D show a detection value based on a detection signal by the sensor unit 14, a signal value SJ obtained by differentiating and coring the detection value, and a count control flag based on the signal value SJ. CTF indicates the count value CJ of the counter for state determination.
Also, FIG. 17E shows the first state determination timing, FIG. 17F shows the second state determination timing, and FIG. 17G shows the third state determination timing. In FIG. 17, as in FIG. 11, a scene such as off-road driving of a motorbike is assumed.

時点t0~t2は図11と同様である、
第1ステートST1となった時点t1以降に第2ステートST2に至ったか否かの判定処理を行い、時点t2でカウント値CJが閾値rTHに達したとする。
コントローラ30は、この時点t2において第1ステートST1から第2ステートST2に至ったと判定する。そして例えば図16Cのように記録範囲RL4を設定する。図11では、時点t2より所定時間TL2前の時点txのフレームを開始フレームとする。そしてコントローラ30はその後所定の時点でデジタル信号処理部20にHFR記録処理を開始させる。
バイクが着地した時点t3以降では、再び大きな振動が加わることで信号SJの変化が大きくなり、カウント値CJはリセットされる。
コントローラ30は、このようにカウント値CJがリセットされ、CJ<rTHとなることをトリガとして、第3ステートST3に至ったと判定する。そしてコントローラ30は、この時点t3のフレームを記録範囲RLの最終フレームと設定する。
Time points t0-t2 are the same as in FIG.
It is assumed that after the time t1 when the first state ST1 is reached, it is determined whether or not the state has reached the second state ST2, and the count value CJ reaches the threshold value rTH at the time t2.
The controller 30 determines that the state has changed from the first state ST1 to the second state ST2 at time t2. Then, for example, a recording range RL4 is set as shown in FIG. 16C. In FIG. 11, the start frame is the frame at time tx, which is a predetermined time TL2 before time t2. After that, the controller 30 causes the digital signal processing section 20 to start the HFR recording process at a predetermined time.
After the time t3 when the motorcycle lands, a large vibration is applied again and the change in the signal SJ becomes large, and the count value CJ is reset.
The controller 30 determines that the third state ST3 has been reached, triggered by the count value CJ being reset in this manner and CJ<rTH. The controller 30 then sets the frame at time t3 as the last frame of the recording range RL.

例えばこのような処理としてコントローラ30がステート判断を行い、撮像動作処理のモード制御を行うようにした処理例を図18、図19で説明する。
図18はコントローラ30の撮像制御装置1としての機能(状態検出部1a及びモード処理指示部1b)による全体処理を示している。コントローラ30は、この図18の処理をフレームタイミング毎に繰り返す。
なお、図12と同一の処理は同一のステップ番号を付して詳細な説明を避ける。
For example, as such processing, a processing example in which the controller 30 performs state determination and mode control of the imaging operation processing will be described with reference to FIGS. 18 and 19. FIG.
FIG. 18 shows the overall processing by the functions of the controller 30 as the imaging control device 1 (the state detection section 1a and the mode processing instruction section 1b). The controller 30 repeats the processing of FIG. 18 for each frame timing.
The same step numbers are assigned to the same processes as in FIG. 12, and detailed description thereof is omitted.

コントローラ30は、ステップS101で本機能(撮像制御装置1としての機能)がオンであるか否かを確認する。機能オフとされている期間は、コントローラ30は常にステップS102Aの処理のみを行って図12の1回の処理を終える。
ステップS102Aでは、HFR撮像指示フラグFbのオフ(“0”)、HFR記録指示フラグFrをオフ(“0”)、HFR記録終了フラグFeのオフ(“0”)、第1ステート検出フラグF1のオフ(“0”)、第2ステート検出フラグF2のオフ(“0”)、第3ステート検出フラグF3のオフ(“0”)を行う。
HFR記録終了フラグFeはHFR記録範囲RLの終了フレームを指定するタイミングとなったことを示すフラグである。
第3ステート検出フラグF3は、第3ステートST3の検出状態を示すフラグであり、第3ステート検出状態においてオン(“1”)とされる。
In step S101, the controller 30 confirms whether or not this function (function as the imaging control device 1) is on. During the period in which the function is turned off, the controller 30 always performs only the processing of step S102A to finish one processing of FIG.
In step S102A, the HFR imaging instruction flag Fb is turned off (“0”), the HFR recording instruction flag Fr is turned off (“0”), the HFR recording end flag Fe is turned off (“0”), and the first state detection flag F1 is turned off (“0”). It is turned off ("0"), the second state detection flag F2 is turned off ("0"), and the third state detection flag F3 is turned off ("0").
The HFR recording end flag Fe is a flag indicating that it is time to specify the end frame of the HFR recording range RL.
The third state detection flag F3 is a flag indicating the detection state of the third state ST3, and is turned on (“1”) in the third state detection state.

撮像制御装置1としての機能オンが選択されているときは、コントローラ30はステップS103に進み、第1ステートST1が検出済みであるか否か、即ち第1ステート検出フラグF1=1であるか否かを確認する。第1ステート検出フラグF1=0であれば、コントローラ30はステップS104に進み、第1ステート検出処理(例えば図13の処理)を行う。 When the function ON as the imaging control device 1 is selected, the controller 30 proceeds to step S103 to determine whether the first state ST1 has been detected, that is, whether the first state detection flag F1=1. Check whether If the first state detection flag F1=0, the controller 30 proceeds to step S104 and performs the first state detection process (for example, the process of FIG. 13).

ステップS104の第1ステート検出処理によって第1ステートST1が検出され、第1ステート検出フラグF1=1となった後の図18の処理では、コントローラ30はステップS103からS105に進む。ここでコントローラ30はHFR撮像指示フラグFb=1とし、第1モードの指示、即ちイメージャ12でHFR撮像の開始及びデジタル信号処理部20でのバファリング開始の指示を行う。 In the process of FIG. 18 after the first state ST1 is detected by the first state detection process of step S104 and the first state detection flag F1=1, the controller 30 proceeds from step S103 to step S105. Here, the controller 30 sets the HFR imaging instruction flag Fb=1 and instructs the first mode, ie, instructs the imager 12 to start HFR imaging and the digital signal processing unit 20 to start buffering.

そしてこの期間、コントローラ30はステップS106で第2ステート検出処理を行う。
第2ステートST2が検出されていない期間は、コントローラ30はステップS107から1回の処理を終える。
ステップS106で第2ステートが検出された場合は、第2ステート検出フラグF2=1とされる。その場合コントローラ30は、ステップS107からS120に進み、第3ステート検出処理を行う。
During this period, the controller 30 performs the second state detection process in step S106.
During the period in which the second state ST2 is not detected, the controller 30 finishes one process from step S107.
If the second state is detected in step S106, the second state detection flag F2=1. In that case, the controller 30 proceeds from step S107 to step S120 and performs the third state detection process.

このステップS106、S107、S120の部分の詳しい処理を図19に示す。
ステップS106の第2ステート検出処理が図19のステップS301~S312として行われる。この処理は図14と同様である。従って第2ステートST2としてのトリガが検出された場合、ステップS311でHFR記録フラグFr=1、第2ステート検出フラグF2=1とされる。
第2ステートST2が検出され、第2ステート検出フラグF2=1となった以後は、ステップS107からS120の第3ステート検出処理に進む。
Detailed processing of steps S106, S107, and S120 is shown in FIG.
The second state detection process of step S106 is performed as steps S301 to S312 of FIG. This process is the same as in FIG. Therefore, when the trigger as the second state ST2 is detected, the HFR recording flag Fr=1 and the second state detection flag F2=1 are set in step S311.
After the second state ST2 is detected and the second state detection flag F2 is set to 1, the process advances from step S107 to the third state detection processing of step S120.

この場合、図19に示すように、まずコントローラ30はステップS351で、HFR記録フラグFr=1であって、かつカウント値CJ<閾値rTHとなったか否かを確認する。つまりカウント値CJが閾値rTHを越えていた状態から、リセットされて閾値rTHより小さい値になったか否かを確認する。
この条件が満たされていないときは、コントローラ30はステップS352でバファリング容量がフル状態となっているか否かを確認する。つまり記録範囲RLの先頭フレームのバファリングを行ったアドレスを上書きしなければ次のフレームがバファリングできない状態であるか否かを確認する。
バファリング容量がフルでなければ、コントローラ30はステップS354に進み、HFR記録終了フラグFe=0を維持し、また第3ステート検出フラグF3=0を維持する。
この場合コントローラ30は、第3ステート検出フラグF3=0であるためステップS121から図18の1回の処理を終える。
In this case, as shown in FIG. 19, first, in step S351, the controller 30 checks whether the HFR recording flag Fr=1 and the count value CJ<threshold value rTH. That is, it is confirmed whether or not the count value CJ, which has exceeded the threshold value rTH, has been reset to a value smaller than the threshold value rTH.
If this condition is not satisfied, the controller 30 checks in step S352 whether the buffering capacity is full. That is, it is confirmed whether or not the next frame cannot be buffered unless the buffered address of the first frame of the recording range RL is overwritten.
If the buffering capacity is not full, the controller 30 proceeds to step S354 and maintains the HFR recording end flag Fe=0 and the third state detection flag F3=0.
In this case, since the third state detection flag F3=0, the controller 30 completes one process of FIG. 18 from step S121.

ステップS351でカウント値CJ<閾値rTHとなった場合、もしくはステップS352でバファリング容量フルと判断した場合に、コントローラ30は第3ステートST3のトリガ発生と判断し、ステップS353へ進む。そしてHFR記録終了フラグFe=1、第3ステート検出フラグF3=1とする。
その場合、第3ステート検出フラグF3=1となることにより図18の処理はステップS121からS122に進むことになる。
ステップS122でコントローラ30は、記録範囲RLの最終フレームを特定し、またデジタル信号処理部20に対してHFR記録処理を指示する。つまりバファリングされた記録範囲RLのフレームについて、記録用のエンコード処理及び記録部15への転送をデジタル信号処理部20に実行させる。これにより、第2ステート検出時点から第3ステート検出時点までの期間のHFR映像が記録されることになる。
If the count value CJ<threshold value rTH in step S351, or if it is determined that the buffering capacity is full in step S352, the controller 30 determines that a trigger for the third state ST3 has occurred, and proceeds to step S353. Then, the HFR recording end flag Fe=1 and the third state detection flag F3=1.
In that case, the processing in FIG. 18 proceeds from step S121 to step S122 because the third state detection flag F3=1.
In step S122, the controller 30 identifies the final frame of the recording range RL and instructs the digital signal processing section 20 to perform HFR recording processing. In other words, the digital signal processing unit 20 is caused to execute encoding processing for recording and transfer to the recording unit 15 for the buffered frames in the recording range RL. As a result, the HFR video in the period from the time when the second state is detected to the time when the third state is detected is recorded.

当該指示の後、コントローラ30はステップS123で第1ステート検出フラグF1=0、第2ステート検出フラグF2=0、第3ステート検出フラグF3=0とする。
この場合、第1ステート検出フラグF1=0に応じてHFR撮像及びバファリングを停止させればよい。
或いは、第1ステート検出フラグF1=1を継続し、HFR撮像及びバファリングも継続する例も考えられる。その場合は、再び第2ステート検出が行われ、第2ステート検出時点のフレームから、その後の第3ステート検出時点のフレームまでのHFR記録が実行されることになる。
After the instruction, the controller 30 sets the first state detection flag F1=0, the second state detection flag F2=0, and the third state detection flag F3=0 in step S123.
In this case, HFR imaging and buffering may be stopped according to the first state detection flag F1=0.
Alternatively, an example of continuing the first state detection flag F1=1 and continuing HFR imaging and buffering is also conceivable. In that case, the second state detection is performed again, and HFR recording is performed from the frame at the second state detection point to the subsequent frame at the third state detection point.

なお、第3ステートST3の検出を行ってからステップS122で記録処理を指示するのは、例えば図16B又は図16Cの記録範囲RL4又はRL5について、図16Eのタイミングで記録処理を実行させる例に相当する。つまり図19のステップS311でHFR記録指示フラグFr=1とした時点で直ぐには記録処理を指示しない例である。
これ以外に、例えば記録範囲RL4又はRL5について、図16Dのタイミングで記録処理を開始させてもよい。つまり最終フレームの特定を待たずに記録処理を開始する。その場合コントローラ30は、図19のステップS311でHFR記録指示フラグFr=1とした時点で、すぐにデジタル信号処理部20に対して記録処理を指示するようにすればよい。
Note that instructing the recording process in step S122 after detecting the third state ST3 corresponds to an example of executing the recording process at the timing of FIG. 16E for the recording range RL4 or RL5 in FIG. 16B or 16C. do. That is, this is an example in which the recording process is not instructed immediately when the HFR recording instruction flag Fr is set to 1 in step S311 of FIG.
In addition to this, for example, the recording process may be started for the recording range RL4 or RL5 at the timing shown in FIG. 16D. That is, the recording process is started without waiting for the identification of the final frame. In this case, the controller 30 may immediately instruct the digital signal processing unit 20 to perform the recording process when the HFR recording instruction flag Fr is set to 1 in step S311 of FIG.

なお、この第3の実施の形態も、図15で説明したように複数の要素で第2ステート検出を行い、また第3ステートST3の検出も行うようにすることが考えられる。
さらに、アクティビティの種別、或いは第2ステート(HFR記録)を終了させたい状態の選択に応じて、第3ステート検出条件を切り換えるようにしてもよい。例えばバイクやスノーボード等のジャンプシーンにおける着地の状態、フィギュアスケートの回転シーンが終了したときのパタンなどを選択できるようにする。
また、HFR記録の終了タイミングを規定するという意味では、第3ステートST3の検出のトリガは、撮像装置10と遠隔制御装置50の無線通信状況を用いてもよい。即ち、ユーザがバイク等に撮像装置10を取り付け、腕時計型の遠隔制御装置50を装着している場合、WIFI等の近距離無線通信は通常継続される。ところがユーザがバイクから離れた場合は、WIFI通信が途絶えることになる。これはユーザにとってはもはや第2ステートST2としてHFR記録を行う状態ではないと判断できる。そこで、無線接続が解除されたことで、第3ステートST3に至ったと判断することも好適である。
また第1ステートST1の検出についても、多様なトリガ、或いは複数の要素から得られるトリガにより判定してもよい。
In this third embodiment, as described with reference to FIG. 15, it is conceivable that the second state detection is performed by a plurality of elements, and the detection of the third state ST3 is also performed.
Furthermore, the third state detection condition may be switched according to the type of activity or the selection of the state to end the second state (HFR recording). For example, it is possible to select a landing state in a jump scene of a motorcycle or a snowboard, a pattern when a rotation scene of figure skating is finished, and the like.
Further, in terms of defining the end timing of HFR recording, the wireless communication status between the imaging device 10 and the remote control device 50 may be used as a trigger for detecting the third state ST3. That is, when the user attaches the imaging device 10 to a motorcycle or the like and wears the wristwatch-type remote control device 50, short-range wireless communication such as WIFI is normally continued. However, when the user leaves the bike, the WIFI communication is lost. For the user, it can be judged that the HFR recording is no longer in the second state ST2. Therefore, it is also preferable to determine that the state has reached the third state ST3 because the wireless connection has been canceled.
Detection of the first state ST1 may also be determined based on various triggers or triggers obtained from a plurality of factors.

以上、第3の実施の形態によっても、アクションカメラとしての撮像装置10や遠隔制御装置50の使用において、特定のシーン等を、その特有の動作の終了タイミングまでの期間において、ユーザ自身が操作を行わなくともHFR記録ができるようになる。
第2の実施の形態は、第2ステートST2の開始から一定時間TLの期間がHFR記録されるものとしたが、その場合、アクティビティの特有のシーンが終了してからある程度HFR記録が続いてしまうこともある。第3の実施の形態では、終了タイミングがその動作状況に応じて規定されることで、動作に適した時間長の録画が可能となる。
As described above, according to the third embodiment, when using the imaging device 10 or the remote control device 50 as an action camera, the user himself/herself can operate a specific scene or the like during the period until the end timing of the specific operation. HFR recording can be performed without this.
In the second embodiment, HFR recording is performed for a certain period of time TL from the start of the second state ST2. Sometimes. In the third embodiment, by defining the end timing according to the operation status, recording can be performed for a length of time suitable for the operation.

<5.第4の実施の形態>
第4の実施の形態の動作を図20で説明する。
これは第2ステートST2でHFR記録を行うが、第1ステートST1の期間に通常記録を行うようにした例である。ここでいう通常記録とは、HFRよりも低い一般的なフレームレートでの撮像画像データDTの記録処理のことである。例えば60fpsの記録とする。
<5. Fourth Embodiment>
The operation of the fourth embodiment will be explained with reference to FIG.
This is an example in which HFR recording is performed in the second state ST2, but normal recording is performed during the period of the first state ST1. The normal recording here means recording processing of the captured image data DT at a general frame rate lower than HFR. For example, recording at 60 fps.

図20Aに示すように、第2,第3の実施の形態と同様に、コントローラ30は、第1ステートST1としてのトリガを検出した時点t1からHFR撮像を指示する。つまりイメージャ12及びデジタル信号処理部20では、撮像画像データDTとしてHFRでのフレーム取り込み及びバファリングを開始する。ただし本例の場合コントローラ30は、この時点t1でデジタル信号処理部20に通常記録の処理(記録用のエンコード及び記録部5への転送)も開始させる(図20B)。
そして第1ステートST1の検出後は、コントローラ30は第2ステートST2としてのトリガを監視する。
時点t2においてコントローラ30は第2ステートST2としてのトリガを検知したとする。コントローラ30は、これに応じて、記録動作をHFR記録処理に切り替える指示を行う。デジタル信号処理部20は、時点t2において得られたフレーム以降は、HFR記録として処理する。
As shown in FIG. 20A, similarly to the second and third embodiments, the controller 30 instructs HFR imaging from time t1 when the trigger as the first state ST1 is detected. In other words, the imager 12 and the digital signal processing unit 20 start capturing and buffering frames in HFR as the captured image data DT. However, in this example, the controller 30 also causes the digital signal processing section 20 to start normal recording processing (encoding for recording and transfer to the recording section 5) at time t1 (FIG. 20B).
After detecting the first state ST1, the controller 30 monitors the trigger as the second state ST2.
Assume that the controller 30 detects a trigger for the second state ST2 at time t2. In response to this, the controller 30 issues an instruction to switch the recording operation to the HFR recording process. The digital signal processing unit 20 processes the frames after the frame obtained at time t2 as HFR recording.

HFR記録するフレームは時点t7までのフレームとする。
この時点t7とは、第2の実施の形態のように、一定時間TLのフレームをHFR記録するものとして設定してもよいし、第3の実施の形態のように、第3ステート検出時点としてもよい。
時点t7においてコントローラ30は、再び通常記録が行われるようにデジタル信号処理部20を制御する。そして、その後の時点t8においてHFR撮像を終了させる。通常記録の処理は、その時点t8までのフレームについての記録処理を終えた時点で終了することになる。
Frames to be HFR-recorded are frames up to time t7.
This time point t7 may be set to HFR-record a frame for a certain period of time TL as in the second embodiment, or may be set as the third state detection time point as in the third embodiment. good too.
At time t7, the controller 30 controls the digital signal processing section 20 so that normal recording is performed again. Then, at time t8 after that, the HFR imaging is terminated. The normal recording process ends when the recording process for the frames up to time t8 is completed.

この場合、記録範囲RL6として通常記録されるフレームは、時点t1~t2にHFR撮像されたフレームのうちで、60fpsとなるように抽出されたフレームとなる。
また記録範囲RL7でHFR記録されるフレームは、時点t2~t7にHFR撮像で得られた各フレームとなる。
また記録範囲RL8として通常記録されるフレームは、時点t7~t8にHFR撮像されたフレームのうちで、60fpsとなるように抽出されたフレームとなる。
In this case, the frames normally recorded as the recording range RL6 are the frames extracted at 60 fps among the frames HFR-captured from time t1 to t2.
Also, the frames HFR-recorded in the recording range RL7 are the frames obtained by HFR imaging from time t2 to t7.
Also, the frames normally recorded as the recording range RL8 are the frames extracted at 60 fps among the frames captured by HFR during the time t7 to t8.

図21にバファリング及び記録処理の様子を模式的に示している。
図21Aはイメージャ12で撮像されるフレームを、また図21Bは内蔵メモリ25にバファリングされるフレームを示している。図21Cは記録処理(必要なカメラ信号処理やエンコード等)を示している。記録処理は、一定のフレームレート、例えば60fpsでエンコードが行われる。
なお図21に示す時点t1,t2,t7,t8は図20に対応している。
FIG. 21 schematically shows the state of buffering and recording processing.
21A shows frames captured by the imager 12, and FIG. 21B shows frames buffered in the built-in memory 25. FIG. FIG. 21C shows recording processing (required camera signal processing, encoding, etc.). In recording processing, encoding is performed at a constant frame rate, eg, 60 fps.
Note that times t1, t2, t7, and t8 shown in FIG. 21 correspond to FIG.

図20で述べたように第1ステートST1が検出された時点t1からはHFR撮像が開始されるが、これにより図21に示すように、例えば960bps等のHFRで得られるフレームがすべてバファリングされていく。
時点t1~t2では通常記録が行われるが、この期間にバファリングされたフレームに対しては、例えば60fpsに相当するフレーム間隔でフレームが抽出され、記録処理に供される。従って、60fpsの動画データが記録されていくことになる。
時点t2~t7において撮像されたフレームについては、バファリングされた全フレームが記録処理に供される。但し、960fpsの各フレームも、記録処理上は60fpsにおける1フレームとされる。従って、この間の記録映像は、通常再生時にスローモーション映像となる。
時点t7~t8において撮像されバファリングされたフレームについては、通常記録の対象となるため、期間にバファリングされたフレームに対しては、例えば60fpsに相当するフレーム間隔でフレームが抽出され、記録処理に供される。
As described with reference to FIG. 20, HFR imaging is started from time t1 when the first state ST1 is detected. As a result, all frames obtained with HFR such as 960 bps are buffered as shown in FIG. To go.
Normal recording is performed from time t1 to t2, and the frames buffered during this period are extracted at frame intervals corresponding to, for example, 60 fps and subjected to recording processing. Therefore, moving image data of 60 fps will be recorded.
All buffered frames are subjected to the recording process for the frames captured at times t2 to t7. However, each frame at 960 fps is also treated as one frame at 60 fps in terms of recording processing. Therefore, the video recorded during this period becomes a slow-motion video during normal playback.
Frames imaged and buffered between times t7 and t8 are normally recorded, and therefore, frames buffered during this period are extracted at frame intervals corresponding to, for example, 60 fps, and recorded. served to

このような処理で動画データが記録される。従って、時点t1~t8の動画映像データが記録されるとともに、当該動画映像データは通常の再生時に、時点t1からのシーンが通常速度で再生され、第2ステートとされた時点t2~t7の間のシーンがスローモーション映像とされ、さらにその後の時点t8までは通常速度で再生される映像コンテンツとなる。
つまりこの第4の実施の形態によれば、ユーザが困難な操作を行うこと無しに、或るアクティビティにおいて最も注目したい第2ステートのシーンをスローモーション映像として記録でき、その前後は通常映像として記録された映像コンテンツを得ることができる。
Moving image data is recorded by such processing. Therefore, moving image data from time points t1 to t8 are recorded, and the moving image data are reproduced at normal speed from time point t1 during normal reproduction, and are set to the second state during time points t2 to t7. , is a slow-motion video, and video content is played back at normal speed until time t8.
In other words, according to the fourth embodiment, the scene in the second state that the user wants to pay the most attention to in a certain activity can be recorded as slow-motion video, and the scenes before and after that can be recorded as normal video without the user having to perform any difficult operations. You can get the video content that has been processed.

<6.第5の実施の形態>
第5の実施の形態の動作を図22で説明する。第5の実施の形態は、第1ステートST1とされた期間の撮像画像データについては記録を行い、第2ステート検出に応じて記録を終了する。さらに第3ステート検出で撮像装置を電源オフとする処理例である。
<6. Fifth Embodiment>
The operation of the fifth embodiment will be explained with reference to FIG. In the fifth embodiment, the captured image data during the period set to the first state ST1 is recorded, and the recording is terminated when the second state is detected. Furthermore, it is an example of processing for turning off the imaging device when the third state is detected.

図22では、コントローラ30がセンサ部14からの検波値に基づいてステート判断を行う例を挙げて、各ステートに応じた動作例を示している。
図22A、図22B、図22C、図22Dは、図11と同様に、センサ部14による検出信号に基づく検波値、検波値を微分及びコアリングした信号値SJ、信号値SJに基づくカウント制御フラグCTF、ステート判定のためのカウンタのカウント値CJを示している。
また図22Eは第2ステート判定タイミング及び撮像記録期間を示し、図22Fは第3ステート判定タイミング及び電源オン期間を示している。
この場合、第1ステートST1はユーザ操作に基づく例とする。時点t11でユーザが撮像記録開始の操作を行ったとすると、コントローラ30はそのタイミングがユーザの欲する撮像環境となったタイミングと判断し、第1ステートに至ったと判断する。なお、もちろん第1ステート判断を、センサ部14からの検波値等に応じて行ってもよい。
FIG. 22 shows an example of the state determination by the controller 30 based on the detection value from the sensor section 14, and shows an example of operation corresponding to each state.
22A, 22B, 22C, and 22D show, similarly to FIG. 11, a detection value based on a detection signal by the sensor unit 14, a signal value SJ obtained by differentiating and coring the detection value, and a count control flag based on the signal value SJ. CTF indicates the count value CJ of the counter for state determination.
Also, FIG. 22E shows the second state determination timing and image recording period, and FIG. 22F shows the third state determination timing and power-on period.
In this case, the first state ST1 is an example based on a user's operation. Assuming that the user performs an operation to start shooting and recording at time t11, the controller 30 determines that the timing is the timing at which the shooting environment desired by the user is achieved, and determines that the first state has been reached. Of course, the first state determination may be made according to the detection value from the sensor section 14 or the like.

時点t11でユーザの撮像記録操作が行われ、コントローラ30が第1ステートST1に至ったと判断した場合、コントローラ30は撮像及び記録処理を開始制御する。つまりイメージャ12で撮像やデジタル信号処理部20における記録処理、記録部15での記録処理等を実行させる。なお、この実施の形態ではフレームレートは任意である。例えば60fpsなどデフォルト設定されたフレームレートや、或いはユーザが指定した24fps、30fps、96fps、240fps等のフレームレートで継続して撮像及び記録処理が行われれば良い。 When the user performs an image capturing and recording operation at time t11 and the controller 30 determines that the state has reached the first state ST1, the controller 30 controls the start of image capturing and recording processing. That is, the imager 12 is caused to perform imaging, recording processing in the digital signal processing unit 20, recording processing in the recording unit 15, and the like. Note that the frame rate is arbitrary in this embodiment. For example, imaging and recording processing may be performed continuously at a default frame rate such as 60 fps, or a frame rate specified by the user such as 24 fps, 30 fps, 96 fps, or 240 fps.

コントローラ30は、第1ステートST1となって撮像記録を開始させた時点t11以降に第2ステートST2に至ったか否かの判定処理を行う。信号値SJ、カウント制御フラグCTF、カウント値CJが、検波値の状態に応じて図示のように変動する。
この場合、振動がほとんどなくなった状態がある程度の時間継続することで第2ステートST2を検出するものとしている。
コントローラ30はカウント値CJと比較する閾値rsTHを設定しており、カウント値CJが閾値rsTHを越えた時点t14で第2ステートST2に至ったことを判定する。
コントローラ30は第2ステートST2を検出したタイミング(時点t14)で、撮像記録動作の停止制御を行う。
The controller 30 performs determination processing as to whether or not the second state ST2 has been reached after time t11 when the first state ST1 is reached and image recording is started. The signal value SJ, the count control flag CTF, and the count value CJ fluctuate as shown in the figure according to the state of the detection value.
In this case, the second state ST2 is detected when the state in which the vibration is almost eliminated continues for a certain amount of time.
The controller 30 sets a threshold rsTH to be compared with the count value CJ, and determines that the second state ST2 has been reached at time t14 when the count value CJ exceeds the threshold rsTH.
The controller 30 performs stop control of the imaging recording operation at the timing (time t14) when the second state ST2 is detected.

さらにその後コントローラ30は、カウント値CJが閾値pfTHを越えるか否かを監視する。閾値pfTH>閾値rsTHとしている。つまり閾値pfTHは、振動がほとんどなくなった状態が、さらにある程度の時間継続することを検出する値である。コントローラ30はカウント値CJが閾値pfTHを越えた時点t15で第3ステートST3に至ったことを判定する。
コントローラ30は第3ステートST3を検出したタイミング(時点t15)で、電源部18を制御し、撮像装置10の電源オフを実行させる。
Furthermore, after that, the controller 30 monitors whether or not the count value CJ exceeds the threshold pfTH. Threshold pfTH>threshold rsTH. In other words, the threshold pfTH is a value for detecting that the state in which the vibration has almost disappeared continues for a certain amount of time. The controller 30 determines that the third state ST3 has been reached at time t15 when the count value CJ exceeds the threshold pfTH.
The controller 30 controls the power supply unit 18 at the timing (time t15) when the third state ST3 is detected, and causes the imaging device 10 to be powered off.

以上の第2,第3ステートの判断及びそれに応じた制御により、次のような動作が実現される。
例えばユーザが或るアクティビティの開始の際に録画スタートとしての操作を行ったとする。ユーザは、アクティビティの途中の時点t12や、或いはアクティビティの終了時点t13などで録画を停止させるつもりであったところ、その停止操作を失念してしまった状況を考える。例えば時点t13以降は、ユーザが録画停止操作を忘れたまま或る場所に撮像装置10を放置したような状況である。
このような状況では、記録される映像コンテンツの無用な長時間化、記録部15の無駄な容量消費、さらには無駄なバッテリ消費が生じている。
そこでコントローラ30は、放置されたような状態を第2ステートST2とし、時点t14で第2ステートST2を検出したら、撮像記録停止制御を行う。また撮像記録停止状態で、まだ放置状態が継続することを第3ステートST3とし、コントローラ30は時点t15で第3ステートST3を検出したら電源オフ制御を行うものである。
The following operations are realized by the determination of the second and third states and the control corresponding thereto.
For example, assume that the user performs an operation to start recording at the start of a certain activity. Consider a situation where the user intended to stop recording at time t12 in the middle of the activity or at time t13 at the end of the activity, but forgets to stop the recording. For example, after time t13, the situation is such that the user forgets to stop recording and leaves the imaging device 10 in a certain place.
In such a situation, the video content to be recorded is unnecessarily long, the capacity of the recording unit 15 is unnecessarily consumed, and the battery is unnecessarily consumed.
Therefore, the controller 30 sets the state as if left unattended to the second state ST2, and when the second state ST2 is detected at the time t14, the controller 30 performs imaging recording stop control. A third state ST3 is a state in which the imaging recording is stopped and the state of being left still continues. When the controller 30 detects the third state ST3 at time t15, the controller 30 performs power off control.

例えばこのような処理としてコントローラ30がステート判断を行い、撮像動作処理のモード制御を行うようにした処理例を図23で説明する。
図23はコントローラ30の撮像制御装置1としての機能(状態検出部1a及びモード処理指示部1b)による全体処理を示している。
For example, as such processing, a processing example in which the controller 30 performs state determination and mode control of the imaging operation processing will be described with reference to FIG.
FIG. 23 shows the overall processing by the functions of the controller 30 as the imaging control device 1 (the state detection section 1a and the mode processing instruction section 1b).

コントローラ30は、ステップS401でユーザによる操作部35を用いた録画操作(撮像記録処理の開始を指示する操作)を監視する。録画操作がされていない期間(図22の時点t11以前)では、コントローラ30はステップS403でフラグFuncONを“0”とする。フラグFuncONはユーザの手動操作に応じた撮像記録動の実行状態を示すフラグである。但し後述のようにフラグFuncONはコントローラ30による自動的な撮像記録の停止の際にはオフにしない。 In step S401, the controller 30 monitors a recording operation (an operation for instructing the start of image recording processing) using the operation unit 35 by the user. During a period in which no recording operation is performed (before time t11 in FIG. 22), the controller 30 sets the flag FuncON to "0" in step S403. The flag FuncON is a flag indicating the execution state of the imaging recording operation according to the user's manual operation. However, as will be described later, the flag FuncON is not turned off when the controller 30 automatically stops image recording.

撮像記録開始前においては、続いてステップS421でコントローラ30は、ユーザによる操作部35を用いた電源オフ操作を監視する。電源オフ操作が検知されなければ、ステップS422でフラグFuncON=0を確認し、ステップS401に戻る。
なお、電源オフ操作を検知した場合、コントローラ30はステップS420に進み、電源部18に電源オフを指示する。
Before the start of image recording, the controller 30 then monitors the user's power-off operation using the operation unit 35 in step S421. If the power-off operation is not detected, the flag FuncON=0 is confirmed in step S422, and the process returns to step S401.
Note that when the power-off operation is detected, the controller 30 proceeds to step S420 and instructs the power supply unit 18 to turn off the power.

ステップS401でユーザによる録画操作が検知された場合は、コントローラ30はステップS402で、撮像記録の開始制御を行うとともに、フラグFuncONを“1”とする。
そして撮像記録が開始された以降は、コントローラ30は、ステップS404以降の処理をフレームタイミング毎に繰り返す。
ステップS404でコントローラ30はユーザによる操作部35を用いた録画停止操作(撮像記録処理の終了を指示する操作)を監視する。録画停止操作が検知されなければステップS406でフラグFuncON=1を維持する。
When the recording operation by the user is detected in step S401, the controller 30 controls the start of imaging recording and sets the flag FuncON to "1" in step S402.
After the imaging recording is started, the controller 30 repeats the processing after step S404 for each frame timing.
In step S<b>404 , the controller 30 monitors a user's recording stop operation (operation for instructing the end of the imaging recording process) using the operation unit 35 . If the recording stop operation is not detected, the flag FuncON=1 is maintained in step S406.

ステップS407では、コントローラ30は撮像制御装置1(状態検出部1a及びモード処理指示部1b)としての機能がオンであるか否かを確認する。機能オフとされている期間は、コントローラ30は特にステート検出に応じたモード制御を行わない。
本例では、コントローラ30は撮像記録中にステート検出に応じたモード制御を行うため、ステップS407では、撮像制御装置1としての機能オンであり、かつフラグFuncON=1である場合に、ステップS408に進む。機能オフ、又は撮像記録の停止中は、ステップS407からS421に進むことになる。
In step S407, the controller 30 confirms whether or not the functions as the imaging control device 1 (the state detection unit 1a and the mode processing instruction unit 1b) are on. During the period in which the function is turned off, the controller 30 does not particularly perform mode control according to state detection.
In this example, since the controller 30 performs mode control according to the state detection during image recording, in step S407, if the function as the imaging control device 1 is ON and the flag FuncON=1, the process proceeds to step S408. move on. If the function is turned off or the imaging recording is stopped, the process proceeds from step S407 to S421.

ステップS404で録画停止操作を検知した場合は、コントローラ30はステップS405で撮像記録の停止制御を行うとともに、フラグFuncON=0とする。これは、ユーザが通常に操作を行った場合の処理となる。
その場合は、ステップS407からS421に進み、ユーザによる操作部35を用いた電源オフ操作を監視する。電源オフ操作が検知されなければ、ステップS422でフラグFuncON=0であるためステップS401に戻ることになる。
When the recording stop operation is detected in step S404, the controller 30 controls the stop of the imaging recording in step S405 and sets the flag FuncON=0. This is the processing when the user normally operates.
In that case, the process proceeds from step S407 to step S421 to monitor the user's power-off operation using the operation unit 35 . If the power-off operation is not detected, since the flag FuncON=0 in step S422, the process returns to step S401.

撮像制御装置1としての機能がオンとされており、かつ撮像記録動作中には、フレームタイミング毎の処理においてステップS407からS408以降の第2ステート検出のための処理に進むことになる。
ステップS408でコントローラ30はセンサ部14からの検出信号の検波値を取得する。そしてステップS409で直流成分カットやノイズ平滑化のために検波値に対してフィルタ処理、例えばバンドパスフィルタによる帯域抽出処理を行う。さらにステップS410で微小振幅カットのためのコアリング処理を行う。以上の処理で得られるのが図22で述べた信号値SJとなる
コントローラ30はステップS411で信号値SJが閾値範囲sjTH以内であるか否かを確認する。そして信号値SJが閾値範囲sjTH内であればステップS412でカウント制御フラグCTF=1とし、信号値SJが閾値範囲sjTH内でなければステップS413でカウント制御フラグCTF=0とする。
When the function of the imaging control device 1 is turned on and during the imaging recording operation, the processing for each frame timing proceeds from step S407 to step S408 and thereafter for detecting the second state.
In step S<b>408 , the controller 30 acquires the detection value of the detection signal from the sensor section 14 . Then, in step S409, filter processing, for example, band extraction processing using a band-pass filter is performed on the detected value in order to cut DC components and smooth noise. Further, in step S410, coring processing is performed for minute amplitude cut. The signal value SJ described in FIG. 22 is obtained by the above processing. In step S411, the controller 30 confirms whether or not the signal value SJ is within the threshold range sjTH. If the signal value SJ is within the threshold range sjTH, the count control flag CTF is set to 1 in step S412, and if the signal value SJ is not within the threshold range sjTH, the count control flag CTF is set to 0 in step S413.

続いてコントローラ30はステップS414で、カウント制御フラグCTFに応じて処理を分岐する。カウント制御フラグCTF=0のときは、ステップS415に進んでカウント値CJをカウントアップする。一方、カウント制御フラグCTF=1のときは、ステップS416に進んでカウント値CJをリセットする。 Subsequently, in step S414, the controller 30 branches the processing according to the count control flag CTF. When the count control flag CTF=0, the process proceeds to step S415 to count up the count value CJ. On the other hand, when the count control flag CTF=1, the process proceeds to step S416 to reset the count value CJ.

次にコントローラ30はステップS417で、カウント値CJと閾値rsTHを比較する。CJ>rsTHでなければ、第2ステートST2はまだ検出されていないことになる。この場合、ステップS419でもCJ>pfTHとはならない。上述のようにrsTH<pfTHであるためである。そのためステップS421に進み、さらにフラグFuncON=1であるためステップS422からS404に戻って、次のフレームタイミングでの処理を継続する。 Next, in step S417, the controller 30 compares the count value CJ and the threshold value rsTH. If CJ>rsTH, the second state ST2 has not yet been detected. In this case, CJ>pfTH does not hold even in step S419. This is because rsTH<pfTH as described above. Therefore, the process proceeds to step S421, and since the flag FuncON=1, the process returns from step S422 to S404 to continue the process at the timing of the next frame.

ステップS417で、カウント値CJ>閾値rsTHとなった場合、コントローラ30は第2ステートST2を検出したとして、ステップS418に進み、撮像記録の停止制御を行う。これによりユーザの停止操作がなくとも、撮像記録が停止される。
その場合、ステップS419→S421→S422と進む。この時点では、手動操作に応じてステップS405でオフされるフラグFuncONは“1”のままであるので、ステップS422からS404に戻って、次のフレームタイミングでの処理を継続する。
そして引き続きステップS407からS408に進むことになる。
In step S417, when the count value CJ>threshold value rsTH, the controller 30 determines that the second state ST2 has been detected, proceeds to step S418, and performs image recording stop control. As a result, even if the user does not perform a stop operation, the image recording is stopped.
In that case, the process proceeds to steps S419→S421→S422. At this point, the flag FuncON, which is turned off in step S405 in response to manual operation, remains "1", so the process returns from step S422 to S404 to continue processing at the timing of the next frame.
Then, the process proceeds from step S407 to step S408.

この自動停止以降は、ステップS419でカウント値CJが閾値pfTHを越えることを監視するものとなる。
カウント値CJ>閾値pfTHとなった時点で、コントローラ30はステップS419からS420に進み、電源オフ制御を行うことになる。
またカウント値CJ>閾値pfTHに至る前に、ユーザが電源オフ操作を行った場合は、ステップS421からS420に進み、コントローラ30はユーザ操作に応じた電源オフ制御を行うことになる。
なお、フローチャートでの図示は省略したが、ステップS418で自動的に撮像記録停止制御が行われた後の電源オン状態において、ユーザが録画操作を行う場合もあり得る。その場合は、ステップS402に進むようにすればよい。
以上の図23の処理により、図22で説明した処理動作が実行される。

<7.第6の実施の形態>
第6の実施の形態を図24で説明する。
この例は、遠隔制御装置50と複数の撮像装置10A、10B、10Cを用いることを想定したものである。
After this automatic stop, step S419 monitors whether the count value CJ exceeds the threshold pfTH.
When the count value CJ>the threshold value pfTH, the controller 30 proceeds from step S419 to step S420 to perform power off control.
If the user turns off the power before the count value CJ>the threshold value pfTH, the process proceeds from step S421 to step S420, and the controller 30 performs power off control according to the user's operation.
Although not shown in the flowchart, the user may perform a recording operation in the power-on state after the imaging recording stop control is automatically performed in step S418. In that case, the process should proceed to step S402.
The processing operation described with reference to FIG. 22 is executed by the processing of FIG. 23 described above.

<7. Sixth Embodiment>
A sixth embodiment will be described with reference to FIG.
This example assumes that a remote control device 50 and a plurality of imaging devices 10A, 10B, and 10C are used.

例えば遠隔制御装置50は、図5の構成とされ、コントローラ60は撮像制御装置1として状態検出部1a,モード処理指示部1bとしての機能を有するものとする。そしてアクティビティを行うユーザは、身体等に遠隔制御装置50を装着する。
各撮像装置10A、10B、10Cは図4の構成であるが、コントローラ30は状態検出部1a、モード処理指示部1bとしての機能は有さないか、もしくは状態検出部1a、モード処理指示部1bとしての機能をオフにしているとする。
この撮像装置10A、10B、10Cは、アクティビティを行うユーザやギアに装着されても良いが、ここでは或る場所に設置されているような例を考える。
For example, the remote control device 50 has the configuration shown in FIG. 5, and the controller 60 functions as the state detection section 1a and the mode processing instruction section 1b as the imaging control device 1. FIG. A user who performs an activity wears the remote control device 50 on the body or the like.
Each of the imaging devices 10A, 10B, and 10C has the configuration shown in FIG. 4, but the controller 30 does not have the functions of the state detection section 1a and the mode processing instruction section 1b, or has the state detection section 1a and the mode processing instruction section 1b. Suppose you turn off the function as
The imaging devices 10A, 10B, and 10C may be attached to the user or gear during an activity, but here we consider an example in which they are installed at a certain location.

遠隔制御装置50は、第1ステートST1、第2ステートST2の検出に応じて、例えば第2の実施の形態のようにHFR撮像及びバファリングの指示や、HFR記録処理の指示を、各撮像装置10A、10B、10Cに対して送信する。各撮像装置10A、10B、10Cは、遠隔制御装置50からの指示を受信し、HFR撮像及びバファリングを実行し、またHFR記録処理を実行する。 In response to the detection of the first state ST1 and the second state ST2, the remote control device 50 instructs the HFR imaging and buffering and the HFR recording processing as in the second embodiment, for example, to each imaging device. 10A, 10B, and 10C. Each imaging device 10A, 10B, 10C receives instructions from the remote control device 50, performs HFR imaging and buffering, and performs HFR recording processing.

つまりこの例では、アクティビティを行うユーザを、複数の撮像装置10で多様なアングルで撮像するような場合に、各撮像装置10A、10B、10Cで、それぞれ共通のタイミングでHFR撮像を行うことができるようにした例である。これによりアクティビティ中の特別なシーンを多様なアングルで同期してHFR撮像できる。
もちろん第3,第4,第5の実施の形態の動作を各撮像装置10A、10B、10Cに実行させるようにすることもできる。
In other words, in this example, when a user performing an activity is imaged at various angles by a plurality of imaging devices 10, each of the imaging devices 10A, 10B, and 10C can perform HFR imaging at a common timing. This is an example. As a result, special scenes during activities can be synchronously captured with HFR from various angles.
Of course, the operations of the third, fourth and fifth embodiments can also be executed by the imaging devices 10A, 10B and 10C.

なお、遠隔制御装置50に代えて、ユーザが装着する撮像装置10を用い、その撮像装置10をマスターとして、他の撮像装置10に動作指示を行うようにしてもよい。
Instead of the remote control device 50 , the imaging device 10 worn by the user may be used, and the imaging device 10 may be used as a master to issue operation instructions to other imaging devices 10 .

<8.第7の実施の形態>
第7の実施の形態として、第1ステートST1,第2ステートST2の検出条件(トリガ種別)の設定の例について各種説明する。
先に、所定パタンの振動、音、ジェスチャ、画像解析や撮像制御動作等の検出値等についてトリガとなる状態を監視する例を述べた。これらの1又は複数をステート検出条件として固定しても良いが、アクティビティに応じて設定されるようにすることも考えられる。
<8. Seventh Embodiment>
Various examples of setting the detection conditions (trigger types) of the first state ST1 and the second state ST2 will be described as the seventh embodiment.
An example of monitoring a trigger state for a predetermined pattern of vibration, sound, gesture, detection value of image analysis, imaging control operation, or the like has been described above. One or more of these may be fixed as the state detection conditions, but it is also conceivable to set them according to the activity.

図25Aにコントローラ30の検出条件設定処理例を示す。なお、これまでの実施の形態の説明と同じく、以下でいうコントローラ30の処理は遠隔制御装置50のコントローラ60と読み替えてもよい。その場合、表示部34は表示部53、操作部35は操作部54と読み替えれば良い。 FIG. 25A shows an example of detection condition setting processing of the controller 30 . It should be noted that the processing of the controller 30 described below may be read as the controller 60 of the remote control device 50, as in the description of the embodiments so far. In this case, the display section 34 can be read as the display section 53 and the operation section 35 can be read as the operation section 54 .

ステップS501でコントローラ30は行動種別選択の操作入力を監視する。
例えば行動種別選択操作として、ユーザがアクティビティ種別を入力できるようにしておく。例えばコントローラ30は、表示部34に選択メニューを表示させ、バイク競技、スノーボード、スキージャンプ、フィギュアスケート、ダイビング、サーフィン、テニス、野球、サッカーなどをユーザが選択できるようにする。
ユーザが操作部35の操作により、或る行動種別を選択入力した場合、コントローラ30はステップS502に進み、選択された行動種別に応じて、第1,第2ステートの検出条件を設定する。
In step S501, the controller 30 monitors operation input for action type selection.
For example, as an action type selection operation, the user can input the activity type. For example, the controller 30 causes the display unit 34 to display a selection menu so that the user can select from biking, snowboarding, ski jumping, figure skating, diving, surfing, tennis, baseball, soccer, and the like.
When the user selects and inputs a certain action type by operating the operation unit 35, the controller 30 proceeds to step S502 and sets detection conditions for the first and second states according to the selected action type.

例えば第1ステート検出条件[D1]、第2ステート検出条件[D2]を、それぞれ次のように設定する。
・バイク競技
[D1]ユーザのタッピング操作による振動パタン検知
[D2]ジャンプ時の振動パタン検知
・ダイビング
[D1]加速度センサのジャンプ時のパタン検知
[D2]オートホワイトバランスの検波値の変動検知
・テニス
[D1]所定パタンのジェスチャ検知
[D2]打球時の衝撃による振動パタン検知
For example, the first state detection condition [D1] and the second state detection condition [D2] are set as follows.
・Bicycle competition [D1] Vibration pattern detection by user's tapping operation [D2] Vibration pattern detection when jumping ・Diving [D1] Accelerometer pattern detection when jumping [D2] Auto white balance detection value fluctuation detection ・Tennis [D1] Predetermined pattern gesture detection [D2] Vibration pattern detection due to impact when hitting a ball

以上は一例であるが、行動種別だけでなく、撮像装置10又は遠隔制御装置50の装着位置も選択できるようにし、その組み合わせに応じてステート検出条件を設定することも考えられる。例えば腕、手首、脚部、腰、腹部、頭部、ギア、ギア種別などを選択可能とする。これに応じてステート検出条件を設定することで、装着位置に適したステート検出が可能となる。 Although the above is an example, it is conceivable to allow selection of not only the action type but also the mounting position of the imaging device 10 or the remote control device 50, and to set the state detection condition according to the combination. For example, arm, wrist, leg, waist, abdomen, head, gear, gear type, etc. can be selected. By setting the state detection conditions accordingly, state detection suitable for the mounting position becomes possible.

図25Bは行動種別判定を自動で行う例である。
コントローラ30はステップS510で行動種別判定を行う。これはセンサ部7の検出信号、被写体画像の解析結果、音声検出部17による入力音声の解析などにより、アクティビティの種別を判定する処理である。各アクティビティに特有の振動、音、画像パタン等を記憶し、マッチングを採ることで、現在実行中のアクティビティの種別を自動判定することができる。
FIG. 25B is an example of automatically performing action type determination.
The controller 30 performs action type determination in step S510. This is a process of determining the type of activity based on the detection signal from the sensor unit 7, the analysis result of the subject image, the analysis of the input voice by the voice detection unit 17, and the like. By storing vibrations, sounds, image patterns, etc. specific to each activity and performing matching, the type of activity currently being executed can be automatically determined.

コントローラ30は判定できた場合、ステップS511からS512に進み、判定した行動種別に応じて、第1,第2ステートの検出条件を設定する。即ち上記の[D1][D2]のような設定である。
なお、何らかのユーザ操作が行われた場合、或いは行動種別が不明のまま一定時間を経過した場合などにタイムオーバーとして、判定中止とする。判定中止の場合は、コントローラ30はステップS513からS514に進み、デフォルトの第1,第2ステートの検出条件を設定する。
When the controller 30 can determine, the process proceeds from step S511 to step S512, and the detection conditions for the first and second states are set according to the determined action type. That is, the setting is like the above [D1] and [D2].
Note that if some user operation is performed, or if a certain period of time elapses while the action type is unknown, it is determined that the time is over and the determination is stopped. In the case of canceling the determination, the controller 30 proceeds from step S513 to step S514 to set default detection conditions for the first and second states.

例えばこのような処理を行うことで、ユーザ操作がなくとも、アクティビティ種別に適したステート判断が行われ、それに応じた撮像動作制御が可能となる。従ってアクティビティに応じた特徴的なシーンの撮像やHFR撮像などが、より容易に行われる。
なお、以上図25A、図25Bのような行動種別に応じたステート検出条件の設定は、第1ステートST1、第2ステートST2の両方ではなく、一方のみでもよい。また上記第3の実施の形態のように第3ステートST3を検出する場合、第3ステートST3の検出条件もアクティビティ種別に応じて設定することも考えられる。
また条件種別の切替ではなく複数条件についてのOR条件、AND条件を切り替えることも考えられる。
For example, by performing such processing, state determination suitable for the activity type is performed without user operation, and imaging operation control can be performed accordingly. Therefore, it is easier to capture characteristic scenes according to the activity, HFR capture, and the like.
It should be noted that the setting of the state detection conditions according to the action type as shown in FIGS. 25A and 25B may be performed for only one of the first state ST1 and the second state ST2 instead of both. Further, when detecting the third state ST3 as in the third embodiment, it is conceivable to set the detection conditions for the third state ST3 according to the activity type.
It is also conceivable to switch OR conditions and AND conditions for a plurality of conditions instead of switching the condition types.

またコントローラ30は第1ステートST1を検出した際の検出条件種別に応じて、第2検出の検出条件を設定するようにしてもよい。
例えば第1ステートST1の検出条件として、所定の振動パタン、ジェスチャパタン、音声パタンなど、複数の検出条件を設定し、いずれか1つが検出されたら第1ステートST1と判定するものとする。
そしてコントローラ30は、図25Cの処理を行う。即ちステップS520で第1ステートST1を検出したか否かを判定し、第1ステートST1を検出した際にステップS521に進む。そしてコントローラ30は第1ステートST1の検出条件の種別に応じて第2ステートST2の検出条件を設定する。
例えばタッピング操作の振動パタンにより第1ステートST1を検出したときは、加速度センサの検波値の変動を第2ステートST2の検出条件とするが、ジェスチャパタンを第1ステートST1を検出したときは、グローバルベクトルの変動を第2ステートST2の検出条件とするなどである。
Further, the controller 30 may set the detection condition for the second detection according to the detection condition type when the first state ST1 is detected.
For example, as detection conditions for the first state ST1, a plurality of detection conditions such as a predetermined vibration pattern, gesture pattern, and voice pattern are set, and if any one of them is detected, the first state ST1 is determined.
The controller 30 then performs the process of FIG. 25C. That is, in step S520, it is determined whether or not the first state ST1 is detected, and when the first state ST1 is detected, the process proceeds to step S521. The controller 30 sets the detection condition for the second state ST2 according to the type of detection condition for the first state ST1.
For example, when the first state ST1 is detected by the vibration pattern of the tapping operation, the change in the detection value of the acceleration sensor is used as the detection condition for the second state ST2. For example, vector fluctuation is used as a detection condition for the second state ST2.

これにより、第1ステートST1に応じた第2ステートST2の検出が可能となる。
もちろん第3ステートST3の検出条件を第1ステートST1の検出条件種別に応じて設定しても良い。
また第2ステートST2の検出条件が複数設定されているときは、第3ステートST3の検出条件を第2ステートST2の検出条件種別に応じて設定することも考えられる。
This enables detection of the second state ST2 in accordance with the first state ST1.
Of course, the detection condition for the third state ST3 may be set according to the detection condition type for the first state ST1.
Further, when a plurality of detection conditions for the second state ST2 are set, it is conceivable to set the detection condition for the third state ST3 according to the detection condition type for the second state ST2.

<9.まとめ及び変形例>
以上の第1の実施の形態の撮像制御装置1や、第2~第5の実施の形態の撮像装置10、遠隔制御装置50によれば、次のような効果が得られる。
<9. Summary and Modifications>
According to the imaging control device 1 of the first embodiment, the imaging devices 10 of the second to fifth embodiments, and the remote control device 50, the following effects can be obtained.

実施の形態では、撮像環境が第1ステートST1になること検出する第1検出と、第1ステートST1から第2ステートST2になることを検出する第2検出とを行う状態検出部1aを備える。また第1ステートST1の検出に基づいて第1モードの撮像処理動作を指示し、第2ステートST2の検出に基づいて第2モードの撮像処理動作を指示するモード処理指示部1bを備える。
つまり状態検出部1aが撮像環境についての第1ステートST1、第2ステートST2を検出するが、モード処理指示部1bは第1ステートST1、第2ステートST2毎に所定の撮像処理動作を設定しておき、検出されたステートに応じた制御を行う。即ち第1ステートST1が検出された場合、モード処理指示部1bは、その検出時点、もしくはその後の時点で、第1モードの指示を行い、第2ステートST2が検出された場合、モード処理指示部1bは、その検出時点やその後の所定の時点で第2モードの指示を行う。
この構成により撮像環境の変化に応じた撮像処理動作が実行される。即ち撮像環境が第1ステートST1に至った後に、第2ステートST2に至るという条件下での撮像処理動作を自動的に行うことができる。これにより撮像に関する使用性、操作性を向上させることができる。
特に使用中の操作が困難な状況で使用される機器などにおいて、使用者の状況等の撮像環境の変化に応じて望ましい撮像動作を撮像装置に実行させることができる。
In the embodiment, the state detection unit 1a is provided for performing first detection for detecting that the imaging environment changes to the first state ST1 and second detection for detecting that the imaging environment changes from the first state ST1 to the second state ST2. It also has a mode processing instruction section 1b that instructs the imaging processing operation in the first mode based on the detection of the first state ST1 and instructs the imaging processing operation in the second mode based on the detection of the second state ST2.
That is, the state detection unit 1a detects the first state ST1 and the second state ST2 of the imaging environment. and perform control according to the detected state. That is, when the first state ST1 is detected, the mode processing instructing unit 1b instructs the first mode at the time of detection or at a time after that, and when the second state ST2 is detected, the mode processing instructing unit 1b 1b instructs the second mode at the time of detection or at a predetermined time thereafter.
With this configuration, the imaging processing operation is executed according to changes in the imaging environment. That is, it is possible to automatically perform the imaging processing operation under the condition that the imaging environment reaches the first state ST1 and then the second state ST2. As a result, the usability and operability of imaging can be improved.
In particular, it is possible to cause an imaging device to perform a desirable imaging operation in response to changes in imaging environment such as the user's situation, for example, in a device that is difficult to operate during use.

また実施の形態では、状態検出部1aは、撮像環境として、撮像装置10の被装着体もしくは被写体、又は撮像装置10と通信可能な遠隔制御装置50の被装着体が、第1ステートST1や第2ステートST2となることの検出を行う。
即ち撮像環境として、撮像装置10や遠隔制御装置50を装着した人や装着したギア、被写体人物等の動的な状況を検出する。例えば被装着体としての人が、或る競技を開始する状態を第1ステート、競技中の特定の動作状態になることを第2ステートなどとする。
これにより撮像装置、遠隔制御装置の被装着体や被写体の動作等をトリガとして撮像処理動作を制御できる。
なお被装着体は多様に想定される。例えば移動体、自動車、列車、船舶、飛行体、例えば飛行機、気球、ヘリコプター、グライダー、凧、アドバルーン、遠隔コントロールによる模型飛行体、人工衛星、動物、構造物、自然物などでもよい。
Further, in the embodiment, the state detection unit 1a detects, as the imaging environment, the mounted body or subject of the imaging device 10, or the mounted body of the remote control device 50 capable of communicating with the imaging device 10, in the first state ST1 or in the second state. It detects that it will be 2-state ST2.
That is, as the imaging environment, dynamic situations such as the person wearing the imaging device 10 or the remote control device 50, the gear worn, and the subject person are detected. For example, a state in which a person as an object to be worn starts a certain competition is defined as a first state, and a specific movement state during a competition is defined as a second state.
As a result, the imaging processing operation can be controlled by triggering the movement of the object to which the imaging device or the remote control device is mounted, or the like.
It should be noted that the object to be worn is assumed to be various. For example, mobile objects, automobiles, trains, ships, flying objects such as airplanes, balloons, helicopters, gliders, kites, advertising balloons, remote-controlled model flying objects, artificial satellites, animals, structures, and natural objects may be used.

実施の形態では、状態検出部1aは、第2検出として、撮像装置10の被装着体もしくは被写体、又は撮像装置10と通信可能な遠隔制御装置50の被装着体の非操作アクションの検出を行うようにしている。つまりユーザの意識した操作としての動作ではなく、アクティビティの過程における動作である。例えばバイク競技のジャンプなどを例に挙げた。
第1ステートST1に至った状態で行う第2検出は、被装着体や被写体の動きを検出するが、その動きは、特に撮像に関する操作のための動きではなく、第2ステートST2としての特定の動作を検出することが好適である。これによりアクティビティを実行している被装着体や被写体の第2ステートとしての特徴的な動作に応じた撮像処理動作の制御が可能となる。また被装着体としてのユーザは、操作を意識しなくて良い。
In the embodiment, as the second detection, the state detection unit 1a detects a non-operating action of an object to be worn by the imaging device 10 or a subject, or an object to be worn by the remote control device 50 that can communicate with the imaging device 10. I'm trying In other words, it is not an action as a user's conscious operation, but an action in the course of an activity. For example, jumping in a motorcycle race was cited as an example.
The second detection performed after reaching the first state ST1 detects the movement of the wearable body or the subject. It is preferred to detect motion. This makes it possible to control the imaging processing operation according to the characteristic operation of the second state of the wearable body or the subject performing the activity. Moreover, the user as the wearable body does not have to be conscious of the operation.

実施の形態では、状態検出部1aが、第1検出として、撮像装置10の被装着体もしくは被写体である人の操作アクションの検出を行う例を挙げた。例えばタッピング操作などである。
第1ステートST1に至ることについては、撮像装置や遠隔制御装置のユーザの意思に基づく操作により判断することが好適な場合もある。例えばスポーツ、アクティビティなどとしての動作の開始を第1ステートST1とした場合、その開始をユーザの操作により検知することで、第1モードの撮像処理動作をユーザ意思に基づいて開始する。
これにより第1モードの撮像処理動作はユーザの意思に応じて確実に実行しつつ、第2ステートST2は、ユーザが開始したスポーツ、アクティビティなどにおける特徴的な動作の状態とし、そのような状態に応じて第2モードの撮像処理動作を行うことができる。
ユーザにとっては、アクティビティ等の開始の際に第1モードを指示するのみで、望ましい動画記録が実現できる。
In the embodiment, an example is given in which the state detection unit 1a detects an operation action of a person, who is an object to which the imaging device 10 is attached or a subject, as the first detection. For example, it is a tapping operation.
In some cases, it may be preferable to determine whether the first state ST1 is reached by operating the imaging device or the remote control device based on the user's intention. For example, if the start of an action such as a sport or an activity is set to the first state ST1, the start of the action is detected by the user's operation, and the imaging processing operation in the first mode is started based on the user's intention.
As a result, the imaging processing operation in the first mode is reliably executed according to the user's intention, and the second state ST2 is set to a characteristic operation state in sports, activities, etc. initiated by the user. Accordingly, the imaging processing operation in the second mode can be performed.
For the user, desired moving image recording can be achieved simply by instructing the first mode at the start of an activity or the like.

第3の実施の形態では状態検出部1aが、第2ステートST2から第3ステートST3になることを検出する第3検出を行い、モード処理指示部1bは、第3ステートST3の検出に基づいて、少なくとも第2モードで実行される撮像処理動作の終了を指示する例を挙げた。
これによりユーザが意識しなくとも、第2モードの撮像処理動作、例えばHFR撮像記録を適切な時点(もしくは適切な時点の撮像画像で)終了させることができる。
In the third embodiment, the state detection unit 1a performs the third detection for detecting that the state changes from the second state ST2 to the third state ST3, and the mode processing instructing unit 1b performs the third state detection based on the detection of the third state ST3. , to instruct the end of the imaging processing operation executed in at least the second mode.
As a result, the imaging processing operation in the second mode, for example, the HFR imaging recording can be terminated at an appropriate point in time (or at an appropriate point in time of the captured image) without the user being aware of it.

第2,第3,第4の実施の形態では、モード処理指示部1bが指示する第1モードの撮像処理動作は、撮像画像データをリングメモリ形態で内蔵メモリ25へバファリングする処理動作を含む。またモード処理指示部1bが指示する第2モードの撮像処理動作は、内蔵メモリ25にバファリングされていく撮像画像データのうちで記録画像として保存する範囲を設定する処理動作を含む。
つまり第1ステート検出に応じて、撮像画像データのバッファリングを開始させる。そして第2ステート検出に応じて、バッファリングしている、もしくはバッファリングされたうちで、記録画像として、記録部15に転送し保存させる画像の範囲を設定する。
例えば上述のように通常のフレームレートより高いHFRの動画撮像記録を目的とする場合、第2ステートST2とはHFR撮像に適した撮像シーンとする。HFRの場合、その実際のフレームレートと撮像装置のデータ転送速度や処理能力の関係、或いは記録媒体の容量などにもよるが、HFR撮像画像を常時記録していくことは負担が大きく、またユーザにとっても必要ではないことが多い。またHFR画像は、通常の再生装置で再生することでスローモーション画像となる。
そこで、第1ステートST1の際に撮像画像データをバファリングし、第2ステートST2で記録範囲を設定し、その範囲だけHFR画像として記録に残すことは、非常に適切な処理となる。なぜならユーザにとっては、スローモーションで見たいような重要な場面のみ、HFR画像として記録されるためである。また撮像装置にとってもリングメモリ形態でバファリングしていくことで、無用にメモリ容量を圧迫することもなく、さらに記録のためのエンコードや転送、記録媒体への書込等の処理負担が過大になることはないためである。
またこのようなHFR撮像において実施の形態の処理をおこなうことで、ユーザ自身がHFR録画タイミングを制御しなくてもよく、アクションカメラとしての使用態様においてHFR記録を快適に実現できる。
In the second, third, and fourth embodiments, the imaging processing operation in the first mode instructed by the mode processing instructing section 1b includes the processing operation of buffering the captured image data in the built-in memory 25 in the form of a ring memory. . The imaging processing operation in the second mode instructed by the mode processing instructing unit 1b includes a processing operation for setting a range of the captured image data buffered in the built-in memory 25 to be saved as a recorded image.
That is, the buffering of the captured image data is started in response to the detection of the first state. Then, in accordance with the detection of the second state, the range of the image to be transferred and stored in the recording unit 15 is set as the image to be recorded, which is being buffered or has been buffered.
For example, as described above, when the purpose is to capture and record a moving image with HFR having a higher frame rate than the normal frame rate, the second state ST2 is an imaging scene suitable for HFR imaging. In the case of HFR, depending on the relationship between the actual frame rate and the data transfer speed and processing capability of the imaging device, or the capacity of the recording medium, it is a heavy burden to constantly record HFR captured images, and the user is also required to do so. It is often unnecessary for Also, the HFR image becomes a slow-motion image by reproducing it with a normal reproducing device.
Therefore, buffering captured image data in the first state ST1, setting a recording range in the second state ST2, and recording only that range as an HFR image is a very appropriate process. This is because only important scenes that the user wants to see in slow motion are recorded as HFR images. Also, buffering in the form of a ring memory for the imaging device does not unnecessarily put pressure on the memory capacity, and the processing load such as encoding and transfer for recording and writing to the recording medium becomes excessive. for it will not be.
Further, by performing the processing of the embodiment in such HFR imaging, the user does not have to control the HFR recording timing, and HFR recording can be comfortably realized in the mode of use as an action camera.

第4の実施の形態では、モード処理指示部1bが指示する第1モードの撮像処理動作は、第1ステートST1とされた期間の撮像画像データを第1のフレームレートで記録画像として保存するための処理動作を含む。またモード処理指示部1bが指示する第2モードの撮像処理動作は、第2ステートST2とされた期間の撮像画像データを第1のフレームレートよりは高いフレームレートである第2のフレームレート(HFR)で記録画像として保存するための処理動作を含むようにしている。
つまり第1ステートとされた期間の撮像画像データについては第1のフレームレートで記録され、第2ステートとされた期間の撮像画像データは第2のフレームレート(HFR)で記録される。
従って撮像環境に応じて異なるフレームレートが混在する動画コンテンツが生成できる。例えば60fpsなどの一般的なフレームレートで撮像画像記録が行われ、第2ステート検出に応じた期間の撮像画像記録は、240fpsや960fpsなどのハイフレームレートで撮像画像記録が行われたようなコンテンツである。この場合、通常の再生を行うと、通常の動画の途中に、特定の動作のシーンとしてスローモーション映像が挿入されたようなコンテンツとなる。第2ステートST2をスポーツ、アクティビティ等における重要なシーンとなる撮像環境とすることで、HFR撮像を有効利用したコンテンツが自動生成できることになる。
In the fourth embodiment, the imaging processing operation in the first mode instructed by the mode processing instructing unit 1b is performed to store the captured image data in the period of the first state ST1 at the first frame rate as a recorded image. processing operations. In addition, in the imaging processing operation in the second mode instructed by the mode processing instructing unit 1b, the captured image data in the period in which the second state ST2 is set is processed at a second frame rate (HFR), which is a higher frame rate than the first frame rate. ) includes a processing operation for saving as a recorded image.
That is, captured image data during the first state period is recorded at a first frame rate, and captured image data during the second state period is recorded at a second frame rate (HFR).
Therefore, it is possible to generate moving image content in which different frame rates are mixed according to the imaging environment. For example, the captured image is recorded at a general frame rate such as 60 fps, and the captured image is recorded at a high frame rate such as 240 fps or 960 fps for the period corresponding to the detection of the second state. is. In this case, when normal reproduction is performed, the content becomes such that a slow-motion video is inserted as a scene of a specific action in the middle of a normal moving image. By setting the second state ST2 as an imaging environment that is an important scene in sports, activities, etc., it is possible to automatically generate content that makes effective use of HFR imaging.

第5の実施の形態では、状態検出部1aは、第2ステートST2から第3ステートST3になることを検出する第3検出を行う。そしてモード処理指示部1bが指示する第1モードの撮像処理動作は、撮像画像データを記録画像として保存するための処理動作を含み、第2モードの撮像処理動作は、撮像画像データの記録を停止するための処理動作を含む。さらにモード処理指示部1bは、第3ステートST3の検出に基づいて撮像装置10の電源オフを指示するようにしている。
つまり第1ステートとされた期間の撮像画像データについては記録され、第2ステート検出に応じて記録が終了される。さらに第3ステート検出で撮像装置が電源オフとされる。
従って撮像環境に応じて撮像や撮像記録の停止、電源オフが行われるようにすることができる。例えばユーザにとって不要な映像の撮像記録が延々と続くようなことが回避され、また不要な撮像、或いは電源オン状態が継続してしまうことが回避される。特にスポーツ等を行っているユーザにとっては、撮像装置に関する操作として録画停止や電源オフは忘れがちである。そして操作忘れによって記録媒体の容量圧迫やバッテリ容量の低下などを生じさせてしまうことが多々ある。本構成によればこのような事態が防止される。
In the fifth embodiment, the state detection unit 1a performs third detection to detect that the second state ST2 is changed to the third state ST3. The imaging processing operation in the first mode instructed by the mode processing instruction unit 1b includes a processing operation for saving the captured image data as a recorded image, and the imaging processing operation in the second mode stops recording the captured image data. Contains processing operations for Further, the mode processing instructing section 1b instructs to turn off the power of the imaging device 10 based on the detection of the third state ST3.
That is, the captured image data during the period in which the state is set to the first state is recorded, and the recording is terminated when the second state is detected. Furthermore, the power supply of the imaging device is turned off upon detection of the third state.
Therefore, it is possible to stop image capturing and image recording, and turn off the power according to the image capturing environment. For example, it is possible to avoid the continuous shooting and recording of images that are unnecessary for the user, and to avoid unnecessary shooting or the continuation of the power-on state. In particular, users who participate in sports or the like tend to forget to stop recording or turn off the power as operations related to the imaging device. In addition, forgetting to perform operations often causes pressure on the capacity of a recording medium, a decrease in battery capacity, and the like. This configuration prevents such a situation.

各実施の形態では、状態検出部1aは、撮像装置10又は撮像装置10と通信可能な遠隔制御装置50に搭載されたセンサの検出信号に基づいて、第1検出、第2検出の一方又は両方を行う。ここでいうセンサとは、センサ部14、56における例えば振動センサ、加速度センサ、角速度センサ、重力センサ、位置センサ、照度センサ、光センサ、温度センサであったり、音声検出部17、55の音声センサ(マイクロホン)音圧センサである。
これらのセンサにより、被装着体の動き、音、ジェスチャ等として、スポーツ等の動作状態を検出でき、第1ステートST1又は第2ステートST2として撮像処理動作の制御に適切な撮像環境を自動的に検知できる。
In each embodiment, the state detection unit 1a performs one or both of the first detection and the second detection based on the detection signal of the sensor mounted on the imaging device 10 or the remote control device 50 capable of communicating with the imaging device 10. I do. The sensor here means, for example, a vibration sensor, an acceleration sensor, an angular velocity sensor, a gravity sensor, a position sensor, an illuminance sensor, an optical sensor, a temperature sensor in the sensor units 14 and 56, or an audio sensor in the audio detection units 17 and 55. (microphone) Sound pressure sensor.
These sensors can detect the movement of the wearable body, sounds, gestures, and the like, such as sports, and automatically create an imaging environment suitable for controlling the imaging processing operation as the first state ST1 or the second state ST2. detectable.

各実施の形態のでは、状態検出部1aは、撮像装置10によって得られた撮像画像データに基づいて、第1検出、前記第2検出の一方又は両方を行う。
即ち撮像画像データの画像解析により被写体の各種状況としての撮像環境を検出する。例えば撮像画像データから被写体のジェスチャ感知ができる。また撮像画像データに基づいてAF(オートフォーカス)、AE(オートアイリス)、AWB(オートホワイトバランス)などの制御が行われるが、これらは被写体の状況に応じた制御であるため、AF,AE,AWBの制御値は、被写体状況としての撮像環境を検知する値ともなる。また画像から被写体の動きベクトルを検出して撮像環境を判断することもできる。
これにより、被写体の動き、ジェスチャ等として、スポーツ等における動作状態を検出でき、第1ステート又は第2ステートとして撮像処理動作の制御に適切な撮像環境を自動的に検知できる。
In each embodiment, the state detection unit 1a performs one or both of the first detection and the second detection based on the captured image data obtained by the imaging device 10. FIG.
That is, the imaging environment as various situations of the subject is detected by image analysis of the captured image data. For example, it is possible to sense the gesture of the subject from the captured image data. Controls such as AF (auto focus), AE (auto iris), and AWB (auto white balance) are performed based on captured image data. The control value of is also a value for detecting the imaging environment as the subject situation. It is also possible to determine the imaging environment by detecting the motion vector of the subject from the image.
As a result, it is possible to detect the motion state in sports or the like as the movement of the subject, the gesture, or the like, and automatically detect the imaging environment suitable for controlling the imaging processing operation as the first state or the second state.

各実施の形態では、状態検出部1aは、撮像装置10と通信可能な遠隔制御装置50との間における通信状態に基づいて、第1検出、第2検出の一方又は両方を行う。
例えば撮像装置と、例えば遠隔制御装置等の通信可能な機器との間の通信が途絶えたまま所定時間を経過した場合など、撮像環境の変化と判断しても良い。
これにより撮像環境の変化の検出に応じた撮像処理動作の制御が可能となる。
In each embodiment, the state detection unit 1a performs one or both of the first detection and the second detection based on the communication state between the imaging device 10 and the remote control device 50 with which communication is possible.
For example, it may be determined that there is a change in the imaging environment when communication between the imaging device and a communicable device such as a remote control device has been interrupted for a predetermined period of time.
This makes it possible to control the imaging processing operation according to detection of a change in the imaging environment.

また第7の実施の形態では、状態検出部1aが被装着体の行動種別に応じて、第1検出、第2検出の一方又は両方についての検出条件を設定する例を述べた(図25A、図25B)。
例えばスポーツやアクティビティとしての種別を判定し、それに応じて第1ステートのトリガ、第2ステートのトリガを設定する。
これにより実行する行動種別に応じて、第1ステートST1、第2ステートST2を適切に検出できるようになる。
Further, in the seventh embodiment, the example in which the state detection unit 1a sets the detection conditions for one or both of the first detection and the second detection according to the action type of the wearable body (FIGS. 25A, Figure 25B).
For example, the type of sport or activity is determined, and the trigger of the first state and the trigger of the second state are set accordingly.
This makes it possible to appropriately detect the first state ST1 and the second state ST2 according to the action type to be executed.

また第7の実施の形態では、状態検出部1aが第1検出として複数の検出条件を設定し、第1検出で第1ステートST1を検出した際の検出条件種別に応じて、第2検出の検出条件を設定する例を述べた(図25C)。
第1ステートST1を検出した際の検出条件が多様であるとした場合に、第1ステートST1を検出した際の検出条件に応じて、第2ステートST2の検出条件を選択することで、行動における第1ステートST1の検出条件に関連して第2検出の検出条件を設定できる。従って第2ステートST2を適切に検出できる可能性を高めることができる。
In the seventh embodiment, the state detection unit 1a sets a plurality of detection conditions for the first detection, and the second detection is performed according to the detection condition type when the first state ST1 is detected in the first detection. An example of setting detection conditions has been described (FIG. 25C).
Assuming that the detection conditions for detecting the first state ST1 are diverse, by selecting the detection conditions for the second state ST2 according to the detection conditions for detecting the first state ST1, A detection condition for the second detection can be set in relation to the detection condition for the first state ST1. Therefore, it is possible to increase the possibility of appropriately detecting the second state ST2.

実施の形態のプログラムは、撮像環境が第1ステートST1となること検出する第1検出手順と、第1ステートST1の検出に基づいて第1モードの撮像処理動作を指示する第1指示手順と、第1ステートST1から第2ステートST2になることを検出する第2検出手順と、第2ステートST2の検出に基づいて第2モードの撮像処理動作を指示する第2指示手順とを演算処理装置に実行させるプログラムである。
このプログラムにより、実施の形態の撮像制御装置1としての機能を備えた演算処理装置、例えばマイクロコンピュータやDSPによるコントローラ30、60を実現できる。ひいては撮像制御装置1としての機能を備えた撮像装置10や遠隔制御装置50を実現できる。
The program of the embodiment includes a first detection procedure for detecting that the imaging environment is in the first state ST1, a first instruction procedure for instructing the imaging processing operation in the first mode based on the detection of the first state ST1, A second detection procedure for detecting a transition from the first state ST1 to a second state ST2 and a second instruction procedure for instructing the imaging processing operation in the second mode based on the detection of the second state ST2 are transmitted to the arithmetic processing unit. This is the program to run.
With this program, the controllers 30 and 60, such as a microcomputer or a DSP, having the functions of the imaging control apparatus 1 of the embodiment can be realized. As a result, the imaging device 10 and the remote control device 50 having the functions of the imaging control device 1 can be realized.

このようなプログラムは各種の記録媒体に記録しておくことができる。またプログラムはコンピュータ装置などの機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROMなどに予め記録しておくことができる。或いはまた、半導体メモリ、メモリカード、光ディスク、光磁気ディスク、磁気ディスクなどのリムーバブル記録媒体に、一時的或いは永続的に記録しておくことができる。またこのようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータなどにインストールする他、ダウンロードサイトから、LAN、インターネットなどのネットワークを介してダウンロードすることもできる。
Such programs can be recorded in various recording media. Further, the program can be recorded in advance in an HDD as a recording medium built in equipment such as a computer device, or in a ROM in a microcomputer having a CPU. Alternatively, it can be temporarily or permanently recorded in a removable recording medium such as a semiconductor memory, memory card, optical disk, magneto-optical disk, or magnetic disk. Also, such a removable recording medium can be provided as so-called package software.
Moreover, such programs can be installed from a removable recording medium to a personal computer or the like, or can be downloaded from a download site via a network such as LAN or the Internet.

本技術は実施の形態で言及した以外にも多様な変形例、適用例が考えられる。
第1ステートST1や第2ステートST2としての判定のトリガ(検出条件)は、他にも考えられる。第3ステートST3についても同様である。
第1ステートST1や第2ステートST2としての検出条件となる「所定パタン」をユーザが事前に登録できるようにしてもよい。例えばタッピング操作の回数や間隔等を登録するなどである。
また、この時の第1ステートST1や第2ステートST2に対応する第1モード、第2モードの撮像処理動作をユーザが事前に登録できるようにしてもよい。例えば2回のタッピング操作で第1ステートST1を指示した際には第2の実施の形態のような第2ステートST2でのHFR撮像、3回のタッピング操作で第1ステートST1を指示した際には第4の実施の形態のような通常撮像とHFR撮像の混合動作を行うなどである。
Various modifications and application examples are conceivable for the present technology in addition to those mentioned in the embodiments.
Other triggers (detection conditions) for determination as the first state ST1 and the second state ST2 are conceivable. The same applies to the third state ST3.
A user may be allowed to register in advance a "predetermined pattern" that serves as a detection condition for the first state ST1 and the second state ST2. For example, the number of tapping operations, intervals, and the like are registered.
In addition, the user may register in advance the imaging processing operations in the first mode and the second mode corresponding to the first state ST1 and the second state ST2 at this time. For example, when the first state ST1 is instructed by two tapping operations, HFR imaging is performed in the second state ST2 as in the second embodiment, and when the first state ST1 is instructed by three tapping operations, is a mixed operation of normal imaging and HFR imaging as in the fourth embodiment.

第1,第2ステートに応じたモードの撮像処理動作の制御例としては、例えばフレーム範囲を示すタグの付加、各種メタデータの付加なども考えられる。
例えば第1ステートST1検出時から通常記録を行って、これを第2ステートST2となっても継続するが、第2ステートST2に該当するフレーム範囲を示すタグを付加する。或いは第2ステートの検出条件、検出時間などの情報を付加する。これにより後の動画再生時や編集時に、第2ステートST2の期間を容易に動画上で検索できたり、第2ステートST2の検出内容(どのような状況を第2ステートST2としたか)を把握できるため、再生や編集に便利となる。
Examples of control of the imaging processing operation in modes corresponding to the first and second states include, for example, addition of tags indicating frame ranges, addition of various types of metadata, and the like.
For example, normal recording is performed from the time of detection of the first state ST1, and this is continued even in the second state ST2, but a tag indicating the frame range corresponding to the second state ST2 is added. Alternatively, information such as the second state detection condition and detection time is added. As a result, the period of the second state ST2 can be easily searched on the moving image when reproducing or editing the moving image later, and the detection contents of the second state ST2 (what kind of situation is the second state ST2) can be grasped. This makes it convenient for playback and editing.

また実施の形態ではHFR記録等の動画データ記録を、記録部15に転送してフラッシュメモリ等に記録するとしたが、これ以外に、バファリングされた記録範囲を外部機器に送信して記録させたり、記録部15に記録されたコンテンツをあらかじめ設定した通信先へ自動的に送信するようにすることも考えられる。
例えば撮像画像データを外部機器に送信することで、アクティビティを離れて見ている同行者に撮像画像を即時チェックしてもらえるなどの使用態様が可能となる。
また遠隔制御装置50に記録部を設け、撮像画像データを遠隔制御装置50に転送して記録部の記録媒体に記録するようにしてもよい。
In the embodiment, moving image data recording such as HFR recording is transferred to the recording unit 15 and recorded in a flash memory or the like. It is also conceivable to automatically transmit the content recorded in the recording unit 15 to a communication destination set in advance.
For example, by transmitting captured image data to an external device, it is possible to have a companion who is watching the activity from a distance immediately check the captured image.
Alternatively, a recording unit may be provided in the remote control device 50, and the captured image data may be transferred to the remote control device 50 and recorded in the recording medium of the recording unit.

本技術はアクティビティの際にユーザが使用する撮像装置10以外にも各種装置で適用できる。
上記のように被装着体は自動車や飛行体なども想定される。
例えば車載カメラに適用した場合、急ブレーキで第1ステートST1検出、エアバック発動で第2ステートST2の検出等が考えられる。
また医療機器、手術用の撮像装置などでも好適である。この場合、医師の動作、或いは映像から判定される状況により、ステート判断を行い、撮像処理動作のモードを制御することが考えられる。
従って本技術の撮像制御装置は、民生機器や放送その他の業務用機器において広く適用できる。例えば動画撮像機能を備えたカメラ機器、携帯端末機器、携帯電話機、監視カメラ機器、定点カメラ機器、ドライブレコーダ等の車載用カメラ機器、走行環境判定のためのカメラ機器、医療機器、電子内視鏡等に内蔵したり、これらの機器とシステム化することも好適である。
The present technology can be applied to various devices other than the imaging device 10 used by the user during the activity.
As described above, the mounted body may be an automobile, an aircraft, or the like.
For example, when applied to an in-vehicle camera, the first state ST1 may be detected when a sudden brake is applied, and the second state ST2 may be detected when an air bag is activated.
It is also suitable for medical devices, imaging devices for surgery, and the like. In this case, it is conceivable to perform state determination and control the mode of the imaging processing operation based on the doctor's actions or the situation determined from the video.
Therefore, the imaging control device of the present technology can be widely applied to consumer equipment, broadcast equipment, and other commercial equipment. For example, camera equipment with a video imaging function, mobile terminal equipment, mobile phones, surveillance camera equipment, fixed point camera equipment, in-vehicle camera equipment such as drive recorders, camera equipment for determining the driving environment, medical equipment, electronic endoscopes It is also preferable to incorporate it into a device such as a device or systematize it with these devices.

なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。 Note that the effects described in this specification are merely examples and are not limited, and other effects may also occur.

本技術は以下のような構成も採ることができる。
(1)撮像環境が第1ステートになること検出する第1検出と、前記第1ステートから第2ステートになることを検出する第2検出とを行う状態検出部と、
前記第1ステートの検出に基づいて第1モードの撮像処理動作を指示し、前記第2ステートの検出に基づいて第2モードの撮像処理動作を指示するモード処理指示部と、を備えた
撮像制御装置。
(2)前記状態検出部は、
前記撮像環境として、撮像装置の被装着体もしくは被写体、又は撮像装置と通信可能な機器の被装着体が、前記第1ステート又は前記第2ステートとなることの検出を行う
上記(1)に記載の撮像制御装置。
(3)前記状態検出部は、
前記第2検出として、撮像装置の被装着体もしくは被写体、又は撮像装置と通信可能な機器の被装着体の非操作アクションの検出を行う
上記(1)又は(2)に記載の撮像制御装置。
(4)前記状態検出部は、
前記第1検出として、撮像装置の被装着体もしくは被写体である人の操作アクションの検出を行う
上記(3)に記載の撮像制御装置。
(5)前記状態検出部は、前記第2ステートから第3ステートになることを検出する第3検出を行い、
前記モード処理指示部は、前記第3ステートの検出に基づいて、少なくとも前記第2モードで実行される撮像処理動作の終了を指示する
上記(1)乃至(4)のいずれかに記載の撮像制御装置。
(6)前記モード処理指示部が指示する前記第1モードの撮像処理動作は、撮像画像データをリングメモリ形態でメモリへバファリングする処理動作を含み、
前記モード処理指示部が指示する前記第2モードの撮像処理動作は、前記メモリにバファリングされていく撮像画像データのうちで記録画像として保存する範囲を設定する処理動作を含む
上記(1)乃至(5)のいずれかに記載の撮像制御装置。
(7)前記モード処理指示部が指示する前記第1モードの撮像処理動作は、前記第1ステートとされた期間の撮像画像データを第1のフレームレートで記録画像として保存するための処理動作を含み、
前記モード処理指示部が指示する前記第2モードの撮像処理動作は、前記第2ステートとされた期間の撮像画像データを前記第1のフレームレートよりは高いフレームレートである第2のフレームレートで記録画像として保存するための処理動作を含む
上記(1)乃至(6)のいずれかに記載の撮像制御装置。
(8)前記状態検出部は、前記第2ステートから第3ステートになることを検出する第3検出を行い、
前記モード処理指示部が指示する前記第1モードの撮像処理動作は、撮像画像データを記録画像として保存するための処理動作を含み、
前記モード処理指示部が指示する前記第2モードの撮像処理動作は、撮像画像データの記録を停止するための処理動作を含み、
前記モード処理指示部は、前記第3ステートの検出に基づいて撮像装置の電源オフを指示する
上記(1)乃至(4)のいずれかに記載の撮像制御装置。
(9)前記状態検出部は、
撮像装置又は撮像装置と通信可能な機器に搭載されたセンサの検出信号に基づいて、前記第1検出、前記第2検出の一方又は両方を行う
上記(1)乃至(8)のいずれかに記載の撮像制御装置。
(10)前記状態検出部は、
撮像装置によって得られた撮像画像データに基づいて、前記第1検出、前記第2検出の一方又は両方を行う
上記(1)乃至(9)のいずれかに記載の撮像制御装置。
(11)前記状態検出部は、撮像装置と通信可能な機器の間における通信状態に基づいて、前記第1検出、前記第2検出の一方又は両方を行う
上記(1)乃至(10)のいずれかに記載の撮像制御装置。
(12)前記状態検出部は、
被装着体の行動種別に応じて、前記第1検出、前記第2検出の一方又は両方についての検出条件を設定する
上記(1)乃至(11)のいずれかに記載の撮像制御装置。
(13)前記状態検出部は、
前記第1検出として複数の検出条件を設定し、
前記第1検出で第1ステートを検出した際の検出条件種別に応じて、前記第2検出の検出条件を設定する
上記(1)乃至(11)のいずれかに記載の撮像制御装置。
(14)撮像装置を制御する撮像制御装置の撮像制御方法として、
撮像環境が第1ステートになること検出する第1検出手順と、
前記第1ステートの検出に基づいて第1モードの撮像処理動作を指示する第1指示手順と、
前記第1ステートから第2ステートになることを検出する第2検出手順と、
前記第2ステートの検出に基づいて第2モードの撮像処理動作を指示する第2指示手順と、を備えた
撮像制御方法。
(15)撮像環境が第1ステートになること検出する第1検出手順と、
前記第1ステートの検出に基づいて第1モードの撮像処理動作を指示する第1指示手順と、
前記第1ステートから第2ステートになることを検出する第2検出手順と、
前記第2ステートの検出に基づいて第2モードの撮像処理動作を指示する第2指示手順とを
演算処理装置に実行させるプログラム。
The present technology can also adopt the following configuration.
(1) a state detection unit that performs first detection for detecting that the imaging environment changes to a first state, and second detection that detects that the imaging environment changes from the first state to a second state;
a mode processing instruction unit that instructs an imaging processing operation in a first mode based on detection of the first state, and instructs an imaging processing operation in a second mode based on detection of the second state. Device.
(2) The state detection unit
According to (1) above, it is detected that, as the imaging environment, an object to be mounted of an imaging device or a subject, or an object to be mounted of a device capable of communicating with the imaging device is in the first state or the second state. imaging control device.
(3) The state detection unit
The imaging control device according to (1) or (2) above, wherein as the second detection, a non-operating action of a mounted body of an imaging device or a subject, or a mounted body of a device capable of communicating with the imaging device is detected.
(4) The state detection unit
The imaging control device according to (3) above, wherein as the first detection, an operation action of a person who is an object to which the imaging device is attached or a subject is detected.
(5) the state detection unit performs a third detection for detecting that the state changes from the second state to the third state;
The imaging control according to any one of the above (1) to (4), wherein the mode processing instructing section instructs termination of the imaging processing operation executed in at least the second mode based on the detection of the third state. Device.
(6) the imaging processing operation in the first mode instructed by the mode processing instruction unit includes a processing operation of buffering the captured image data in a ring memory format in a memory;
The imaging processing operation in the second mode instructed by the mode processing instruction unit includes a processing operation for setting a range of captured image data buffered in the memory to be saved as a recorded image. (5) The imaging control device according to any one of the above.
(7) The imaging processing operation in the first mode instructed by the mode processing instruction unit is a processing operation for saving the captured image data in the period in which the first state is set as a recorded image at a first frame rate. including
The imaging processing operation in the second mode instructed by the mode processing instructing unit is to process the captured image data in the second state period at a second frame rate higher than the first frame rate. The imaging control apparatus according to any one of (1) to (6) above, including a processing operation for saving as a recorded image.
(8) the state detection unit performs a third detection for detecting that the state changes from the second state to the third state;
The imaging processing operation in the first mode instructed by the mode processing instruction unit includes a processing operation for saving captured image data as a recorded image,
The imaging processing operation in the second mode instructed by the mode processing instruction unit includes a processing operation for stopping recording of captured image data,
The imaging control device according to any one of (1) to (4) above, wherein the mode processing instructing section instructs power-off of the imaging device based on the detection of the third state.
(9) The state detection unit
According to any one of (1) to (8) above, one or both of the first detection and the second detection are performed based on a detection signal from a sensor mounted on an imaging device or a device capable of communicating with the imaging device. imaging control device.
(10) The state detection unit
The imaging control device according to any one of (1) to (9) above, wherein one or both of the first detection and the second detection are performed based on captured image data obtained by an imaging device.
(11) The state detection unit performs one or both of the first detection and the second detection based on the communication state between the imaging device and the communicable device. The imaging control device according to 1.
(12) The state detection unit
The imaging control device according to any one of (1) to (11) above, wherein detection conditions for one or both of the first detection and the second detection are set according to the action type of the wearable body.
(13) The state detection unit
setting a plurality of detection conditions as the first detection;
The imaging control device according to any one of (1) to (11) above, wherein the detection condition for the second detection is set according to a detection condition type when the first state is detected in the first detection.
(14) As an imaging control method for an imaging control device that controls an imaging device,
a first detection procedure for detecting that the imaging environment is in a first state;
a first instruction procedure for instructing an imaging processing operation in a first mode based on the detection of the first state;
a second detection procedure for detecting transition from the first state to the second state;
an imaging control method comprising: a second instruction procedure for instructing an imaging processing operation in a second mode based on detection of the second state.
(15) a first detection procedure for detecting that the imaging environment is in a first state;
a first instruction procedure for instructing an imaging processing operation in a first mode based on the detection of the first state;
a second detection procedure for detecting transition from the first state to the second state;
A program for causing an arithmetic processing unit to execute a second instruction procedure for instructing an imaging processing operation in a second mode based on the detection of the second state.

1…撮像制御装置、1a…状態検出部、1b…モード処理指示部、2…撮像部、3…撮像信号処理部、4,34,53…表示部、5,15…記録部、6…通信部、7,14,56…センサ部、11…光学系、12…イメージャ、16,51…無線通信部、17,55…音声検出部、30,60…コントローラ DESCRIPTION OF SYMBOLS 1... Imaging control apparatus 1a... State detection part 1b... Mode processing instruction|indication part 2... Imaging part 3... Imaging signal processing part 4, 34, 53... Display part 5, 15... Recording part 6... Communication Part 7, 14, 56... Sensor part 11... Optical system 12... Imager 16, 51... Wireless communication part 17, 55... Voice detection part 30, 60... Controller

Claims (17)

撮像環境が第1ステートになることを検出する第1検出と、前記第1ステートを検出した後に、前記撮像環境が第2ステートになることを検出する第2検出とを行う検出部と、 前記第2ステートの検出に基づいて、第2モードの撮像処理動作を指示する指示部と、
を備え、
前記検出部は、被装着体の行動種別の判定結果又は選択された行動種別に基づいて、前記第1検出、前記第2検出の一方又は両方についての検出条件を設定し、
前記指示部が指示する前記第2モードの撮像処理動作は、メモリにバファリングされていく撮像画像データのうち記録画像として保存する範囲を設定する処理動作を含む
制御装置。
a detection unit that performs first detection for detecting that the imaging environment is in a first state, and second detection that detects that the imaging environment is in a second state after detecting the first state; an instruction unit that instructs the imaging processing operation in the second mode based on the detection of the second state;
with
The detection unit sets detection conditions for one or both of the first detection and the second detection based on the determination result of the behavior type of the wearable body or the selected behavior type,
The imaging processing operation in the second mode instructed by the instruction unit includes a processing operation for setting a range of captured image data buffered in a memory to be saved as a recorded image.
前記指示部が指示する前記第2モードの撮像処理動作は、記録画像として保存する範囲を、前記第2ステートの検出タイミングより過去の時点に前記メモリにバファリングされた撮像画像データを含むように設定する処理動作を含む
請求項1に記載の制御装置。
The imaging processing operation in the second mode instructed by the instruction unit is such that the range to be saved as a recorded image includes the captured image data buffered in the memory at a point in time past the detection timing of the second state. 2. The control device according to claim 1, further comprising a processing operation for setting.
前記指示部は、前記第1ステートの検出に基づいて、第1モードの撮像処理動作を指示し、
前記指示部が指示する前記第1モードの撮像処理動作は、撮像画像データを前記メモリへバッファリングする処理動作を含む
請求項1又は請求項2に記載の制御装置。
The instruction unit instructs an imaging processing operation in a first mode based on the detection of the first state,
3. The control device according to claim 1, wherein the imaging processing operation in the first mode instructed by the instruction unit includes a processing operation of buffering captured image data in the memory.
前記撮像画像データは、前記メモリにリングメモリ形態でバッファリングされていく
請求項1から請求項3のいずれかに記載の制御装置。
The control device according to any one of claims 1 to 3, wherein the captured image data is buffered in the memory in a ring memory format.
前記検出部は、撮像装置と通信可能な機器の間における通信状態に基づいて、前記第1検出、前記第2検出の一方または両方を行う
請求項1から請求項4のいずれかに記載の制御装置。
5. The control according to any one of claims 1 to 4, wherein the detection unit performs one or both of the first detection and the second detection based on a communication state between the imaging device and a communicable device. Device.
前記検出部は、前記第2ステートから第3ステートになることを検出する第3検出を行い、
前記指示部は、前記第3ステートの検出に基づいて、少なくとも前記第2モードで実行される撮像処理動作の終了を指示する
請求項1から請求項5のいずれかに記載の制御装置。
The detection unit performs a third detection for detecting that the state changes from the second state to the third state,
6. The control device according to any one of claims 1 to 5, wherein the instructing section instructs termination of the imaging processing operation executed in at least the second mode based on the detection of the third state.
前記検出部は、前記第2ステートから第3ステートになることを、撮像装置と通信可能な機器の間における無線通信が途絶えたまま所定時間を経過することで検出する第3検出を行い、
前記指示部は、前記第3ステートの検出に基づいて、少なくとも前記第2モードで実行される撮像処理動作の終了を指示する
請求項1から請求項6のいずれかに記載の制御装置。
The detection unit performs a third detection for detecting that the state changes from the second state to the third state when a predetermined time elapses while wireless communication between the imaging device and the communicable device is interrupted,
7. The control device according to any one of claims 1 to 6, wherein the instructing section instructs termination of the imaging processing operation performed at least in the second mode based on the detection of the third state.
前記検出部は、
前記撮像環境として、撮像装置の被装着体もしくは被写体、又は撮像装置と通信可能な機器の被装着体が、前記第1ステート又は前記第2ステートとなることの検出を行う
請求項1から請求項7のいずれかに記載の制御装置。
The detection unit is
1. Detecting that the mounted object or subject of the imaging device or the mounted object of the device capable of communicating with the imaging device is in the first state or the second state as the imaging environment. 8. The control device according to any one of 7.
前記検出部は、
前記第2検出として、撮像装置の被装着体もしくは被写体、又は撮像装置と通信可能な機器の被装着体の非操作アクションの検出を行う
請求項1から請求項8のいずれかに記載の制御装置。
The detection unit is
9. The control device according to any one of claims 1 to 8, wherein as the second detection, a non-operating action of a mounted body of an imaging device or a subject, or a mounted body of a device capable of communicating with the imaging device is detected. .
前記検出部は、
前記第1検出として、撮像装置の被装着体もしくは被写体である人の操作アクションの検出を行う
請求項9に記載の制御装置。
The detection unit is
10. The control device according to claim 9, wherein as the first detection, an operation action of a person who is a subject or an object to which the imaging device is attached is detected.
前記指示部は、前記第1ステートの検出に基づいて、第1モードの撮像処理動作を指示し、
前記指示部が指示する前記第1モードの撮像処理動作は、前記第1ステートとされた期間の撮像画像データを第1のフレームレートで記録画像として保存するための処理動作を含み、
前記指示部が指示する前記第2モードの撮像処理動作は、前記第2ステートとされた期間の撮像画像データを前記第1のフレームレートよりは高いフレームレートである第2のフレームレートで記録画像として保存するための処理動作を含む
請求項1から請求項10のいずれかに記載の制御装置。
The instruction unit instructs an imaging processing operation in a first mode based on the detection of the first state,
The imaging processing operation in the first mode instructed by the instruction unit includes a processing operation for saving the captured image data in the period set to the first state as a recorded image at a first frame rate,
In the imaging processing operation in the second mode instructed by the instruction unit, the captured image data in the period in which the second state is set is recorded as an image at a second frame rate higher than the first frame rate. 11. A controller as claimed in any preceding claim, comprising a processing operation for saving as a .
前記指示部は、前記第1ステートの検出に基づいて、第1モードの撮像処理動作を指示し、
前記検出部は、前記第2ステートから第3ステートになることを検出する第3検出を行い、
前記指示部が指示する前記第1モードの撮像処理動作は、撮像画像データを記録画像として保存するための処理動作を含み、
前記指示部が指示する前記第2モードの撮像処理動作は、撮像画像データの記録を停止するための処理動作を含み、
前記指示部は、前記第3ステートの検出に基づいて撮像装置の電源オフを指示する
請求項1から請求項11のいずれかに記載の制御装置。
The instruction unit instructs an imaging processing operation in a first mode based on the detection of the first state,
The detection unit performs a third detection for detecting that the state changes from the second state to the third state,
The imaging processing operation in the first mode instructed by the instruction unit includes a processing operation for saving captured image data as a recorded image,
The imaging processing operation in the second mode instructed by the instruction unit includes a processing operation for stopping recording of captured image data,
12. The control device according to any one of claims 1 to 11, wherein the instructing unit instructs power off of the imaging device based on the detection of the third state.
前記検出部は、
撮像装置又は撮像装置と通信可能な機器に搭載されたセンサの検出信号に基づいて、前記第1検出、前記第2検出の一方又は両方を行う
請求項1から請求項12のいずれかに記載の制御装置。
The detection unit is
13. The method according to any one of claims 1 to 12, wherein one or both of the first detection and the second detection are performed based on a detection signal from an imaging device or a sensor mounted on a device capable of communicating with the imaging device. Control device.
前記検出部は、
撮像装置によって得られた撮像画像データに基づいて、前記第1検出、前記第2検出の一方又は両方を行う
請求項1から請求項12のいずれかに記載の制御装置。
The detection unit is
The control device according to any one of claims 1 to 12, wherein one or both of the first detection and the second detection are performed based on captured image data obtained by an imaging device.
前記検出部は、
前記第1検出として複数の検出条件を設定し、
前記第1検出で前記第1ステートを検出した際の検出条件種別に応じて、前記第2検出の検出条件を設定する
請求項1から請求項14のいずれかに記載の制御装置。
The detection unit is
setting a plurality of detection conditions as the first detection;
The control device according to any one of claims 1 to 14, wherein a detection condition for said second detection is set according to a detection condition type when said first state is detected in said first detection.
被装着体の行動種別の判定結果又は選択された行動種別に基づいて、第1検出処理、第2検出処理の一方又は両方についての検出条件を設定する処理と、
撮像環境が第1ステートになることを検出する前記第1検出処理と、
前記第1ステートを検出した後に、前記撮像環境が第2ステートになることを検出する前記第2検出処理と、
前記第2ステートの検出に基づいて、メモリにバファリングされていく撮像画像データのうち記録画像として保存する範囲を設定する処理動作を含む第2モードの撮像処理動作を指示する指示処理とを
制御装置が行う制御方法。
A process of setting detection conditions for one or both of the first detection process and the second detection process based on the determination result of the action type of the wearable body or the selected action type;
the first detection process for detecting that the imaging environment is in a first state;
the second detection process for detecting that the imaging environment changes to a second state after detecting the first state;
an instruction process for instructing an imaging processing operation in a second mode including a processing operation for setting a range to be saved as a recorded image among the captured image data buffered in the memory based on the detection of the second state;
A control method performed by a control device.
被装着体の行動種別の判定結果又は選択された行動種別に基づいて、第1検出処理、第2検出処理の一方又は両方についての検出条件を設定する処理と、
撮像環境が第1ステートになることを検出する前記第1検出処理と、
前記第1ステートを検出した後に、前記撮像環境が第2ステートになることを検出する前記第2検出処理と、
前記第2ステートの検出に基づいて、メモリにバファリングされていく撮像画像データのうち記録画像として保存する範囲を設定する処理動作を含む第2モードの撮像処理動作を指示する指示処理とを
制御装置に実行させるプログラム。
A process of setting detection conditions for one or both of the first detection process and the second detection process based on the determination result of the action type of the wearable body or the selected action type;
the first detection process for detecting that the imaging environment is in a first state;
the second detection process for detecting that the imaging environment changes to a second state after detecting the first state;
an instruction process for instructing an imaging processing operation in a second mode including a processing operation for setting a range to be saved as a recorded image among the captured image data buffered in the memory based on the detection of the second state;
A program to be run by a controller.
JP2020213806A 2020-12-23 2020-12-23 Control device, control method, program Active JP7156356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020213806A JP7156356B2 (en) 2020-12-23 2020-12-23 Control device, control method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020213806A JP7156356B2 (en) 2020-12-23 2020-12-23 Control device, control method, program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016005453A Division JP6819042B2 (en) 2016-01-14 2016-01-14 Imaging control device, imaging control method, program

Publications (2)

Publication Number Publication Date
JP2021061626A JP2021061626A (en) 2021-04-15
JP7156356B2 true JP7156356B2 (en) 2022-10-19

Family

ID=75381537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020213806A Active JP7156356B2 (en) 2020-12-23 2020-12-23 Control device, control method, program

Country Status (1)

Country Link
JP (1) JP7156356B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118526A (en) 2006-11-07 2008-05-22 Sony Corp Imaging apparatus and imaging method
JP2015082817A (en) 2013-10-24 2015-04-27 ソニー株式会社 Information processing device, recording medium and information processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118526A (en) 2006-11-07 2008-05-22 Sony Corp Imaging apparatus and imaging method
JP2015082817A (en) 2013-10-24 2015-04-27 ソニー株式会社 Information processing device, recording medium and information processing method

Also Published As

Publication number Publication date
JP2021061626A (en) 2021-04-15

Similar Documents

Publication Publication Date Title
JP6819042B2 (en) Imaging control device, imaging control method, program
KR102415637B1 (en) Electronic apparatus and method for controlling same
US11696016B2 (en) Imaging apparatus and display control method thereof
US7995794B2 (en) Remote control of an image capturing unit in a portable electronic device
US9088721B2 (en) Imaging apparatus and display control method thereof
US9179031B2 (en) Content acquisition apparatus and storage medium
JP7156356B2 (en) Control device, control method, program
KR20160057971A (en) Image processing apparatus, image processing method, and program
JP2014123853A (en) Imaging apparatus and image display device
JP5027069B2 (en) Imaging device
US10334160B2 (en) Imaging apparatus capable of automatic photography, image playback apparatus which plays back automatically photographed image, image playback method, and imaging method
WO2017169499A1 (en) Control device, control method and computer program
JP2017158144A (en) Imaging apparatus and control method of imaging apparatus
JP2018006797A (en) Electronic apparatus, electronic apparatus system, wearable apparatus, control program, still picture acquisition method and operation method for wearable apparatus
JP2010199926A (en) Image extraction device and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220919

R151 Written notification of patent or utility model registration

Ref document number: 7156356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151