JP2022140417A - 撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラム - Google Patents

撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラム Download PDF

Info

Publication number
JP2022140417A
JP2022140417A JP2022038688A JP2022038688A JP2022140417A JP 2022140417 A JP2022140417 A JP 2022140417A JP 2022038688 A JP2022038688 A JP 2022038688A JP 2022038688 A JP2022038688 A JP 2022038688A JP 2022140417 A JP2022140417 A JP 2022140417A
Authority
JP
Japan
Prior art keywords
image
user
recording
imaging
deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022038688A
Other languages
English (en)
Inventor
卓也 今泉
Takuya Imaizumi
隆 川上
Takashi Kawakami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to GB2210561.3A priority Critical patent/GB2611157A/en
Priority to US17/815,726 priority patent/US11849217B2/en
Priority to DE102022118923.6A priority patent/DE102022118923A1/de
Priority to CN202210909406.6A priority patent/CN115695961A/zh
Publication of JP2022140417A publication Critical patent/JP2022140417A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】 撮影中の手による撮影方向の変更を不要とし、その場の体験に集中しつつも、体験を記録した映像を簡便に取得することができる撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラムを提供する。【解決手段】 使用者の頭部以外の身体上に装着される撮像装置であって、前記使用者の頭部を観察することで、前記使用者の観察方向を検出する観察方向検出手段と、前記使用者の身体上に装着され、映像を撮影する撮像手段と、前記観察方向の検出結果を用いて記録方向を決定する記録方向決定手段と、前記撮像手段より撮影された映像のうち、前記記録方向決定手段により決定された前記記録方向の映像を記録する映像記録手段と、前記使用者の身体に対する前記撮像装置のズレを検出するズレ検出手段と、を有し、前記映像記録手段は前記ズレ検出手段が検出した前記撮像装置のズレに基づいた記録方向で映像を記録することを特徴とする。【選択図】 図4

Description

本発明は、撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラムに関し、特にアクションカメラとして使用する撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラムに関する。
従来からカメラの撮影は、撮影者がカメラを撮影する方向に向け続ける必要があるため、撮影者が撮影行為以外に手をまわせなかったり、その場に居る体験に意識を集中することが困難であったりした。
このような課題を解決する方法としては、頭部固定アクセサリーを用いてアクションカメラを頭部に固定して観察している方向を撮影することで、撮影者が撮影操作に手が取られることなく撮影する方法がある。また、全天球型撮影カメラで広範囲を撮影することで、体験中は体験に集中し、体験が終わってから撮影された全天球映像から必要な映像部分を切り出し編集し、体験したことの映像を残すという方法もある。
しかし、前者の方法は頭部にアクションカメラを固定することによる煩わしさなどによって、撮影者が体験に集中することが難しい場合がある。また、後者の方法も全天球映像から必要な個所を取り出し、編集する必要があるという点で撮影者の負担が大きいものであった。
そこで、特許文献1では、被写体を撮影する第1のカメラの他に、使用者を撮影する第2のカメラを使用する技術が開示されている。この技術では、第2のカメラで撮影された画像より使用者の移動方向や視線方向を算出し、第1のカメラの撮影方向を決め、使用者の嗜好や状態から被写体を推定して撮影する。
また、特許文献2では、撮影者(使用者)の観察方向を検出するためジャイロや加速度センサからなるセンサを頭部に装着し、体やバッグなどに別体で装着された撮像装置からセンサで検出された観察方向の撮影を行う画像録画システムが開示されている。
特開2007-74033号公報 特開2017-60078号公報
しかしながら、特許文献1では、第2のカメラは使用者と離れた位置から使用者を撮影するため、第2のカメラで撮影された画像より使用者の移動方向や視線方向を算出するには、第2のカメラに高い光学性能が必要となっていた。また、第2のカメラで撮影された画像の画像処理には高い演算処理能力が必要となってしまい、装置も大がかりなものとなってしまうという課題がある。
また、特許文献2では、使用者の観察方向を直接的に検知するため、使用者は頭部にセンサを装着する必要があり、頭部に何らかの装置を装着する際の煩わしさの解消ができない。また、センサがジャイロや加速度センサからなる場合、相対的な観察方向の検出には一定の精度が出せるが、絶対的な観察方向、特に水平回転方向の検出の精度は出せないため、実用化には課題があった。
そこで、本発明の目的は、撮影中に撮影者による撮影方向の変更を不要とし、その場の体験に集中しつつも、体験を記録した映像を簡便に取得することができる撮像装置を提供することである。また、同様に、撮影中に撮影者による撮影方向の変更を不要とし、その場の体験に集中しつつも、体験を記録した映像を簡便に取得することができるキャリブレーションシステム、及び撮像装置の制御方法並びにプログラムを提供する。
上記課題に鑑み、本発明に係る撮像装置は使用者の頭部以外の身体上に装着され、前記使用者の頭部を観察することで、前記使用者の観察方向を検出する観察方向検出手段と、前記使用者の身体上に装着され、映像を撮影する撮像手段と、前記観察方向の検出結果を用いて記録方向を決定する記録方向決定手段と、前記撮像手段より撮影された映像のうち、前記記録方向決定手段により決定された前記記録方向の映像を記録する映像記録手段と、前記使用者の身体に対する前記撮像装置のズレを検出するズレ検出手段と、を有し、前記映像記録手段は前記ズレ検出手段が検出した前記撮像装置のズレに基づいた記録方向で映像を記録することを特徴とする。
本発明によれば、撮影中に撮影者による撮影方向の変更を不要とし、その場の体験に集中しつつも、体験を記録した映像を簡便に取得することができる。
実施例1に係る撮像装置としての撮影・検出部を含むカメラ本体の外観図である。 カメラ本体を使用者が掛けた様子を示す図である。 カメラ本体におけるバッテリー部を図1Aの後方から見た図である。 カメラ本体と別体で構成される、実施例1に係る携帯機器としての表示装置の外観図である。 撮影・検出部を正面から見た図である。 カメラ本体における接続部のバンド部の形状を示す図である。 撮影・検出部を裏側からみた図である。 撮影・検出部を上からみた図である。 撮影・検出部の内部であって、カメラ本体における顔方向検出窓の下部に配置される、赤外検出処理装置の構成を示す図である。 カメラ本体を使用者が掛けた状態を使用者の左側面からみた図である。 バッテリー部の詳細を説明する図である。 実施例1に係るカメラ本体の機能ブロック図である。 カメラ本体のハードウェア構成を示すブロック図である。 表示装置のハードウェア構成を示すブロック図である。 カメラ本体及び表示装置において実行される、実施例1に係る撮影記録処理の概要を示すフローチャートである。 実施例1に係る、図7AのステップS100の準備動作処理のサブルーチンのフローチャートである。 実施例1に係る、図7AのステップS200の顔方向検出処理のサブルーチンのフローチャートである。 実施例1に係る、図7AのステップS300の記録方向・範囲決定処理のサブルーチンのフローチャートである。 実施例1に係る、図7AのステップS500の現像処理のサブルーチンのフローチャートである。 動画モードにおける図7AのステップS200~S500までの処理を説明するための図である。 顔方向検出窓から見える使用者の映像を示す図である。 顔方向検出窓から見える使用者の映像に室内にある蛍光灯が背景として映りこんだ場合を示す図である。 図8Bに示す使用者及びその背景としての蛍光灯を、赤外検出処理装置の赤外LEDを点灯させない状態で、顔方向検出窓を介して赤外検出処理装置のセンサで結像させた場合の映像を示す図である。 図8Bに示す使用者及びその背景としての蛍光灯を、赤外LEDを点灯させた状態で、顔方向検出窓を介して赤外検出処理装置のセンサで結像させた場合の映像を示す図である。 図8C,図8Dの映像から演算された差分映像を示す図である。 図8Eの差分映像の濃淡を、使用者の顔・首部に投光された赤外線の反射光線の光強度にスケールを合わせて調整した場合を示す図である。 図8Fに、使用者の身体の各部位を示す符号、及び首元位置と顎先位置を示す二重丸及び黒丸の符号を重ねた図である。 使用者の顔が右方向を向いている時に、図8Eと同様の方法で演算された差分映像を示す図である。 図8Hに首元位置と顎先位置を示す二重丸及び黒丸の符号を重ねた図である。 使用者が水平より33°上方に顔を向けている際に、顔方向検出窓から見える使用者の映像を示す図である。 使用者が水平より33°上方に顔を向けている際に、図8Eと同様の方法で演算された差分映像に、首元位置と顎先位置を示す二重丸及び黒丸の符号を重ねた図である。 赤外LEDの点灯タイミングを示したタイミングチャートである。 使用者の顔の上下方向の動きを説明する図である。 使用者が正面を向いている場合の、カメラ本体の撮影部により撮影された超広角映像における狙い視野を示す図である。 超広角映像から切り出された図11Aにおける狙い視野の映像を示す図である。 使用者が被写体Aを観察している場合の、超広角映像における狙い視野を示す図である。 超広角映像から切り出された図11Cにおける狙い視野の映像に対して、歪みやブレを補正した映像を示す図である。 使用者が被写体Aを図11Cより小さい画角設定値で観察している場合の、超広角映像における狙い視野を示す図である。 超広角映像から切り出された図11Eにおける狙い視野の映像に対して、歪みやブレを補正した映像を示す図である。 超広角映像における狙い視野の一例を示す図である。 超広角映像における、図12Aの狙い視野と同じ画角設定値であるが観察方向が異なる狙い視野の一例を示す図である。 超広角映像における、図12Aの狙い視野と同じ画角設定値であるが観察方向が異なる狙い視野の他の一例を示す図である。 超広角映像における、図12Cの狙い視野と同一観察方向であるが画角設定値が小さい狙い視野の一例を示す図である。 図12Aに示す狙い視野の周囲に予備領域を付与した例を示す図である。 図12Bに示す狙い視野の周囲に、図12Eの予備領域と同一防振レベルの予備領域を付与した例を示す図である。 図12Dに示す狙い視野の周囲に、図12Eの予備領域と同一防振レベルの予備領域を付与した例を示す図である。 カメラ本体での撮影前に、表示装置の表示部に表示される、動画モードの各種設定用のメニュー画面を示す図である。 図7AのステップS600の一次記録処理のサブルーチンのフローチャートである。 一次記録処理により生成される映像ファイルのデータ構造を示す図である。 図7AのステップS700の表示装置への転送処理のサブルーチンのフローチャートである。 図7AのステップS800の光学補正処理のサブルーチンのフローチャートである。 図17のステップS803において歪曲収差補正を実施した場合を説明するための図である。 図7AのステップS900の防振処理のサブルーチンのフローチャートである。 実施例2に係るキャリブレーション処理に用いられるキャリブレータの詳細を示す図である。 カメラ本体1及びキャリブレータ850において実行される、実施例2に係るキャリブレーション処理のフローチャートである。 使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3103において、キャリブレータの表示部に表示される画面を示す図である。 使用者が、図22Aにおける指示表示に示された指示に従ってキャリブレータを前方にかざしている様子を示す斜視図である。 図22Bの状態において撮影レンズが捉えた超広角画像の全体を示す模式図である。 図22Cに示す超広角画像の収差を補正した画像を示す模式図である。 使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3108において顔方向検出部が記録した顔方向画像を示す模式図である。 図21のステップS3107における判定方法を説明するための模式図である。 使用者の右手上方向のキャリブレーション動作時に、図21のステップS3103において、キャリブレータの表示部に表示される画面を示す図である。 使用者が、図23Aにおける指示表示に示された指示に従ってキャリブレータを右上にかざしている様子を示す斜視図である。 図23Bの状態において撮影レンズが捉えた超広角画像の全体を示す模式図である。 図23Cに示す超広角画像の収差を補正した画像を示す模式図である。 使用者の右手上方向のキャリブレーション動作時に、図21のステップS3108において顔方向検出部が記録した顔方向画像を示す模式図である。 カメラ本体1を装着した使用者を正面から見た模式図である。 カメラ本体1を装着した使用者を側面から見た模式図である。 実施例3におけるカメラ本体1の機能ブロック図である。 方向検出窓13から見える使用者の映像である。 撮影部40で撮影された超広角映像の有効投影部9122と、画像切り出し・現象処理部50で切り出す狙い視野9125を示した図である。 ズレ検出時のフローチャートである。 使用者が首を横に倒した(首を傾げた)状態を示した図である。 実施例4におけるカメラ本体1の機能ブロック図である。 顔方向検出窓13から見える使用者の映像である。 撮影部40で撮影された超広角映像の有効投影部9122と、画像切り出し・現象処理部50で切り出す狙い視野9125を示した図である。 顔ロール角検出から切り出し映像のロール補正までのフローチャートである。 カメラ本体1を装着した使用者を側面から見た模式図である。 横軸に時間、縦軸に顔の上下方向(ピッチ角)とった時の角度の検出結果の例を示した図である。 実施例6に係るキャリブレーション処理に用いられるキャリブレータ850の詳細を表す図である。 実施例6に係るキャリブレーション処理における、カメラ本体1の処理のフローチャートである。 実施例6に係るキャリブレーション処理における、キャリブレータ850の処理のフローチャートである。 キャリブレーション時の超広角画像の例を表す模式図である。 表示部803の表示状態を表す模式図である。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
(実施例1)
図1A~図1Dは、本実施例に係る撮像装置としての撮影・検出部10を含むカメラ本体1とこれと別体で構成される表示装置800からなるカメラシステムを説明するための図である。なお、本実施例では、カメラ本体1と表示装置800は別体である場合を例に示しているが、一体的に構成されていてもよい。また、カメラ本体1を首にかけて装着しているユーザを以下、使用者という。
図1Aは、カメラ本体1の外観図である。
図1Aにおいて、カメラ本体1は、撮影・検出部10、バッテリー部90、撮影・検出部10とバッテリー部90(電源手段)を接続する接続部80を備える。
撮影・検出部10は、顔方向検出窓13、スタートスイッチ14、ストップスイッチ15、撮影レンズ16、LED17、及びマイク19L,19Rを備える。
顔方向検出窓13は、撮影・検出部10に内蔵される、使用者の顔の各部の位置を検出するための赤外LED点灯回路21(図5:赤外線照射手段)から投光される赤外線やその反射光線を透過する。
スタートスイッチ14は、撮影を開始するためのスイッチである。
ストップスイッチ15は、撮影を止めるためのスイッチである。
撮影レンズ16は、撮影する被写体からの光線を撮影・検出部10の内部の固体撮像素子42(図5)に導く。
LED17は、撮影中であることを示したり、警告を示したりするLEDである。
マイク19R,19Lは、周辺の音を取り入れるマイクであり、マイク19Lは使用者の周辺左側(図1Aの向かって右側)の音を取り入れ、マイク19Rは使用者の周辺右側(図1Aの向かって左側)の音を取り入れる。
図1Bは、カメラ本体1を使用者が掛けた様子を示す図である。カメラ本体1はバッテリー部90が使用者の背中側に、撮影・検出部10が使用者の体の前側にくるように装着する。これにより、撮影・検出部10が使用者の鎖骨の前あたりに位置するようになる。この時、顔方向検出窓13は使用者の顎の下に位置する。顔方向検出窓13内には、後ほど図2Eで図示する赤外線集光レンズ26がある。撮影レンズ16の光軸(撮像光軸)と赤外線集光レンズ26の光軸(検出光軸)は異なる方向を向いており、後述する顔方向検出部20(顔方向検出手段)により顔の各部の位置から使用者の観察方向を検出する。これにより、後述する撮影部40(撮像手段)によるその観察方向の撮影が可能となっている。
体形の個人差や、洋服の違いによる設定位置の調整方法等については後述する。
また、このように撮影・検出部10を体の前面、バッテリー部90を背面に配置することで、重量を分散し、使用者の疲れの軽減や使用者が動いた際の遠心力等によるズレの抑制効果がある。
なお、本実施例では、撮影・検出部10が使用者の鎖骨の前あたりに位置するように装着される例を示したがこれに限定されない。すなわち、カメラ本体1は顔方向検出部20により使用者の観察方向が検出でき、且つ撮影部(撮像部)40によりその観察方向の撮影が可能であれば、カメラ本体1は使用者の頭部以外の身体上のいずれに装着されてもよい。
図1Cは、バッテリー部90を図1Aの後方から見た図である。
図1Cにおいて、バッテリー部90は、充電ケーブル挿入口91、調整用ボタン92L,92R、及び背骨よけ切り欠き93を備える。
充電ケーブル挿入口91は、不図示の充電ケーブルの挿入口であり、この充電ケーブルを介して外部電源から内部のバッテリー94の充電、および撮影・検出部10への給電が行われる。
調整用ボタン92L,92Rは、接続部80のバンド部82L,82Rの長さの調整用ボタンである。調整用ボタン92Lは、向かって左側のバンド部82Lを調節するためのボタンであり、調整用ボタン92Rは、向かって右側のバンド部82Rを調節するためのボタンである。なお、本実施例では、調整用ボタン92L,92Rでバンド部82L,82Rのそれぞれの長さを独立に調整するが、1つのボタンでバンド部82L,82Rの長さを同時に調整するようにしてもよい。以下、バンド部82L,82Rをバンド部82と総称する。
背骨よけ切り欠き93は、バッテリー部90が使用者の背骨部分に当たらない様に背骨部分を避けた切り欠き部である。人体の背骨の凸部を避けることで装着の不快感を減らすと同時に、使用中に本体が左右に移動することを防止している。
図1Dは、カメラ本体1と別体で構成される、実施例1に係る携帯機器としての表示装置800の外観図である。
図1Dにおいて、表示装置800は、ボタン802、表示部803、ボタン804、インカメラ805、顔センサ806、角速度センサ807、及び加速度センサ808を備える。また、図1Dにおいては不図示であるが、カメラ本体1との高速接続が可能な無線LANを備える。
ボタン802は、表示装置800の電源ボタンの機能を備えるボタンであり、長押しによる電源のONとOFFの操作を受け付け、短押しによるその他の処理タイミングの指示を受け付ける。
表示部803は、カメラ本体1で撮影した映像を確認したり、設定に必要なメニュー画面を表示したりできる。本実施例では、表示部803の上面に透明なタッチセンサも設けて有り、表示中の画面(例えばメニュー画面)に対するタッチによる操作を受け付ける。
ボタン804は、後述するキャリブレーション処理に用いられるキャリブレーションボタン854として機能するボタンである。
インカメラ805は、表示装置800を観察している人を撮影することが可能なカメラである。
顔センサ806は、表示装置800を観察している人の顔形状や観察方向を検出する。顔センサ806の具体的な構造は特に限定されないが、例えば構造光センサやToF(Time Of Flight)センサ、ミリ波レーダーなどの各種センサで実施することが可能である。
角速度センサ807は、表示装置800内部にあるため透視図の意味として点線で示されている。本実施例の表示装置800は後述するキャリブレータの機能も備えるため3次元のX,Y,Z方向の3方向のジャイロセンサが搭載されており、表示装置800の移動をジャイロデータとして検出する。
加速度センサ808は、表示装置800の姿勢を検出する。
なお、本実施例に係る表示装置800には、一般のスマートフォンが利用されており、そのスマートフォン内のファームウェアをカメラ本体1側のファームウェアに対応させることで、本発明にかかるカメラシステムを実施可能としている。但し、カメラ本体1側のファームウェアを表示装置800としてのスマートフォンのアプリケーションやOSに対応することによる本発明にかかるカメラシステムの実施も可能である。
図2A~図2Fは、撮影・検出部10を詳細に説明する図である。これ以降の図では既に説明した部分については同一の番号を付することで、同一機能を意味し、本明細書中の説明を省略する。
図2Aは、撮影・検出部10を正面から見た図である。
接続部80は、使用者の身体の右側(図2Aの向かって左側)にある右側接続部80Rと、使用者の身体の左側(図2Aの向かって右側)に構成される左側接続部80Lにおいて撮影・検出部10と接続する。接続部80は詳細には、撮影・検出部10との角度を保持する硬質素材の角度保持部81とバンド部82に分かれる。すなわち、右側接続部80Rは、角度保持部81Rとバンド部82Rを有し、左側接続部80Lは、角度保持部81Lとバンド部82Lを有する。
図2Bは、接続部80のバンド部82の形状を示す図である。本図では、バンド部82の形状を示すため、角度保持部81を透視させている。
バンド部82は、接続面83、及び電気ケーブル84を備える。
接続面83は、角度保持部81とバンド部82の接続面であり、真円ではない断面形状、ここでは楕円形状を有する。以下、接続面83のうち、カメラ本体1の装着時に使用者の身体の右側(図2Bの向かって左側)及び左側(図2Bの向かって右側)にそれぞれ左右対称に配置される接続面83を、右側接続面83R及び左側接続面83Lという。右側接続面83R及び左側接続面83Lは、ちょうどカタカナの「ハ」の字の様な形状となっている。すなわち、図2B向かって下方から上方に行くほど、右側接続面83R及び左側接続面83Lの間の距離が近くなる。これにより、カメラ本体1を使用者が掛けた場合に、接続部80の接続面83の長軸方向が使用者の体に沿う方向となるため、バンド部82が使用者の体に接するときに快適かつ、左右前後方向に撮影・検出部10が移動しにくいという利点がある。
電気ケーブル84(電力供給手段)は、バンド部82L内部に配線され、バッテリー部90と撮影・検出部10を電気的に接続するケーブルである。電気ケーブル84はバッテリー部90の電源を撮影・検出部10に接続したり、外部と電気信号の送受信をしたりする。
図2Cは、撮影・検出部10を裏側からみた図である。図2Cは、使用者の体に接する側、すなわち、図2Aの反対側からみた図のため、右側接続部80Rと左側接続部80Lの位置関係が図2Aとは逆になっている。
撮影・検出部10は、その裏側に、電源スイッチ11、撮影モードスイッチ12、及び胸部接続パッド18a,18bを備える。
電源スイッチ11は、カメラ本体1の電源のON/OFFを切り替える電源スイッチである。本実施例の電源スイッチ11は、スライドレバーの形のスイッチであるが、これに限定されない。例えば、電源スイッチ11は、プッシュ型のスイッチでもよいし、また、撮影レンズ16の不図示のスライドカバーと一体的に構成されたスイッチでもよい。
撮影モードスイッチ12(変更手段)は、撮影モードを変更するスイッチであり、撮影にかかわるモードを変更できる。本実施例では、撮影モードスイッチ12は、静止画モードや動画モードの他、後述する、表示装置800を用いて設定するプリ設定モードに切り替えることが可能である。
胸部接続パッド18a,18b(固定手段)は、撮影・検出部10が使用者の体に対して装着されるときに、使用者の体に当たる部分である。図2Aに示すように、撮影・検出部10は装着時に縦(上下)の全長より横(左右)の全長が長くなるように形作られており、胸部接続パッド18a,18bは、撮影・検出部10の左右の端部近傍に配置されている。このように配置されることで、カメラ本体1での撮影中の左右の回転ブレを抑制することが可能となる。また、胸部接続パッド18a,18bがあることで、電源スイッチ11や、撮影モードスイッチ12が身体に接触することを防ぐことができる。さらに、胸部接続パッド18a,18bは、長時間の撮影で撮影・検出部10の温度が上昇しても使用者の体にその熱が伝わることを防ぐ役目や、撮影・検出部10の角度調整の役目も担っている。
図2Dは、撮影・検出部10を上からみた図である。図2Dに示すように、撮影・検出部10の上面の中央部に、顔方向検出窓13が設けられ、また、胸部接続パッド18a,18bは、撮影・検出部10から突出している。
図2Eは、撮影・検出部10の内部であって、顔方向検出窓13の下部に配置される、赤外検出処理装置27の構成を示す図である。赤外検出処理装置27は、赤外LED22、及び赤外線集光レンズ26を備える。赤外LED22は、使用者に向けて赤外線23(図5)を投光する。赤外線集光レンズ26は、赤外LED22からの赤外線23の投光時に使用者から反射してくる反射光線25(図5)を赤外検出処理装置27の図示しないセンサに結像させるレンズである。
図2Fは、カメラ本体1を使用者が掛けた状態を使用者の左側面からみた図である。角度調節ボタン85Lは、角度保持部81Lに設けられるボタンであり、撮影・検出部10の角度調節の際に用いられる。なお、本図においては図示していないが、反対側面にある角度保持部81Rの内部にも、角度調節ボタン85Lと対称的な位置に角度調節ボタン85Rが設定されている。以下、角度調節ボタン85R,85Lを総称する際は、角度調節ボタン85という。角度調節ボタン85は、図2A,図2C、図2Dでも見える位置にあるが、説明の単純化のために省略している。
使用者は、角度調節ボタン85を押しながら角度保持部81を図2F向かって上下に動かすことで撮影・検出部10と角度保持部81の角度を変更することが可能となる。また、胸部接続パッド18a,18bは、その突出角度の変更が可能である。撮影・検出部10は、この二つの角度変更部材(角度調節ボタン85及び胸部接続パッド18a,18b)の働きにより、使用者の胸位置形状の個人差に対して水平を撮影レンズ16の向きを水平に調節することが可能である。
図3は、バッテリー部90の詳細を説明する図である。
図3(a)は、バッテリー部90を背面から一部透視表示した図である。図3(a)に示すように、バッテリー部90はその重量バランスを取るため、内部に左バッテリー94Lと右バッテリー94R(以下、バッテリー94とも総称する)の2個が対称的に搭載されている。このようにバッテリー部90の中央部に対してバッテリー94を対照的に配置することで、左右の重量バランスをあわせ、カメラ本体1の位置ズレを防止している。なお、バッテリー部90は、バッテリーを1つのみ搭載する構成としても良い。
図3(b)は、バッテリー部90を上部からみた図である。本図においても、バッテリー94が透視で示されている。図3(b)に示すように、背骨よけ切り欠き93とバッテリー94の関係がわかる。このように、背骨よけ切り欠き93の両サイドにバッテリー94を対照的に配置することにより、バッテリー部90による使用者への重量的な負担を軽減することが可能である。
図3(c)は、バッテリー部90を裏側からみた図である。図3(c)は、使用者の体に接する側、すなわち、図3(a)の反対側からみた図である。図3(c)に示すように、背骨よけ切り欠き93は、使用者の背骨に沿って中央に設けられている。
図4は、カメラ本体1の機能ブロック図である。詳細は後述するので、ここでは図4を用いてカメラ本体1で実行される大まかな処理の流れを説明する。
図4において、カメラ本体1は、顔方向検出部20、記録方向・画角決定部30、撮影部40、画像切り出し・現像処理部50、一次記録部60、送信部70、及び他制御部111を備える。これらの機能ブロックは、カメラ本体1の全体制御を行う全体制御CPU101(図5)の制御により実行される。
顔方向検出部20(観察方向検出手段)は、先に出てきた赤外LED22や赤外検出処理装置27などにより実行される機能ブロックであり、顔方向を検出して観察方向を類推し、これを記録方向・画角決定部30に渡す。
記録方向・画角決定部30(記録方向決定手段)は、顔方向検出部20で推定された観察方向に基づいて各種演算を行い、後述する撮影部40から出力される撮影データを切り出す位置や範囲の情報を決定し、この情報を画像切り出し・現像処理部50に渡す。
撮影部40は、後述する撮像ドライバー41、固体撮像素子42、撮像信号処理回路43(図5)などにより構成される。撮影部40では被写体からの光線を固体撮像素子42の上に結像し、光電変換によって得られた信号を撮像信号処理回路43に出力する。そして、撮像信号処理回路43が固体撮像素子42からの信号をもとに撮影データを生成し、その撮影データを画像切り出し・現像処理部50に渡す。
画像切り出し・現像処理部50(現像手段)は、記録方向・画角決定部30からの情報を用いて、撮影部40から渡された撮影データを切り出して現像することで、使用者が見ている方向の映像データのみを一次記録部60に渡す。
一次記録部60は、一次メモリ103(図5)などにより構成される機能ブロックであり、映像データを記録し、必要なタイミングで送信部70に渡す。
送信部70(送信手段)は、あらかじめ決められた通信相手である、表示装置800(図1D)、キャリブレータ850、及び簡易表示装置900と無線接続し、これらに対して通信を行う。
表示装置800は、高速接続可能な無線LAN(以下「高速無線」という)で送信部70と接続可能な表示装置である。ここで本実施例では、高速無線に、IEEE802.11ax(WiFi 6)規格に対応する無線通信を利用するが、他の規格、例えばWiFi 4規格やWiFi 5規格に対応する無線通信を利用してもよい。また、表示装置800はカメラ本体1専用に開発した機器でも良いし、一般的なスマートフォンや、タブレット端末等でも良い。
なお、送信部70と表示装置800の接続には、小電力無線を用いてもよいし、高速無線と小電力無線の両方で接続したり、切り替えて接続したりしても良い。本実施例では、データ量の多いものは高速無線で伝送し、軽量のデータや、伝送に時間がかかっても良いデータは、小電力無線で伝送する。ここで本実施例では、小電力無線に、Bluetooth(登録商標)を利用するが、NFC(Near Field Communication)等の他の近距離(短距離)無線通信を用いてもよい。
キャリブレータ850は、カメラ本体1の初期設定時や、個別設定を行う機器であり、表示装置800と同様に高速無線で送信部70と接続可能な機器である。キャリブレータ850についての詳細は後述する。また、表示装置800がこのキャリブレータ850としての機能を兼ね備えても良い。
簡易表示装置900は、例えば小電力無線でしか送信部70と接続できない表示装置である。
簡易表示装置900は、送信部70との間で、時間的な制約によりデータ量の多いものは伝送できないが、撮影開始・停止のタイミング伝送や、構図確認程度の画像確認などが行える表示装置である。また、簡易表示装置900は、表示装置800と同様、カメラ本体1専用に開発した機器でも良いし、スマートウォッチなどであっても良い。
図5は、カメラ本体1のハードウェア構成を示すブロック図である。また、図1A~図1C等を用いて説明した構成・機能については、同じ番号を用い詳細説明は省略する。
図5においてカメラ本体1は、全体制御CPU101、電源スイッチ11、撮影モードスイッチ12、顔方向検出窓13、スタートスイッチ14、ストップスイッチ15、撮影レンズ16、及びLED17を備える。
カメラ本体1はまた、顔方向検出部20(図4)を構成する赤外LED点灯回路21、赤外LED22、赤外線集光レンズ26、及び赤外検出処理装置27を備える。
また、カメラ本体1は撮影部40(図5)や、小電力無線ユニット71及び高速無線ユニット72からなる送信部70(図5)を備える。
撮影部40は撮像ドライバー41、固体撮像素子42、撮像信号処理回路43などを備えている。撮像ドライバー41は、タイミングジェネレータ等を含み、撮像にかかわる各部に各種タイミング信号を生成・出力し、撮影駆動する。固体撮像素子42は、図1Aを用いて説明した撮影レンズ16から投影された被写体像を光電変換して得られた信号を撮像信号処理回路43に出力する。撮像信号処理回路43は、固体撮像素子42からの信号に対してクランプなどの処理やA/D変換などの処理を行なって生成した撮影データを全体制御CPU101に出力する。
なお、カメラ本体1には、本実施例では撮影部40は1つしか設けられていないが2以上の撮影部40を設け、3D映像の撮影をしたり、1つの撮影部40で取得できる画角より広角の映像の撮影をしたり、複数方向の撮影をしたりしてもよい。
カメラ本体1はまた、大容量不揮発性メモリ51、内蔵不揮発性メモリ102、及び一次メモリ103等の各種メモリを備える。
さらに、カメラ本体1は、音声処理部104、スピーカー105、振動体106、角速度センサ107、加速度センサ108、及び各種スイッチ110を備える。
全体制御CPU101は、図2Cを用いて前述した電源スイッチ11などが接続され、このカメラ本体1の制御を行う。図4の記録方向・画角決定部30、画像切り出し・現像処理部50、及び他制御部111は、全体制御CPU101自身によって構成される。
赤外LED点灯回路21は、図2Eを用いて前述した赤外LED22の点灯・消灯の制御を行い、赤外LED22から使用者に向けた赤外線23の投光を制御する。
顔方向検出窓13は、可視光カットフィルタで構成され、可視光線はほぼ透過できないが、赤外域の光である赤外線23やその反射光線25は十分透過する。
赤外線集光レンズ26は、反射光線25を集光するレンズである。
赤外検出処理装置27(赤外線検出手段)は、赤外線集光レンズ26で集光された反射光線25を検出するセンサを有する。このセンサは、集光された反射光線25をセンサ上で結像し、センサデータに変換して、全体制御CPU101へ渡す。
図1Bに示すようにカメラ本体1を使用者が掛けている場合、顔方向検出窓13は使用者の顎の下側に位置する。このため、赤外LED点灯回路21から投光された赤外線23は、図5に示すように顔方向検出窓13を透過して使用者の顎付近である赤外線照射面24に照射される。また、赤外線照射面24で反射した赤外線23は、反射光線25となり、顔方向検出窓13を透過し、赤外線集光レンズ26によって、赤外検出処理装置27にあるセンサに集光される。
各種スイッチ110は、図1A~図1C等では不図示である。詳細は省略するが、本実施例と関係がない機能を実行するためのスイッチである。
内蔵不揮発性メモリ102は、フラッシュメモリなどが用いられ、全体制御CPU101の起動プログラムや、各種プログラムモードの設定値が記憶されている。本実施例では、観察視野(画角)の変更や防振制御の効果レベルを設定可能であり、そのような設定値についても記録する。
一次メモリ103は、RAMなどで構成され、処理中の映像データを一時的に記憶したり、全体制御CPU101の演算結果を一時的に記憶したりする。
大容量不揮発性メモリ51は、一次画像データの記録または読み出しを行う。本実施例では、説明の簡単化のため、大容量不揮発性メモリ51が脱着機構は無い半導体メモリである場合について説明を行うが、これに限定されない。例えば、大容量不揮発性メモリ51は、SDカードなどの脱着可能な記録媒体で構成してもよいし、内蔵不揮発性メモリ102と併用しても良い。
小電力無線ユニット71は、小電力無線で表示装置800、キャリブレータ850、及び簡易表示装置900との間でデータのやり取りを行う。
高速無線ユニット72は、高速無線で表示装置800、キャリブレータ850、及び簡易表示装置900との間でデータのやり取りを行う。
音声処理部104は、外部の音(アナログ信号)を収音する図1A向かって右側のマイク19L、同図向かって左側のマイク19Rを備え、収音されたアナログ信号を処理し音声信号を生成する。
LED17、スピーカー105及び振動体106は、光を発したり、音を発したり、振動したりすることで使用者に警告を行う警告手段である。これらの警告手段を用いてカメラ本体1の状態を使用者に対して通達したり警告したりする。
角速度センサ107は、ジャイロ等を用いたセンサであり、カメラ本体1自体の移動をジャイロデータとして検出する。
加速度センサ108は、撮影・検出部10の姿勢を検出する。
なお、角速度センサ107及び加速度センサ108は、撮影・検出部10に内蔵されるものであり、後述する表示装置800内にもこれとは別体の角速度センサ807及び加速度センサ808が設けられている。
図6は、表示装置800のハードウェア構成を示すブロック図である。図1Dを用いて説明した箇所は説明の簡単化のため、同一の符号を用い説明を省略する。
図6において、表示装置800は、表示装置制御部801、ボタン802、表示部803、ボタン804、インカメラ805、顔センサ806、角速度センサ807、加速度センサ808、撮像信号処理回路809、及び各種スイッチ811を備える。
また、表示装置800は、内蔵不揮発性メモリ812、一次メモリ813、大容量不揮発性メモリ814、スピーカー815、振動体816、LED817、音声処理部820、小電力無線ユニット871、及び高速無線ユニット872を備える。
表示装置制御部801は、CPUにより構成され、図1Dを用いて説明したボタン802や顔センサ806等が接続され、表示装置800の制御を行う。
撮像信号処理回路809は、カメラ本体1内部の撮像ドライバー41、固体撮像素子42、撮像信号処理回路43と同等機能を担う。撮像信号処理回路809で出力されたデータは、表示装置制御部801内で処理される。このデータの処理内容については後述する。
各種スイッチ811は、図1Dでは不図示である、詳細は省略するが、本実施例と関係がない機能を実行するためのスイッチである。
角速度センサ807は、ジャイロ等を用いたセンサであり、表示装置800自体の移動を検出する。
加速度センサ808は、表示装置800自体の姿勢を検出する。
なお、上述の通り、角速度センサ807及び加速度センサ808は、表示装置800に内蔵されており、先に説明したカメラ本体1にある角速度センサ107及び加速度センサ108とは同様の機能は有するが別体である。
内蔵不揮発性メモリ812は、フラッシュメモリなどが用いられ、表示装置制御部801の起動プログラムや、各種プログラムモードの設定値が記憶されている。
一次メモリ813は、RAMなどで構成され、処理中の映像データを一時的に記憶したり、撮像信号処理回路809の演算結果を一時的に記憶したりする。
大容量不揮発性メモリ814は、表示装置800の画像データを記録または読み出す。本実施例では、大容量不揮発性メモリ814は、SDカードの様に脱着可能なメモリで構成される。なお、カメラ本体1にある大容量不揮発性メモリ51のように脱着できないメモリで構成してもよい。
スピーカー815、振動体816及びLED817は、音を発したり、振動したり、光を発したりすることで、表示装置800の状態を使用者に対して通達したり、警告したりする。
音声処理部820は、外部の音(アナログ信号)を収音する左マイク819L、右マイク819Rを備え、収音されたアナログ信号を処理し音声信号を生成する。
小電力無線ユニット871は、小電力無線でカメラ本体1との間でデータのやり取りを行う。
高速無線ユニット872は、高速無線でカメラ本体1との間でデータのやり取りを行う。
顔センサ806(顔検出手段)は、赤外LED点灯回路821、赤外LED822、赤外線集光レンズ826、及び赤外検出処理装置827を備える。
赤外LED点灯回路821は、図5の赤外LED点灯回路21と同様の機能を有する回路であり、赤外LED822の点灯・消灯の制御を行い、赤外LED822から使用者に向けた赤外線823の投光を制御する。
赤外線集光レンズ826は、赤外線823の反射光線825を集光するレンズである。
赤外検出処理装置827は、赤外線集光レンズ826で集光された反射光線を検出するセンサを有する。このセンサは、集光された反射光線825をセンサデータに変換して、表示装置制御部801へ渡す。
図1Dに示す顔センサ806を使用者に向けると、図6に示すように、赤外LED点灯回路821から投光された赤外線823が、使用者の顔全体である赤外線照射面824に照射される。また、赤外線照射面824で反射した赤外線823は、反射光線825となり、赤外線集光レンズ826によって、赤外検出処理装置827にあるセンサに集光される。
その他機能部830は、詳細は省略するが、本実施例と関係がない機能であって、電話機能やその他センサなどスマートフォンならではの機能を実行する。
以下、カメラ本体1及び表示装置800の使い方について説明する。
図7Aは、カメラ本体1及び表示装置800において実行される、本実施例に係る撮影記録処理の概要を示すフローチャートである。
説明の補助として、図7Aでは各ステップの右側にそのステップが図4に示すどの機器で行われているかが記載されている。すなわち、図7AのステップS100~S700はカメラ本体1にて実行され、図7AのステップS800~S1000は表示装置800にて実行される。
ステップS100では、電源スイッチ11がONとなり、カメラ本体1に電源投入がされると、全体制御CPU101は、起動して内蔵不揮発性メモリ102から起動プログラムを読み出す。その後、全体制御CPU101は、カメラ本体1の撮影前の設定を行う準備動作処理を実行する。準備動作処理の詳細は図7Bを用いて後述する。
ステップS200では、顔方向検出部20が顔方向を検出することで、観察方向を類推する顔方向検出処理を実行する。顔方向検出処理の詳細は図7Cを用いて後述する。本処理は、所定のフレームレートで実行される。
ステップS300では、記録方向・画角決定部30が記録方向・範囲決定処理を実行する。記録方向・範囲決定処理の詳細は図7Dを用いて後述する。
ステップS400では、撮影部40が撮影を行い、撮影データを生成する。
ステップS500では、画像切り出し・現像処理部50がステップS400で生成された撮影データに対し、ステップS300で決定された記録方向、画角情報を用いて、撮影データの切り出し、その範囲の現像処理を実行する。現像処理の詳細は図7Eを用いて後述する。
ステップS600では、ステップS500で現像されたデータを、一次記録部60(映像記録手段)が一次メモリ103に映像データとして保存する一次記録処理を実行する。一次記録処理の詳細は図14を用いて後述する。
ステップS700では、送信部70がステップS600で一次記録された映像データを指定タイミングにて表示装置800に対して無線にて送信する表示装置800への転送処理を実行する。表示装置800への転送処理の詳細は図16を用いて後述する。
ステップS800以降のステップは、表示装置800にて実行される。
ステップS800では、表示装置制御部801が、ステップS700でカメラ本体1から転送された映像に対し光学補正を行う光学補正処理を実行する。光学補正処理の詳細は図17を用いて後述する。
ステップS900では、表示装置制御部801が、ステップS800で光学補正が行われた映像に対し防振処理を行う。防振処理の詳細は図19を用いて後述する。
なお、ステップS800とステップS900の順番を逆にしても良い。つまり、先に映像の防振補正を行い、あとから光学補正を行なっても良い。
ステップS1000では、表示装置制御部801(動画記録手段)が、ステップS800,S900における光学補正処理、防振処理を完了した映像を大容量不揮発性メモリ814に記録する二次記録を行い、本処理を終了する。
次に図7B~図7Fを用いて、図7Aで説明した各ステップのサブルーチンについて処理の順番とともに他図なども用いながら詳細に説明する。
図7Bは、図7AのステップS100の準備動作処理のサブルーチンのフローチャートである。以下本処理を、図2や図5に図示した各箇所を使って説明する。
ステップS101では、電源スイッチ11がONか否かを判定する。電源がOFFのままの場合は待機し、ONとなるとステップS102へ進む。
ステップS102では、撮影モードスイッチ12で選択されているモードを判定する。判定の結果、撮影モードスイッチ12で選択されているモードが「動画」モードである場合は、ステップS103に進む。
ステップS103では、動画モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS104に進む。ここで動画モードの各種設定には、画角設定値ang(本実施例では90°に事前設定される)や「強」「中」「切」などで指定される防振レベルが含まれる。
ステップS104では、動画モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。
ステップS102の判定の結果、撮影モードスイッチ12で選択されているモードが「静止画」モードである場合は、ステップS106に進む。
ステップS106では、静止画モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS107に進む。ここで静止画モードの各種設定には、画角設定値ang(本実施例では45°に事前設定される)や「強」「中」「切」などで指定される防振レベルが含まれる。
ステップS107では、静止画モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。
ステップS102の判定の結果、撮影モードスイッチ12で選択されているモードが「プリ設定」モードである場合は、ステップS108に進む。ここでプリ設定モードとは、表示装置800などの外部機器からカメラ本体1に対して撮影モードの設定がなされるモードであり、動画、静止画モードを含む第三番目の撮影モードである。プリ設定モードはカスタム撮影のモードと置き換えて考えてもよい。
プリ設定の内容としては、画角の変更だけでなく、「強」「中」「切」などで指定される防振レベルの変更や、本実施例では説明しない音声認識の設定なども含められる。
ステップS108では、プリ設定モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS109に進む。ここでプリ設定モードの各種設定には、画角設定値angや「強」「中」「切」などで指定される防振レベルが含まれる。
ステップS109ではプリ設定モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。
ここで、図13を用いてステップS103で読み出した動画モードの各種設定について説明する。
図13は、カメラ本体1での撮影前に、表示装置800の表示部803に表示される、動画モードの各種設定用のメニュー画面を示す図である。なお、図1Dと同じ箇所については同一の符号を用いて説明を省略する。なお、表示部803はタッチパネル機能を有しており、この後の説明はスワイプなどの動作を含むタッチ動作で機能するものとして説明する。
図13において、メニュー画面には、プレビュー画面831、ズームレバー832、録画開始・停止ボタン833、スイッチ834、電池残量表示835、ボタン836、レバー837、及びアイコン表示部838を備える。
プレビュー画面831は、カメラ本体1で撮影された映像の確認ができ、ズーム量や画角の確認ができる。
ズームレバー832は、左右にシフトすることでズーム設定ができる操作部である。本実施例では45°、90°、110°、130°の4つの値が画角設定値angとして設定できる場合について説明するが、ズームレバー832によりこれらの値以外も画角設定値angとして設定できるようにしてもよい。
録画開始・停止ボタン833は、スタートスイッチ14とストップスイッチ15の機能を兼ね備えるトグルスイッチである。
スイッチ834は、防振の「切」「入」を切り替えるスイッチである。
電池残量表示835は、カメラ本体1の電池残量を表示する。
ボタン836は、その他のモードに入るボタンである。
レバー837は、防振強度を設定するレバーである。本実施例では、防振強度として設定できるのは「強」「中」のみだが、他の防振強度、例えば「弱」なども設定できるようにしてもよい。また、無段階に防振強度を設定できるようにしても良い。
アイコン表示部838は、プレビュー用の複数のサムネイルアイコンを表示する。
図7Cは、図7AのステップS200の顔方向検出処理のサブルーチンのフローチャートである。本処理の詳細を説明する前に、赤外線投光による顔方向の検出方法について図8A~図8Kを用いて解説する。
図8Aは、顔方向検出窓13から見える使用者の映像を示す図である。
図8Aの映像は、顔方向検出窓13に可視光カットフィルタ成分が無く、可視光を十分透過し、且つ赤外検出処理装置27が可視光用撮像素子だった場合に、その可視光用撮像素子において撮影される映像と同一である。
図8Aの映像には、使用者の鎖骨上の首前部201、顎の付け根202、顎先203、鼻を含む顔204が映っている。
図8Bは、顔方向検出窓13から見える使用者の映像に室内にある蛍光灯が背景として映りこんだ場合を示す図である。
図8Bの映像には、使用者の周囲にある複数の蛍光灯205が映っている。この様に使用条件により赤外検出処理装置27には様々な背景等が映り込むため、赤外検出処理装置27からのセンサデータから、顔方向検出部20や全体制御CPU101が顔部の映像を切り分けることが困難になる。昨今は、AI等の利用によりこういった映像を切り分ける技術もあるが、全体制御CPU101に高い能力が求められ、携帯機器であるカメラ本体1には適さない。
なお、実際には顔方向検出窓13には可視光カットフィルタで構成されているので可視光はほぼ透過しない。したがって、赤外検出処理装置27の映像は、図8A,図8Bのような映像にはならない。
図8Cは、図8Bに示す使用者及びその背景としての蛍光灯を、赤外LED22を点灯させない状態で、顔方向検出窓13を介して赤外検出処理装置27のセンサで結像させた場合の映像を示す図である。
図8Cの映像では、使用者の首や顎は暗くなっている。一方、蛍光灯205は、可視光線だけでなく赤外線成分も持っているためにやや明るく映っている。
図8Dは、図8Bに示す使用者及びその背景としての蛍光灯を、赤外LED22を点灯させた状態で、顔方向検出窓13を介して赤外検出処理装置27のセンサで結像させた場合の映像を示す図である。
図8Dの映像では、赤外LED22の赤外光が反射しているため、使用者の首や顎が明るくなっている。一方、蛍光灯205周辺の明るさなどは図8Cと比較して変わっていない。
図8Eは、図8C,図8Dの映像から演算された差分映像を示す図である。使用者の顔が浮かび上がっていることがわかる。
このように、全体制御CPU101(映像取得手段)は、赤外LED22の点灯時及び消灯時のそれぞれにおいて赤外検出処理装置27のセンサで結像された映像の差を演算することで、使用者の顔が抽出された差分映像(以下、顔映像ともいう)を得る。
本実施例の顔方向検出部20は赤外線反射強度を赤外検出処理装置27で2次元画像として抽出することにより顔映像を取得する方式を採用している。赤外検出処理装置27のセンサは、一般的な撮像素子と同様の構造を採用しており、顔映像を1フレームずつ取得している。そのフレーム同期を取る垂直同期信号(以下、V信号という)は赤外検出処理装置27で生成され全体制御CPU101に出力される。
図9は、赤外LED22の点灯・消灯のタイミングを示したタイミングチャートである。
図9(a)は、赤外検出処理装置27でV信号が生成されるタイミングを示す。V信号がHiになることで、フレーム同期及び赤外LED22の点灯・消灯のタイミングが計られる。
図9(a)では、t1が1回目の顔画像取得期間、t2が2回目の顔画像取得期間を示している。図9(a),(b),(c),(d)は、その横軸の時間軸が同一となるように記載されている。
図9(b)は、赤外検出処理装置27のセンサから出力される像信号のH位置を縦軸で表す。像信号のH位置が、図9(b)に示すように、V信号と同期するよう、赤外検出処理装置27はそのセンサの動きを制御する。なお、赤外検出処理装置27のセンサは、上述した通り、一般的な撮像素子と同様の構造を採用しており、その動きは公知であるため詳細の制御については割愛する。
図9(c)は、全体制御CPU101から赤外LED点灯回路21に出力されるIR-ON信号のHi及びLowの切り替えタイミングを示す。IR-ON信号のHi及びLowの切り替えは、図9(c)に示すように、V信号と同期するよう、全体制御CPU101が制御する。具体的には、全体制御CPU101は、t1の期間中は、LowのIR-ON信号を赤外LED点灯回路21に出力し、t2の期間中は、HiのIR-ON信号を赤外LED点灯回路21に出力する。
ここで、IR-ON信号がHiの期間中は、赤外LED点灯回路21は赤外LED22を点灯し、赤外線23が使用者に投光される。一方、IR-ON信号がLowの期間中は、赤外LED点灯回路21は赤外LED22を消灯する。
図9(d)は、赤外検出処理装置27のセンサから全体制御CPU101に出力される撮像データである。縦方向が信号強度であり、反射光線25の受光量を示している。つまりt1の期間中は、赤外LED22は消灯しているので使用者の顔部分からの反射光線25は無い状態であり、図8Cの様な撮像データが得られる。一方、t2の期間中は、赤外LED22は点灯しているので、使用者の顔部分からは反射光線25がある状態であり、図8Dの様な撮像データが得られる。このため、図9(d)に示すように、t2の期間中の信号強度は、t1の期間中の信号強度と比べて使用者の顔部分からの反射光線25の分だけ強度が上がる。
図9(e)は、図9(d)のt1,t2のそれぞれの期間中の撮像データの差分を取ったものであり、図8Eの様な、使用者の顔からの反射光線25の成分のみが抽出された撮像データが得られる。
上述の図8C~図8E,図9を用いて説明した動作を含めた上での、ステップS200における顔方向検出処理を図7Cに示す。
まず、ステップS201で、赤外検出処理装置27から出力されたV信号が、t1の期間が開始したタイミングV1となったとき、ステップS202に進む。
ついでステップS202で、IR-ON信号をLowに設定し、赤外LED点灯回路21に出力する。これにより、赤外LED22は消灯する。
ステップS203で、t1の期間中において赤外検出処理装置27から出力された1フレーム分の撮像データを読み出し、そのデータをFrame1として一次メモリ103に一時保存する。
ステップS204で、赤外検出処理装置27から出力されたV信号が、t2の期間が開始したタイミングV2となったとき、ステップS203に進む。
ステップS205で、IR-ON信号をHiに設定し、赤外LED点灯回路21に出力する。これにより、赤外LED22は点灯する。
ステップS206で、t2の期間中において赤外検出処理装置27から出力された1フレーム分の撮像データを読み出し、そのデータをFrame2として一次メモリ103に一時保存する。
ステップS207で、IR-ON信号をLowに設定し、赤外LED点灯回路21に出力する。これにより赤外LED22は消灯する。
ステップS208で、一次メモリ103からFrame1及びFrame2を読み出し、Frame2からFrame1を引いた差分であり、図9(e)の使用者の反射光線25成分の光強度Fnを演算する。これは一般的に「黒引き」と呼ばれる処理にあたる。
ステップS209で、光強度Fnより首元位置(首回転中心)を抽出する。
まず、全体制御CPU101(分割手段)は、光強度Fnを基に、顔映像を、図8Fを用いて説明する複数の距離エリアに分割する。
図8Fは、使用者の顔・首部の各部位について光量の分布をみるため、図8Eの差分映像の濃淡を、使用者の顔・首部に投光された赤外線23の反射光線25の光強度にスケールを合わせて調整した場合を示す図である。
図8F(ア)は、説明の簡単化のため、図8Eの顔映像における反射光線25の光強度の分布を領域分けしてグレーの段階で示した図である。使用者の首の中央部から顎先に抜ける方向に説明用にXf軸を取っている。
図8F(イ)は、横軸は図8F(ア)のXf軸上の光強度を示し、縦軸はXf軸を示す。横軸は右方向に行くほど強い光強度を示している。
図8F(ア)において、顔映像は、光強度に応じた6つの領域(距離エリア)211~216に分けられている。
領域211は、一番光強度が強い領域であり、グレーの段階として、白色で示されている。
領域212は、領域211より少しだけ光強度が落ちる領域であり、グレーの段階として、かなり明るいグレー色で示されている。
領域213は、領域212よりさらに光強度が落ちる領域であり、グレーの段階として、明るいグレー色で示されている。
領域214は、領域213よりさらに光強度が落ちる領域であり、グレーの段階として、中間のグレー色で示されている。
領域215は、領域214よりさらに光強度が落ちる領域であり、グレーの段階として、やや暗めのグレー色で示されている。
領域216は、最も光強度が弱い領域であり、グレーの段階としては、最も暗いグレーとなっている。領域216より上方向は光強度の無い黒色となっている。
この光強度について、以下、図10を用いて詳細に解説する。
図10は、使用者の顔の上下方向の動きを説明する図であり、使用者の左横方向より観察した状態を示す。
図10(a)は、使用者が正面を向いている様子を示す図である。使用者の鎖骨前方に撮影・検出部10がある。また、撮影・検出部10の上部にある顔方向検出窓13から、赤外LED22の赤外線23が使用者頭部の下部に照射されている。顔方向検出窓13から使用者の鎖骨上の首の付け根200までの距離をDn、顔方向検出窓13から顎の付け根202までの距離をDb、顔方向検出窓13から顎先203までの距離をDcとすると、Dn,Db,Dcの順に距離が遠くなっていることがわかる。光強度は距離の2乗に反比例するので、赤外線照射面24からの反射光線25が赤外検出処理装置27のセンサに結像された際の光強度は、首の付け根200、顎の付け根202、顎先203の順に弱くなる。また、顔方向検出窓13からの距離がDcよりさらに遠い位置にある、鼻を含む顔204については、その光強度はさらに暗くなることがわかる。すなわち、図10(a)のような場合、図8Fで示した光強度の分布となる映像が取得されることがわかる。
なお、使用者の顔方向が検出できれば顔方向検出部20の構成は、本実施例に示す構成に限定されない。例えば、赤外LED22(赤外線パターン照射手段)より赤外線パターンを照射するようにし、照射対象から反射された赤外線パターンを赤外検出処理装置27のセンサ(赤外線パターン検出手段)で検出するようにしてもよい。また、赤外検出処理装置27のセンサを、赤外線23と反射光線25の位相比較を行うセンサ(赤外線位相比較手段)、例えば、ToFセンサとしてもよい。
次に、図8Gを用いて、図7CのステップS209における首元位置の抽出について説明する。
図8G(ア)は、図8Fに、図10(a)における使用者の身体の各部位を示す符号、及び首元位置と顎先位置を示す二重丸及び黒丸の符号を重ねた図である。
白色の領域211は、首の付け根200(図10(a))と対応しており、かなり明るいグレー色の領域212は、首前部201(図10(a))と対応しており、明るいグレー色の領域213は、顎の付け根202(図10(a))と対応している。また、中間のグレー色の領域214は、顎先203(図10(a))と対応しており、やや暗めのグレー色の領域215は、顔204(図10(a))の下部に位置する唇及びその周辺の顔下部と対応している。さらに、暗めのグレー色の領域216は、顔204(図10(a))の中央に位置する鼻及びその周辺の顔上部と対応している。
なお、図10(a)に示すように、Db,Dcの距離は、顔方向検出窓13から使用者の他の部位までの距離に比べると差が少ないので、明るいグレー色の領域213及び中間のグレー色の領域214における反射光強度の差も少ない。
一方、図10(a)に示すように、顔方向検出窓13から使用者の各部位までの距離のうち、Dnの距離は最も短い至近距離であるので、首の付け根200に対応する白色の領域211が一番反射強度の強い箇所となる。
よって、全体制御CPU101(設定手段)は領域211が首の付け根200周辺であり、領域211の左右の中心で且つ撮影・検出部10に一番近い、図8G(ア)にて二重丸で示す位置206を首回転中心の位置(以下、首元位置206という)に設定する。ここまでの処理が図7CのステップS209で行う内容である。
ついで、図8Gを用いて、図7CのステップS210の顎先位置の抽出について説明する。
図8G(ア)に示す、顔204の内の唇を含む顔下部に対応する領域215より明るい、中間のグレー色の領域214が顎先を含む領域である。図8G(イ)を見ればわかるように領域214と接する領域215で光強度は急激に落ちており、顔方向検出窓13からの距離変化が大きくなる。全体制御CPU101は、光強度の急激な落ち込みがある領域215の手前の領域214が顎先領域であると判別する。さらに、全体制御CPU101は、領域214の左右の中心で且つ首元位置206から一番遠い位置(図8G(ア)において黒丸で示す位置)を顎先位置207として算出(抽出)する。
例えば顔が右方向を向いている時の変化を示しているのが図8H,図8Iである。
図8Hは、使用者の顔が右方向を向いている時に、図8Eと同様の方法で演算された差分映像を示す図である。図8Iは、図8Hに首稼働の中心位置である首元位置206と顎先位置207rを示す二重丸及び黒丸の符号を重ねた図である。
領域214は使用者が右を向いたので、撮影・検出部10側から見上げると左方向にある、図8Iに示す領域214rへと移動する。顔204の内の唇を含む顔下部に対応する領域215も、撮影・検出部10側から見上げると左方向にある領域215rへと移動する。
よって、全体制御CPU101は、光強度の急激な落ち込みがある215rの手前の領域214rを顎先の領域(顎先領域)と判別する。さらに、全体制御CPU101は、214rの左右の中心で且つ首元位置206から一番遠い位置(図8Iにおいて黒丸で示す位置)を顎先位置207rとして算出(抽出)する。
その後、全体制御CPU101は、図8G(ア)の顎先位置207から首元位置206を中心として右方向に、図8Iの顎先位置207rがどれだけ移動したかを示す移動角度θrを求める。図8Iに示すように、移動角度θrは、使用者の顔の左右方向の角度となる。
以上の方法で、ステップS210において、顔方向検出部20(3次元検出センサ)の赤外検出処理装置27で顎先位置と使用者の顔の左右方向の角度を検出する。
次に顔の上方向の検出について説明する。
図10(b)は、使用者が顔を水平方向に向けている様子を示す図であり、図10(c)は例として使用者が顔を水平方向より上部33°に向けている様子を示す図である。
図10(b)では、顔方向検出窓13から顎先203までの距離をFfhとし、図10(c)では、顔方向検出窓13から顎先203uまでの距離をFfuとしている。
図10(c)に示すように、顔を上部に向けたときに、顔とともに顎先203uも上に移動するため、FfuはFfhより距離が長くなっていることがわかる。
図8Jは、使用者が水平より33°上方に顔を向けている際に、顔方向検出窓13から見える使用者の映像を示す図である。図10(c)に示すように、使用者は上を向いているので、使用者の顎の下に位置する顔方向検出窓13からは唇や鼻を含む顔204は見えておらず、顎先203までが見えている。この時に使用者に赤外線23を照射したときの反射光線25の光強度の分布を、図8Kで示す。図8Kは、図8Eと同様の方法で演算された差分映像に、首元位置206と顎先位置207uを示す二重丸及び黒丸の符号を重ねた図である。
図8Kにおける光強度に応じた6つの領域211u~216uは、図8Fに示す領域と同じ光強度の領域に「u」を付けて示す領域である。使用者の顎先203の光強度は、図8Fでは中間のグレー色の領域214にあったが、図8Kではグレー側へとシフトし、やや暗めのグレー色の領域215uにあることがわかる。このように、図10(c)に示すように、FfuがFfhより距離が長い結果、使用者の顎先203の反射光線25の光強度は距離の2乗に反比例して弱まっていることが、赤外検出処理装置27で検出できる。
次に顔の下方向の検出について説明する。
図10(d)は、例として使用者が顔を水平方向より22°下方向に向けている様子を示す図である。
図10(d)では、顔方向検出窓13から顎先203dまでの距離をFfdとしている。
図10(d)に示すように、顔を下に向けたときに、顔とともに顎先203dも下に移動するため、FfdはFfhより距離が短くなり、顎先203の反射光線25の光強度は強くなることがわかる。
図7Cに戻り、ステップS211では、全体制御CPU101(距離算出手段)は、顔方向検出部20(3次元検出センサ)の赤外検出処理装置27で検出された顎先位置の光強度より、顎先位置から顔方向検出窓13までの距離を算出する。このとき、顔の上下方向の角度も算出する。
例えば、図10(b)に示すように、使用者が顔を水平方向に向けているときの首の上下角度をθh、使用者の顎先位置207及び首元位置206までの水平方向成分の距離をLhとすると、Ffh×cosθh=Lhとなる。
また、図10(c)に示すように、使用者が顔を上部33°に向けているときの首の上下角度をθu、使用者の顎先位置207及び首元位置206までの水平方向成分の距離をLuとすると、Ffu×cosθu=Luとなる。
よって、全体制御CPU101は、θhとθuの差分を顔の上下方向の角度として算出する。
なお、距離Ffh,Ffuは、それぞれ図8Gの顎先位置207の光強度及び図8Kの顎先位置207uの光強度から算出される。
また、距離Lh,Luは、それぞれ、図8Gの顔映像における顎先位置207及び首元位置206までの距離、図8Kの顔映像における顎先位置207u及び首元位置206までの距離を、被写体の原寸大に変換することで算出される。
なお、今回の角度算出は、頭部の稼働中心から顎先までの距離と、顔方向検出窓13から顎先までの距離がほぼ同等の場合で算出している。撮影・検出部10を別箇所に設置するような場合の算出方法はより複雑になる。
ステップS212では、ステップS210,S211でそれぞれ取得した顔の左右方向(第1の検出方向)及びこれと垂直な上下方向(第2の検出方向)の角度を、3次元からなる使用者の観察方向viとして一次メモリ103に保存する(iは任意の符号)。
なお、ステップS211では、顔方向検出窓13からの距離を検出することで、顔の上下方向の角度を算出したが、この方法に限定されない。例えば、顎先203の光強度の変異レベルを比較することで、角度変化を算出しても良い。つまり図8G(イ)の顎の付け根202から顎先203の反射光強度の勾配CDhに対し、図8K(ウ)の顎の付け根202から顎先203の反射光強度の勾配CDuの勾配変化をもとに、顎部の角度変化を算出しても良い。
図7Dは、図7AのステップS300の記録方向・記録範囲を決定する処理のサブルーチンのフローチャートである。本処理の詳細を説明する前に、まず図11Aを用いて、本実施例における記録方向・記録範囲が決定される対象となる超広角映像について説明する。
本実施例のカメラ本体1では、撮影・検出部10周辺を撮影部40が超広角な撮影レンズ16を用いて超広角映像を撮影し、その一部を切り出すことによって観察方向の映像を得ることを達成している。
図11Aは、使用者が正面を向いている場合の、撮影部40により撮影された超広角映像における狙い視野125を示す図である。
図11Aに示すように、固体撮像素子42の撮影可能な画素領域121は、長方形の領域である。また、有効投影部122(所定領域)は、撮影レンズ16によって固体撮像素子42に魚眼投影される円形の半天球映像が表示される領域である。なお、画素領域121の中心及び有効投影部122の中心は一致するように撮影レンズ16は調整されている。
円形の有効投影部122の最外周がFOV(Field of view)角180°の位置を示している。使用者が水平垂直中心を見ている場合、撮影記録される領域である狙い視野125は有効投影部122の中心からの角度はその半分の角度の90°となる。なお、本実施例の撮影レンズ16は有効投影部122より外側の光線も導入でき、最大FOV角192°程度までの光線を固体撮像素子42に魚眼投影できる。ただし、有効投影部122を超えると極端に解像力がおちたり、光量がおちたり、歪みが強まったりと、光学性能が大きく落ちる。よって、本実施例では、記録領域は有効投影部122に表示される半天球映像のうち画素領域121に投影された映像(以下、単に超広角映像という)内からのみ観察方向の映像を切り出す例で説明する。
なお、本実施例では有効投影部122の上下方向のサイズが画素領域121の短辺のサイズより大きい為、有効投影部122における上下端の映像は画素領域121を外れているがこれに限定されない。例えば、撮影レンズ16の構成を変更して有効投影部122の全てが画素領域121の領域内に収まるように設計してもよい。
無効画素領域123は、画素領域121のうち有効投影部122に含まれなかった画素領域である。
狙い視野125は、超広角画像から使用者の観察方向の映像を切り出す範囲を示す領域であり、観察方向を中心とする予め設定された左右上下の画角(ここでは45°FOV90°)により規定される。図11Aの例では、使用者は正面を向いているので、狙い視野125の中心は、有効投影部122の観察方向(中心方向)voとなっている。
図11Aに示す超広角映像には、子供である被写体A131、被写体Aである子供が登ろうとしている階段である被写体B132、及び機関車の形の遊具である被写体C133が含まれる。
次に、上記図11Aを用いて説明した超広角映像から観察方向の映像を得るために実行されるステップS300における記録方向・範囲決定処理を図7Dに示す。以下、狙い視野125の具体例である図12A~図12Gを用いて本処理を説明する。
ステップS301では、事前に設定された画角設定値angを一次メモリ103から読み出すことで取得する。
本実施例では、画像切り出し・現像処理部50にて観察方向の映像を超広角画像から切り出すことが可能な全ての画角、45°、90°、110°、130°が画角設定値angとして内蔵不揮発性メモリ102に保存されている。また、ステップS103,S106,S108のいずれかのステップで、内蔵不揮発性メモリ102に保存されている画角設定値angの一つが設定され、一次メモリ103に保存されている。
また、ステップS301では、ステップS212で決まった観察方向viを記録方向に決定し、これを中心とする上記取得した画角設定値angで超広角画像から切り出された狙い視野125の映像を、一次メモリ103に保存する。
ここで、有効投影部122の観察方向(中心方向)voでは撮影レンズ16による光学歪みの影響はほぼ無視できるため、設定された狙い視野125の形状がそのまま後述するステップS303の歪み変換後の狙い視野125o(図12A)の形状となる。以下、観察方向viの場合の、歪み変換後の狙い視野125を、狙い視野125iという。
次にステップS302で、事前に設定された防振レベルを一次メモリ103から読み出すことで取得する。
本実施例では、上述の通り、ステップS103,S106,S108のいずれかのステップで防振レベルが設定され、一次メモリ103に保存されている。
また、ステップS302では、上記取得した防振レベルを基に防振用予備画素数Pisを設定する。
防振処理では、撮影・検出部10のブレ量に追随して、ブレ方向と反対方向の映像に追随した映像を取得する。このため、本実施例では、狙い視野125iの周囲に防振に必要な予備領域を設ける。
また本実施例では、各防振レベルに紐づく防振用予備画素数Pisの値を保持するテーブルが内蔵不揮発性メモリ102に格納されている。例えば、防振レベルが「中」だった場合、上記テーブルから読み出された防振用予備画素数Pisである100画素の予備画素領域が予備領域として設定される。
図12Eは、図12Aで示す狙い視野125oの周囲に予備領域を付与した例を示す図である。ここでは、防振レベルが「中」、すなわち防振用予備画素数Pisが100画素である場合について説明する。
図12Eに示すように、狙い視野125oに対し、上下左右にそれぞれ防振用予備画素数Pisである100画素の余裕(予備領域)をもたせた点線部が防振用予備画素枠126oとなる。
図12A、図12Eでは説明の簡単化のため、観察方向viが有効投影部122の中心O(撮影レンズ16の光軸中心)と一致する場合(観察方向vo)について説明した。しかし、以下のステップで説明するように、観察方向viが有効投影部122の周辺部である場合は、光学歪みの影響を受けるので変換が必要である。
ステップS303では、ステップS301で設定された狙い視野125の形状を、観察方向vi及び撮影レンズ16の光学特性を考慮して補正(歪み変換)し、狙い視野125iを生成する。同様に、ステップS302で設定された防振用予備画素数Pisも、観察方向vi及び撮影レンズ16の光学特性を考慮して補正する。
例えば、画角設定値angが90°で、使用者が中心oより右45°を観察していた場合は、次のようになる。ステップS212で決まった観察方向viが観察方向vr(ベクトル情報[45°,0°])であり、観察方向vrを中心とする、左右45°、上下45°の範囲が狙い視野125となる。しかし、撮影レンズ16の光学特性を考慮し、狙い視野125は、図12Bに示す狙い視野125rに補正される。
図12Bに示すように、狙い視野125rは有効投影部122の周辺部に行くにつれ広くなっており、且つ観察方向vrの位置も狙い視野125rの中心よりやや内側に来ている。これは、本実施例では、撮影レンズ16に立体射影魚眼に近い光学設計をしているためである。なお、撮影レンズ16が、等距離射影魚眼や、等立体角射影魚眼、正射影魚眼などによる設計であるとその関係は変わってくるので、その光学特性にあわせた補正が狙い視野125に対して行われる。
図12Fは、図12Bで示す狙い視野125rの周囲に、図12Eの予備領域と同一防振レベル「中」の予備領域を付与した例を示す図である。
防振用予備画素枠126o(図12E)では、狙い視野125oの上下左右のそれぞれに防振用予備画素数Pisである100画素の余裕が設定された。これに対し、防振用予備画素枠126r(図12F)は、有効投影部122の周辺部に行くにつれ、防振用予備画素数Pisは補正されて増えている。
このように、狙い視野125rの形状と同様にその周囲に設けられた防振に必要な予備領域の形状も、図12Fの防振用予備画素枠126rに示すように、有効投影部122の周辺部に行くにつれその補正量が大きくなる。これも、本実施例では、撮影レンズ16に立体射影魚眼に近い光学設計をしているためである。なお、撮影レンズ16が、等距離射影魚眼や、等立体角射影魚眼、正射影魚眼などによる設計であるとその関係は変わってくるので、その光学特性にあわせた補正が防振用予備画素枠126rに対して行われる。
ステップS303で実行される、撮影レンズ16の光学特性を考慮して、狙い視野125及びその予備領域の形状を逐次切り替える処理は、複雑な処理となる。そのため、本実施例では、内蔵不揮発性メモリ102内にある、観察方向vi毎の狙い視野125i及びやその予備領域の形状が保持されるテーブルを用いてステップS303の処理は実行される。なお、先にあげた撮影レンズ16の光学設計によっては演算式を全体制御CPU101内に持っておき、その演算式によって光学歪値を算出しても良い。
ステップS304では、映像記録用枠の位置及びサイズを算出する。
上述の通り、ステップS303では、防振に必要な予備領域を狙い視野125iの周囲に設け、これを防振用予備画素枠126iとして算出した。しかし、観察方向viの位置により、例えば防振用予備画素枠126rの様にその形状がかなり特殊なものとなる。
全体制御CPU101は、このような特殊な形状の範囲だけの現像処理を行なって映像を切り出すことは可能である。しかし、ステップS600で映像データとして記録したり、ステップS700で表示装置800に転送したりする際に、長方形ではない映像を用いることは一般的でない。そこでステップS304では、この防振用予備画素枠126iの全体を包含する、長方形形状の映像記録用枠127iの位置及びサイズを算出する。
図12Fでは、防振用予備画素枠126rに対してステップS304で算出された、一点鎖線で示す映像記録用枠127rを示す。
ステップS305では、ステップS304で算出された映像記録用枠127iの位置とサイズを一次メモリ103に記録する。
本実施例では、超広角映像における映像記録用枠127iの左上の座標Xi,Yiを、映像記録用枠127iの位置として記録し、座標Xi,Yiからの映像記録用枠127iの横幅WXi及び縦幅WYiを、映像記録用枠127iのサイズとして記録する。例えば、図12Fに示す映像記録用枠127rに対しては、図示される座標Xr,Yr、横幅WXr、及び縦幅WYrがステップS305で記録される。なお、座標Xi,Yiは、所定の基準点、具体的には撮影レンズ16の光学中心を原点とするXY座標である。
この様にして防振用予備画素枠126iや映像記録用枠127iが決まったところで、図7Dに示すステップS300のサブルーチンを抜ける。
なお、ここまでの説明では、複雑な光学歪変換の説明の簡単化のために観察方向viの例として、水平0°を含む観察方向、すなわち観察方向vo(ベクトル情報[0°,0°])や観察方向vr(ベクトル情報[45°,0°])を用いた説明を行った。しかし実際には、使用者の観察方向viは様々な方向となる。よって以下、そのような場合に実行される現像処理について説明する。
例えば、画角設定値angが90°で観察方向vl[-42°,-40°]の場合の狙い視野125lは、図12Cのようになる。
また狙い視野125lと同じ観察方向vl(ベクトル情報[-42°,-40°])であっても、画角設定値angが45°であった場合、図12Dに示すように、狙い視野125lより一回り小さい狙い視野128lとなる。さらに狙い視野128lについては、図12Gに示すような、防振用予備画素枠129l及び映像記録用枠130lが設定される。
ステップS400は撮影の基本動作であり、撮影部40の一般的なシーケンスを用いるので、詳細は他の文献に譲りここでは説明を省略する。なお、本実施例では、撮影部40にある撮像信号処理回路43は、固体撮像素子42から出力された、固有の出力形態(規格の例:MIPI,SLVS)での信号を、一般的なセンサ読み出し方式の撮影データに修正する処理も行う。
なお、撮影モードスイッチ12で選択されているモードが動画モードの場合は、スタートスイッチ14の押下に応じて、撮影部40が録画を開始する。その後、ストップスイッチ15が押下されたとき、録画を終了する。一方、撮影モードスイッチ12で選択されているモードが静止画モードの場合は、スタートスイッチ14の押下がある毎に、撮影部40が静止画を撮影する。
図7Eは、図7AのステップS500の現像処理のサブルーチンのフローチャートである。
ステップS501では、ステップS400において撮影部40で生成された撮影データ(超広角映像)の全領域のRawデータを取得し、全体制御CPU101の不図示のヘッド部と呼ばれる映像取り込み部に入力する。
次いでステップS502では、ステップS305で一次メモリ103に記録された座標Xi,Yi、横幅WXi及び縦幅WYiに基づき、ステップS501で取得した超広角映像から映像記録用枠127iの部分を切り出す。この切り出し後、防振用予備画素枠126i内の画素のみに対して、以下実行するステップS503~S508からなるクロップ現像処理(図7F)が開始する。これにより、ステップS501で読み込んだ超広角映像の全領域に対して現像処理を行う場合と比べて演算量を大幅に削減でき、演算時間や電力を削減することができる。
なお、図7Fに示すように、撮影モードスイッチ12で選択されているモードが動画モードである場合、ステップS200,S300の処理と、ステップS400の処理は、それぞれ同一又は異なるフレームレートで並列に実行される。つまり、撮影部40で生成された1フレーム分の全領域のRawデータが取得される毎に、その時点で一次メモリ103に記録されている座標Xi,Yi、横幅WXi及び縦幅WYiに基づきクロップ現像処理が行われる。
防振用予備画素枠126i内の画素に対するクロップ現像処理を開始すると、まず、ステップS503でベイヤ配列に配置された色画素情報を補完する色補完を行う。
その後、ステップS504でホワイトバランスの調整を行った後、ステップS505で色変換を行う。
ステップS506では、あらかじめ設定したガンマ補正値に従って階調を補正するガンマ補正を行う。
ステップS507では、画像サイズに合わせたエッジ強調を行う。
ステップS508では、圧縮その他の処理を行うことで一次保存可能なデータ形式に変換し、1次メモリ103に記録した後、本サブルーチンを抜ける。この一次保存可能なデータ形式の詳細については後述する。
なお、ステップS503~S508で実行されるクロップ現像処理の順序や処理の有無は、カメラシステムに合わせて行えばよく、本発明を制限するものではない。
また、動画モードが選択されている場合、ステップS200~S500までの処理は録画が終了されるまで繰り返し実行される。
本処理によれば、ステップS501で読み込んだ全領域の現像処理を行う場合と比べて演算量を大幅に削減することができる。このため、全体制御CPU101として安価で低消費電力なマイコンを使えるようになり、また、全体制御CPU101における発熱を抑えるとともに、バッテリー94の消費を軽減できる。
また、本実施例では、全体制御CPU101の制御負荷を軽くするため、映像の光学補正処理(図7AのステップS800)や防振処理(図7AのステップS900)はカメラ本体1では行わず、表示装置800に転送してから表示装置制御部801にて行う。なお、切り出した映像のデータだけでは、光学補正処理の際に式に代入したり、防振処理の際に補正テーブルより参照したりするために用いる位置情報が無い。そのため、投影された超広角映像から部分的に切り出した映像のデータだけを表示装置800に送ってしまうと、光学補正処理や防振処理を正しく実行できない。そこで、本実施例では、切り出した映像のデータだけでなく、その映像の超広角映像からの切り出し位置の情報等を含む補正データも共にカメラ本体1から表示装置800に送信する。
ここで切り出した映像が静止画映像である場合、静止画映像のデータと補正データを別途表示装置800に送信しても静止画映像のデータと補正データは1対1対応であるので、表示装置800において正しく光学補正処理や防振処理を行うことができる。一方、切り出した映像が動画映像である場合、動画映像のデータと補正データを別途表示装置800に送信すると、送信された補正データが、動画映像の各フレームに対するいずれの補正データであるかの判断が難しくなる。特に、カメラ本体1内の全体制御CPU101のクロックレートと、表示装置800内の表示装置制御部801のクロックレートが微妙に異なると数分の動画撮影で全体制御CPU101と表示装置制御部801の間の同期が取れなくなる。この結果、表示装置制御部801は、処理すべきフレームをそれに対応する補正データとは異なる補正データで補正してしまうなどの課題が生じる。
よって、本実施例では、カメラ本体1から表示装置800に切り出した動画映像のデータを送信するにあたり、動画映像のデータに対してその補正データを適切に付与する。以下、その方法について説明する。
図14は、図7AのステップS600の一次記録処理のサブルーチンのフローチャートである。本処理を、以下、図15を参照して説明する。図14では、撮影モードスイッチ12で選択されているモードが動画モードである場合の処理が示されている。なお、選択されているモードが静止画モードである場合は、本処理は、ステップS601の処理から始まり、ステップS606の処理が終わると終了する。
ステップS601aで、全体制御CPU101は現像処理(図7E)で現像された動画映像からステップS601~S606までの処理が未処理である1つのフレームの画像を読み出す。また、全体制御CPU101(メタデータ生成手段)はその読み出したフレームのメタデータである補正データを生成する。
ステップS601では、全体制御CPU101はステップS600で読み出したフレームの画像の切り出し位置の情報を補正データに添付する。ここで添付される情報は、ステップS305で取得した映像記録用枠127iの座標Xi,Yiである。なお、ここで添付される情報を、観察方向Viを示すベクトル情報としてもよい。
ステップS602では、全体制御CPU101(光学補正値取得手段)は光学補正値を取得する。光学補正値はステップS303で設定された光学歪値である。あるいは、周辺光量補正値や回折補正といったレンズ光学特性に応じた補正値でもよい。
ステップS603では、全体制御CPU101はステップS602の歪み変換に用いた光学補正値を補正データに添付する。
ステップS604では、全体制御CPU101は防振モードであるか否かを判断する。具体的には、事前に設定された防振モードが「中」又は「強」だった場合、防振モードであると判断してステップS605に進む。一方、事前に設定された防振モードが「切」だった場合は防止モードでないと判断してステップS606に進む。なお、ここで防振モードが「切」だった場合にステップS605をスキップする理由は、スキップした分、全体制御CPU101の演算データ量や無線送信時のデータ量を削減でき、ひいては、カメラ本体1の電力削減や発熱低減もできるためである。なお、ここでは防振処理に用いるデータの削減について説明したが、ステップS602で取得した光学補正値に含まれる、周辺光量補正値や、解析補正の有無についてのデータ削減を行なっても良い。
本実施例では防振モードは、表示装置800による使用者の操作により事前に設定されているが、カメラ本体1の初期設定として設定されていてもよい。また、表示装置800に転送後に防振処理の有無を切り替えるようなカメラシステムとした場合は、ステップS604を無くし、ステップS603から直接ステップS605に進む。
ステップS605では、全体制御CPU101(移動量検出手段)はステップS302で取得した防振モード、及び一次メモリ813にあるステップS600で読み出したフレームと紐づくジャイロデータを補正データに添付する。
ステップS606では、ステップS600で読み出されたフレームの画像のデータと、ステップS601~S605により各種データが添付された補正データとをエンコードしたデータで、映像ファイル1000(図15)を更新する。なお、ステップS601aにおいて動画映像の最初のフレームの読み出しがされた場合については、ステップS606で映像ファイル1000が生成される。
ステップS607で、現像処理(図7E)で現像された動画映像の全てのフレームの画像の読み出しが終了したか判別し、終了していない場合は、ステップS601aに戻る。一方、終了している場合は、本サブルーチンを抜ける。生成された映像ファイル1000は、内蔵不揮発性メモリ102に保存される。前述した1次メモリ813及び内蔵不揮発性メモリ102に保存されるだけでなく、大容量不揮発性メモリ51にも保存されるようにしてもよい。また、生成された映像ファイル1000をただちに表示装置800への転送処理(図7AのステップS700)し、表示装置800に転送後、その1次メモリ813に保存してもよい。
ここで、本実施例において、エンコードとは、映像データと補正データを合体させ1つのファイルにすることを指すが、この際、映像データを圧縮、あるいは映像データと補正データを合体させたものを圧縮してもよい。
図15は、映像ファイル1000のデータ構造を示す図である。
映像ファイル1000は、ヘッダ1001とフレーム1002で構成される。フレーム1002は、動画映像を構成する各フレームの画像とこれに対応するフレームメタがセットとなったフレームデータセットで構成されている。すなわち、フレーム1002には、動画映像の総フレーム分だけフレームデータセットが存在する。
本実施例では、フレームメタは、切り出し位置(映像内位置情報)、光学補正値及びジャイロデータが必要に応じて添付された補正データがエンコードされた情報であるが、これに限定されない。例えば、撮影モードスイッチ12で選択された撮影モードに応じてフレームメタに他の情報を添付したり、あるいは、フレームメタからブレ量を削除したりするなどしてフレームメタの情報量を変更しても良い。
ヘッダ1001には、各フレームのフレームデータセットまでのオフセット値または先頭アドレスを記録しておく。あるいは、映像ファイル1000に対応した時刻やサイズといったメタデータを保存してもよい。
このように、一次記録処理(図14)では、表示装置800には、現像処理(図7E)で現像された動画映像の各フレームとそのメタデータがセットとなった映像ファイル1000が転送される。よって、カメラ本体1の全体制御CPU101のクロックレートと、表示装置800の表示装置制御部801のクロックレートが微妙に異なる場合も、表示装置制御部801はカメラ本体1で現像された動画映像の補正処理を確実に実行できる。
なお、本実施例では、フレームメタに光学補正値が含まれたが、映像全体に対して光学補正値を付与するようにしてもよい。
図16は、図7AのステップS700の表示装置800への転送処理のサブルーチンのフローチャートである。図16では、撮影モードスイッチ12で選択されているモードが動画モードである場合の処理が示されている。なお、選択されているモードが静止画モードである場合は、本処理は、ステップS702の処理から始まる。
ステップS701では、撮影部40による動画映像の録画(ステップS400)が終了したか、また録画中である否かを判断する。ここで、動画映像が録画中である場合、フレーム毎の現像処理(ステップS500)や、一次記録処理(ステップS600)での映像ファイル1000の更新(ステップS606)が順次行われている状態となる。無線転送は電力負荷が大きいため、録画中に並行して行うとバッテリー94の電池容量を多く必要としたり発熱対策を別途行う必要があったりする。また、演算能力の観点で見ても、録画中に並行して無線転送を行うと演算負荷が大きくなるため、高スペックの全体制御CPU101を準備する必要があり、コストとしても大きくなってしまう。本実施例ではこれらを鑑み、動画映像の録画の終了を待ってから(ステップS701でYES)、ステップS702へ進み、表示装置800との接続を確立する。ただし、本実施例のカメラシステムが、バッテリー94から供給される電力に余裕があり且つ別途の発熱対策は不要であれば、カメラ本体1の起動時や録画を開始する前などであらかじめ表示装置800と接続をしてもよい。
ステップS702では、データ量の多い映像ファイル1000を表示装置800に転送するため、高速無線ユニット72を介して表示装置800との接続を確立する。なお、小電力無線ユニット71は、表示装置800への画角確認のための低解像度映像(あるいは映像)の転送や、表示装置800との間での各種設定値の送受信に利用するが、伝送に時間を要してしまうため映像ファイル1000の転送には利用しない。
ステップS703では、高速無線ユニット72を介して映像ファイル1000を表示装置800へ転送し、転送が終了した時点で、ステップS704に進み、表示装置800との接続を閉じた後、本サブルーチンを抜ける。
ここまでは1つの動画映像の全フレームの画像を含む1つの映像ファイルを転送する場合を説明したが、数分にわたる長時間の動画映像の場合は、時間単位で区切った複数の映像ファイルとしても良い。図15に示すデータ構造の映像ファイルであれば、1つの動画映像を複数の映像ファイルとして表示装置800に転送しても、表示装置800において補正データとのタイミングズレなく動画映像を補正することが可能となる。
図17は、図7AのステップS800の光学補正処理のサブルーチンのフローチャートである。本処理を、以下、図18を参照して説明する。なお、上述の通り、本処理は、表示装置800の表示装置制御部801が実行する処理である。
ステップS801では、まず表示装置制御部801(映像ファイル受信手段)は、表示装置800への転送処理(ステップS700)にて転送されたカメラ本体1からの映像ファイル1000を受信する。その後、表示装置制御部801(第1の抽出手段)は、受信した映像ファイル1000から抽出した光学補正値を取得する。
続いてステップS802では、表示装置制御部801(第2の抽出手段)は、映像ファイル1000から映像(動画映像の1つのフレームの画像)を取得する。
ステップS803では、表示装置制御部801(フレーム映像補正手段)は、ステップS801で取得した光学補正値によりステップS802で取得した映像の光学補正を行い、補正した映像を1次メモリ813に保存する。光学補正を行う際、ステップS802で取得した映像からの切り出しを行う場合、ステップS303で決定した現像範囲(狙い視野125i)よりも狭い画像の範囲で切り出して処理を行う(切り出し現像領域)。
図18は、図17のステップS803において歪曲収差補正を実施した場合を説明するための図である。
図18(a)は、使用者が撮影時に肉眼でみた被写体1401の位置を示す図であり、図18(b)は、被写体1401が固体撮像素子42上に映った像を示す図である。
図18(c)は、図18(b)の像における現像領域1402を示す図である。ここで、現像領域1402は先ほど説明した切り出し現像領域のことでる。
図18(d)は、現像領域1402の像が切り出された、切り出し現像領域を示す図であり、図18(e)は、図18(d)の切り出し現像領域を歪曲補正した映像を示す図である。切り出し現像映像の歪曲補正時に切り出し処理を行うので、図18(e)に示す映像は、図18(d)に示す切り出し現像映像よりさらに画角は小さくなる。
図19は、図7AのステップS900の防振処理のサブルーチンのフローチャートである。本処理を、以下、図25を参照して説明する。なお、上述の通り、本処理は、表示装置800の表示装置制御部801が実行する処理である。
ステップS901では、映像ファイル1000のフレームメタから、現在処理中のフレーム(現フレーム)のブレ量Vo及びジャイロデータと、その1フレーム前のフレーム(前フレーム)のブレ量Vn―1及びジャイロデータを取得する。その後、これらの情報からおおよそのブレ量V Preを算出する。
ステップS902では、映像から詳細なブレ量V Detをもとめる。ブレ量の検出は、現フレームの画像の特徴点が前フレームからどの程度移動したかを計算することで行う。
特徴点の抽出は既知の方法が採用できる。例えば、フレームの画像の輝度情報のみを抽出した輝度情報画像を生成し、それを1乃至数ピクセルずらした画像をもとの画像から減算してその絶対値が閾値以上の画素を特徴点として抽出してもよい。また上記輝度情報画像にハイパスフィルターをかけた画像を、もとの輝度情報画像から減算し抽出されたエッジを特徴点として抽出してもよい。
現フレームと前フレームの輝度情報画像を1乃至数ピクセルずつずらしながら複数回差分を計算し、特徴点の画素での差分が少なくなる位置を計算することで移動量が算出される。
特徴点は後述するように複数点が必要となるため、現フレーム及び前フレームのそれぞれの画像を複数のブロックに分割して特徴点の抽出を行なうことが好ましい。ブロック分割は画像のピクセル数やアスペクト比にもよるが、一般的には4×3の12ブロック乃至は96×64ブロックが好ましい。ブロック数が少ないとカメラ本体1の撮影部40のあおりによる台形や光軸方向の回転などの補正が正確にできなくなるが、ブロック数が多すぎると1ブロックのサイズが小さくなり、特徴点が近くなるため誤差を含むようになるためである。このようなことから画素数や特徴点の見つけやすさ、被写体の画角などによって適宜最適なブロック数が選択される。
移動量の算出には、現フレームと前フレームの輝度情報画像を1乃至数ピクセルずつずらして複数回の差分計算を行う必要があるため計算量が多くなる。そこで実際の移動量はブレ量V Preから何ピクセルだけずれているかを算出すべく、その近傍のみの差分計算を行うことで大幅に計算量を減らすことが可能である。
次にステップS903では、ステップS902で取得した詳細なブレ量V Detを用いて防振補正を行った後、本サブルーチンを抜ける。
なお、防振処理の方法としては、回転や平行移動が可能なユークリッド変換、それらが可能なアフィン変換、さらに台形補正が可能な射影変換などが知られている。
X軸、Y軸への移動や回転の場合はユークリッド変換で可能であるが、実際にカメラ本体1の撮影部40で撮影した場合に生じるブレは前後方向やパン・チルト方向の手振れなどもある。よって、本実施例では拡大、スキューなども補正可能なアフィン変換を用いて防振補正を行う。アフィン変換では、基準となる特徴点の座標(x,y)が座標(x’,y’)に移動する場合、以下の式100で表わされる。
Figure 2022140417000002
式100の3×3行列をアフィン係数は、最低3か所の特徴点のずれが検出できれば算出可能である。ただし、検出された特徴点が互いに近い距離にある場合や、直線上にのってしまう場合、特徴点よりも遠い箇所やその直線から離れた箇所の防振補正が不正確になる。よって検出される特徴点は、互いに遠い距離にあり、且つ直線上にのらないものを選択することが好ましい。よって、複数の特徴点が検出された場合は、互いに近い特徴点を省いて残りを最小二乗法で正規化を行う。
図18(f)は、図18(e)に示す歪曲補正をした映像に対してステップS903の防振補正をした映像を示す図である。防振補正時に切り出し処理を行うので、図18(f)に示す映像は、図18(e)に示す映像より画角は小さくなる。
このような防振処理を行うことで、ブレを補正した品位のある映像を得ることが可能である。
以上、本実施例のカメラシステムに含まれるカメラ本体1及び表示装置800で実行される一連の動作を説明した。
使用者が電源スイッチ11をONとした後に撮影モードスイッチ12で動画モードを選択し、顔を上下左右の方向を向かずにただ正面を観察していると、まず顔方向検出部20が観察方向vo(ベクトル情報[0°,0°])(図12A)を検出する。その後、記録方向・画角決定部30が、固体撮像素子42に投影される超広角映像から図12Aに示す狙い視野125oの映像(図11B)を切り出す。
その後、使用者がカメラ本体1を操作することなく、例えば、図11Aの子供(被写体A131)の観察を開始すると、まず顔方向検出部20が観察方向vl(ベクトル情報[-42°,-40°])(図11C)を検出する。その後、記録方向・画角決定部30が、撮影部40で撮影された超広角映像から狙い視野125lの映像(図11C)を切り出す。
このように観察方向に応じて様々な形状に切り出された映像に対する光学補正処理及び防振処理が、ステップS800,S900で表示装置800において行われる。これにより、カメラ本体1の全体制御CPU101が低スペックでも、例えば大きな歪みがある狙い視野125l(図11C)の映像を切り出した場合も、図11Dの様に子供(被写体A131)を中心とした歪みやブレが補正された映像とすることができる。すなわち使用者は、電源スイッチ11をONとし撮影モードスイッチ12でモード選択をする以外には、カメラ本体1に触れなくとも、自身の観察方向が撮影された映像を得ることができる。
なお、本実施例では、カメラ本体1において顔方向検出部20と撮影部40とが一体的に構成される場合について説明したが、顔方向検出部20が使用者の頭部以外の身体上に装着され、撮影部40が使用者の身体上に装着されていればこれに限定されない。例えば、本実施例の撮影・検出部10を肩の上や腹部に設置することも可能である。ただし、肩上の場合、右肩の上にカメラを設置した場合なら、左側は頭部に遮られることが考えられるため、左肩なども含めた複数撮像手段を設置して補う構成が好ましい。また、腹部の場合頭部との空間的に視差が発生するため実施例3にあげるようなその視差を補正する観察方向の補正算出が行えることが望ましい。
(実施例2)
実施例2では、カメラ本体1を装着する使用者の個人差・調整差をキャリブレーションする方法について図20~図23を用いて詳細に説明する。
基本的に本実施例は、実施例1からの派生として説明を行う。このため、実施例2のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
カメラ本体1を装着する使用者は、その体格、カメラ本体1が取付けられる首部周辺の傾きや角度、装着時の襟に代表される衣服の状態、及びバンド部82L,82Rの調整残り等に代表される個人差や調整差がある。そのため、カメラ本体1の撮影レンズ16の光軸中心と、使用者が正面を向いている状態(以下、使用者の自然状態という)での視野中心は通常一致しない。使用者にとってはカメラ本体1の撮影レンズ16の光軸中心をそのまま映像を切り取る記録領域(狙い視野125)の中心とするのではなく、使用者の姿勢や動作における視野中心を記録領域の中心とすることが望ましい。
また、使用者の自然状態での視野中心だけでなく、使用者が上下左右斜めを含む各方向に首を向けた場合の視野中心、また首の可動領域にも個人差がある。そのため、顔方向検出部20が検出した顔方向(観察方向)と、その観察方向に応じて設定される狙い視野125の中心位置(以下、視野中心位置という)との関係性も個人差が生じる。したがって、顔方向と視野中心位置を関連付けるキャリブレーション作業が必要となる。
通常、キャリブレーション動作は図7Aにおける準備動作処理(ステップS100)の一環として行われるのが望ましく、カメラ本体1の初回起動時にキャリブレーション動作を行うことが想定される。なお、キャリブレーション後一定時間が経過した場合や、カメラ本体1が前回キャリブレーション時から使用者に対して位置ズレを起こした場合に行なっても良い。顔方向検出部20が使用者の顔を検出できなくなった場合にもキャリブレーション動作を行なっても良い。また、使用者がカメラ本体1を着脱したことを検知した場合、再度装着した場面でキャリブレーション動作を行なっても良い。このように、カメラ本体1の適切な使用上必要だと判断したタイミングで適宜キャリブレーション動作が行われることが望ましい。
図20は、実施例2に係るキャリブレーション処理に用いられるキャリブレータ850の詳細を示す図である。本実施例においては、キャリブレータ850が表示装置800を兼ねている場合について説明を行う。
キャリブレータ850には、図1Dに示す表示装置800の構成要素であるボタン802、表示部803、インカメラ805、顔センサ806、角速度センサ807に加えて、位置決め指標851、キャリブレーションボタン854が含まれている。なお、実施例1であったボタン804は本実施例では使わないこと、また後述するようにキャリブレーションボタン854と置き換えることが可能なため、ここでは図示していない。
図20(a)は、位置決め指標851が表示部803に表示された特定のパターンである場合を、図20(b)では位置決め指標851にキャリブレータ850の外観を用いた場合を示している。この場合、後述する位置決め指標中心852はキャリブレータ850の外形の情報から算出する。
なお、位置決め指標851は、図20(a),(b)の例に限らず、例えば、キャリブレータ850とは別体であってもかまわない。大きさの計測を行いやすいこと、また使用者の顔方向位置を向けやすい形状であること、の条件を満たすものであれば、位置決め指標851は何であっても良い。例えば撮影レンズ16のレンズキャップ、カメラ本体1の充電ユニットであっても良い。いずれにせよキャリブレーション動作における基本的な考え方は同一のため、以下では主に図20(a)に示すキャリブレータ850を例に用いて説明を行う。
なお、実施例1でも記載したが、キャリブレータ850は、表示装置800に機能を兼ね備えても良い。また、キャリブレータ850も表示装置800と同様、専用の機器であっても良く、また他にも例えば一般的なスマートフォンや、タブレット端末であっても良い。
位置決め指標851は、キャリブレータ850の表示部803に表示される指標であり、位置決め指標の横幅L851aと位置決め指標の縦幅L851b、位置決め指標中心852を算出可能となっている図形である。後述するキャリブレーション処理において、使用者は位置決め指標851の中心部付近に顔方向を向けるため、位置決め指標851は視野中心に捉えやすい形状をしていることが望ましい。図20(a)においては、十字の中心に黒丸を配した円形で示したが、特にこの形状に限定されるものではない。他にも四角や三角、星型の図形、また例えばキャラクターのイラストであっても良い。
位置決め指標851は、カメラ本体1の撮影部40で撮影される。撮影された映像に基づき、表示装置制御部801(位置算出手段・距離算出手段)が、撮影・検出部10とキャリブレータ850との距離、また画像範囲上に写る位置決め指標851の位置座標を演算する。本実施例ではキャリブレータ850と一体になった表示装置800でかかる演算が行われるが、キャリブレータ850または位置決め指標851が表示装置800と別体である場合、カメラ本体1側の全体制御CPU101でかかる演算が行われる。
角速度センサ807は、キャリブレータ850の動きを計測することが出来る。角速度センサ807の測定値に基づき、表示装置制御部801は、後述するキャリブレータ850の動き情報を算出する。
キャリブレーションボタン854は、後述するキャリブレーション処理において、使用者が位置決め指標851の中心部付近に顔方向を向けた際に押下するボタンである。図20(a)では、キャリブレーションボタン854は、タッチパネル式の表示部803に表示されたタッチボタンであるが、ボタン802やボタン804がキャリブレーションボタン854として機能するようにしても良い。
次に、実施例1で説明した、使用者の顔方向に応じて撮影部40で撮影された超広角の撮影データの切り出し、および画像処理を行う際に実行される、キャリブレーション処理について、図21のフローチャートを用いて詳細に説明する。
図21は、カメラ本体1(第1のキャリブレーション手段)及びキャリブレータ850において実行される、本実施例に係るキャリブレーション処理のフローチャートである。
説明の補助として、図21では、使用者の操作をカメラ本体1やキャリブレータ850を受け付けるステップについては、動作主体を使用者とする枠に入れている。また、図21では、上記使用者の操作を受けてキャリブレータ850の表示装置制御部801が実行するステップについては、動作主体をキャリブレータ850とする枠に入れている。同様に、図21では、上記使用者の操作を受けてカメラ本体1の全体制御CPU101が実行するステップについては、動作主体をカメラ本体1とする枠に入れている。
具体的には、図21のステップS3104,ステップS3108は、カメラ本体1が動作主体であり、ステップS3101,S3105,S3106は、使用者が動作主体である。また、ステップS3102,S3103,S3107,S3110はキャリブレータ850が動作主体である。
本処理が開始すると、まずステップS3101では、使用者は、キャリブレータ850の電源がONでない場合は、ボタン802を操作してキャリブレータ850の電源をONにする。同様に、カメラ本体1の電源がONでない場合は電源スイッチ11をONに切り替えてカメラ本体1の電源をONにする。その後、使用者はキャリブレータ850とカメラ本体1との間の接続を確立させる。この接続が確立すると、表示装置制御部801及び全体制御CPU101はそれぞれ、キャリブレーションモードに入る。
またステップS3101において、使用者は、カメラ本体1を装着し、バンド部82L,82Rの長さやカメラ本体1の角度等の調整を行なって、好適な位置にカメラ本体1を配置して撮影・検出部10が撮影可能な状態にする。
ステップS3102では、表示装置制御部801(第1の表示手段)は、位置決め指標851を表示部803に表示する。
次に、ステップS3103では、表示装置制御部801は、指示表示855において使用者にキャリブレータ850のかざすべき位置(各指定位置)を指示する。本実施例では、正面、右上、右下、左上、左下の5か所を順に指定位置として指示する。但し、キャリブレーションが可能であれば指定位置はこれに限定されない。
ステップS3104では、全体制御CPU101は、撮影部40を起動させて撮影可能状態とし、また顔方向検出部20を起動して使用者の顔方向を検出可能な状態にする。
ステップS3105では、使用者は、ステップS3103で指示された指定位置にキャリブレータ850をかざす。
次に、ステップS3106では、使用者は、キャリブレータ850の位置を指定位置に維持したまま、顔を位置決め指標851の方向に向け、使用者の視野中心を位置決め指標851に置く。
ステップS3107では、表示装置制御部801(第2の表示手段)は、指示表示855において使用者に指定位置のキャリブレーションを開始する旨通知すると共に、キャリブレーションボタン854を表示する。なお、ステップS3107の処理は、表示装置制御部801が、使用者が位置決め指標851の位置決め指標中心852を視野正面で見たと判定したときに実行される。
ステップS3107aでは、使用者がキャリブレーションボタン854を押下すると、表示装置制御部801は、キャリブレーション指示をカメラ本体1に送信する。
ステップS3108では、全体制御CPU101(取得・検出手段)は、キャリブレータ850からのキャリブレーション指示に応じて、撮影部40での撮影で位置決め指標851が映りこむ超広角画像を取得すると共に、顔方向検出部20で顔方向を検出する。その後、全体制御CPU101(生成手段)は、ここで取得した超広角画像における位置決め指標中心852の位置座標情報を算出し、算出された位置座標情報とここで検出された顔方向との関係を示す情報を生成する。
ステップS3103~S3108の処理の詳細を、以下、図22A~図22Fを用いて説明する。
図22A~図22Fは、使用者の正面方向についてのキャリブレーション動作について説明するための図である。これにより、使用者の自然状態での視野中心位置と、カメラ本体1の撮影部40が捉えた映像のうち狙い視野125の中心位置とを一致させる。
図22Aは、使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3103において、キャリブレータ850の表示部803に表示される画面を示した図である。
図22Aに示すように、キャリブレータ850の表示部803には、位置決め指標851と、使用者が位置決め指標851をどこに置けばよいかを示す指示表示855が表示されている。
指示表示855には顔を正面に向けた際の視野中心に位置決め指標851を配置するよう文字での指示を記載している。なお、指示表示855において表示される指示は、文字での指示に限ったものではなく、例えばイラストや写真、動画といった他の方法での指示であってもかまわない。
また、いわゆる一般的なチュートリアルのような、指示表示855を表示し、その後に位置決め指標851を表示するようにしても良い。
図22Bは、使用者が、図22Aにおける指示表示に示された指示に従ってキャリブレータを前方にかざしている様子を示す斜視図である。
使用者が、図22Aにおける指示表示855に示された指示に従ってキャリブレータ850を前方にかざし、位置決め指標851が顔の正面に向けた際の視野中心になるようキャリブレータ850を配置する(ステップS3105,S3106)。その後、使用者は、キャリブレーションボタン854(図22A)を押下する。このキャリブレーションボタン854の押下に応じて、ステップS3107の判定が行われる。この判定方法の具体的な手順については後述する。
その後、使用者は、図22Aに示す指示表示855が「正面方向のキャリブレーションを開始します」という通知に変更したことを確認後、キャリブレーションボタン854を押下する(ステップS3107a)。
このキャリブレーションボタン854の押下に応じて、ステップS3108で撮影部40が撮影画像を取得する。
図22Cは、図22Bの状態において撮影レンズ16が捉えた超広角画像の全体を示す模式図であり、図22Dは、図22Cに示す超広角画像の収差を補正した画像を示す模式図である。
一方、図22Bの状態での使用者によるキャリブレーションボタン854の押下に応じてステップS3108で顔方向検出部20が顔方向を取得する。
図22Eは、使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3108において顔方向検出部20が記録した顔方向画像を示す模式図である。
実施例1で図8G~図8Kを用いて先述したとおり、顔方向検出部20は、顎先位置207,207r,207u等と首元位置206との距離及び角度を用いて顔の左右上下方向の角度を算出する。しかし、顎先位置207,207r,207u等と首元位置206の距離及び角度値もまた画像中心と同様に、上述した使用者の体格等に表されるような個人差や調整差があるため一定しない。そのため、本実施例では、キャリブレーションボタン854が押下された時点での顎先位置と首元位置206との関係を使用者が正面を視野中心としたときの値(基準位置)として定義する。これにより、個人差や調整差に依らず使用者の顔方向を正確に算出するための情報(基準位置情報)として利用することが可能となる。
図21に戻り、ステップS3109では、全体制御CPU101は、正面方向のキャリブレーションの準備が完了したか否かを判断する。すなわち、顎先位置207、首元位置206及び位置決め指標中心852の算出に必要な情報が取得できている否かの判定を行う。
このとき、必要な情報が取得できていない場合、正面方向のキャリブレーションの準備は完了していないと判断し(ステップS3109でNO)、必要な情報のうち不足している情報を再度取得できるよう、ステップS3102からの動作を繰り返す。なお、必要な情報が取得できていない場合については当然ステップS3102からのすべての動作を行う必要はなく、不足している情報を再度取得するために必要な動作のみを再度行なっても良い。
ここで、ステップS3107の判定は、キャリブレータ850に搭載された顔センサ806またはインカメラ805を用いて行う。以下、この判定方法の具体的な手順を、インカメラ805を用いて使用者の正面方向についてのキャリブレーション動作を行なっている場合を例に説明を行う。なお、顔センサ806を使用した場合については、情報が二次元か三次元かの差異はあるものの、基本的な考え方は同一であるため省略する。但し、ステップS3107の判定で顔センサ806を使用する場合、顔センサ806から赤外線823が使用者に投光されている間は、カメラ本体1の顔方向検出部20は赤外線23を使用者に投光することによる顔検出は行わない。赤外線23,823が相互に干渉するのを防止するためである。
まず、使用者が、ステップS3106で図22Aのキャリブレーションボタン854を押下すると、表示装置制御部801は、インカメラ805(顔検知手段)で撮影を行い、使用者が写ったインカメラ映像858(図22F)を取得する。さらに、表示装置制御部801は、取得したインカメラ映像858から、使用者の首前部201、顎先203、及び鼻を含む顔204と、撮影・検出部10(撮影部40)の位置情報を検出する。
このインカメラ映像858で検出された各位置情報を用いて、使用者が位置決め指標851の位置決め指標中心852を視野正面で見ているかの判定を、表示装置制御部801(判定手段)が行う。
なお、この判定の結果、使用者が異なる方向を見ていると判定された場合、表示装置制御部801は、指示表示855に正しい情報取得が出来ない旨の情報を表示する。これにより、使用者に対しキャリブレーション動作を再度やり直すように指示することが出来る。
なお、表示装置制御部801は、インカメラ映像858を用いて、撮影・検出部10がある一定以上傾いている、顔方向検出窓13が塞がっているまたは汚れているといった、正しいキャリブレーション動作が出来ない状態であると判定可能な場合がある。このような場合も、表示装置制御部801は、指示表示855に正しい情報取得が出来ない旨の情報を表示するようにしてもよい。
さらには、このステップS3107で取得されるインカメラ映像858と、ステップS3108で取得される撮影映像を用いて、実施例5で後述する視差補正に必要な情報を取得することも可能である。
具体的には、ステップS3108で撮影部40により位置決め指標851が撮影される前に、表示装置800からカメラ本体1に予め位置決め指標851の大きさ(横幅L851a及び縦幅L851b)の情報を送信しておく。これにより、全体制御CPU101は、位置決め指標851の大きさの情報と、ステップS3108で取得された撮影映像に写る位置決め指標851の映像を用いて、撮影・検出部10と位置決め指標851との距離を算出可能となる。位置決め指標851はインカメラ805と同一筐体であるキャリブレータ850にあり、また図22Bではキャリブレータ850は使用者と略正対しているため、インカメラ805と撮影・検出部10も同一の距離であることが分かる。
同様に、ステップS3107aでインカメラ805により図22Fのインカメラ映像が撮影される前に、カメラ本体1から表示装置800に予め撮影・検出部10の大きさの情報を送信しておく。これにより、表示装置制御部801(垂直距離算出手段)は、撮影・検出部10の大きさの情報と、図22Fのインカメラ映像858に写る撮影・検出部10の映像を用いて、撮影レンズ16の光軸中心と使用者の視点位置との垂直距離5070を推定可能となる。加えて、表示装置制御部801は、撮影レンズ16と使用者の顎先203との距離2071も推定可能となる。距離2071は顔方向検出窓13と顎先203との距離であっても良い。
ここで、顔方向検出部20が使用者の首元位置206や顎先位置を算出するには、顔方向検出部20の設計狙いに応じて、使用者の顔が顔方向検出窓13からある一定以上の距離だけ離れている必要がある。従ってこの推定結果は顔方向検出部20が正しく顔方向を検出可能か判定する際の判定条件のひとつとすることが可能である。
図21に戻り、以上で記載した方法で、ステップS3109において、全体制御CPU101は、必要な情報を取得し、正面方向のキャリブレーション準備が完了したと判断した場合、ステップS3110に進む。
ステップS3110では、表示装置制御部801(第一のキャリブレーション手段)が、個人差・調整差を吸収するように、切り出し中心位置をオフセットするために必要な情報を演算し、その情報に基づき切り出し中心位置をオフセットする。
ステップS3110における演算の具体的な説明は以下のとおりである。
使用者が設計値の通り理想状態であり、かつ理想的にカメラ本体1を装着しているならば、図22Cに示すステップS3108で取得された超広角画像の中心856と、その超広角画像に写る位置決め指標中心852の位置は略一致するはずである。しかし実際には、上述した使用者の体格等に表されるような個人差や調整差があるため、超広角画像における中心856及び位置決め指標中心852の位置は通常一致しない。
使用者にとっては、切り出し中心位置は、カメラ本体1の示す画像中心すなわち中心856ではなく、使用者の姿勢や動作における視野中心、すなわち超広角画像における位置決め指標中心852の位置であることが望ましい。
そのため、超広角画像における位置決め指標中心852と中心856とのずれ量857を計測し、切り出し中心位置をカメラ本体1における中心856ではなく位置決め指標中心852を基準とした値にオフセットする。また、その際の顔方向検出部20が検出した顔方向も同様の方法でオフセットする。
具体的なオフセット方法としては、図22Cのように超広角画像に対してずれ量857を計測し、これを左右方向のずれ量857aと上下方向のずれ量857bに分け、全画角の投影方法に従って適切な変換処理を行った後にオフセット量を決定すればよい。
また、図22Dに示すように、超広角画像に投影方法に従って適切な変換処理を行った後にオフセット量を決定しても良い。すなわち、変換後の撮影映像における中心856aと位置決め指標中心852aとのずれ量857a(図22Dにおいて不図示)を計測し、ずれ量857aを左右方向のずれ量857cと上下方向のずれ量857dに分けてオフセット量を決定しても良い。
図22C、図22Dのいずれに示すオフセット方法をとるかは、カメラシステムの処理負荷や目的を考慮して任意に決定することが可能である。
以上説明した正面方向のキャリブレーション動作を行うことで、個人差や調整差等に関わらず、各使用者の装着時における顔方向と、超広角画像内でのその顔方向における視野中心、そして顔方向検出部20の顔方向とを適切に関連付けることが可能となる。
なお、ここまでは、正面、右上、右下、左上、左下の5方向のうち、正面方向のキャリブレーション動作について説明を行ったが、同様のキャリブレーション動作を右上、右下、左上、左下の4方向についても実行する必要がある。
よって、図21において、ステップS3110の処理が終了すると、ステップS3111に進む。
ステップS3111では、正面、右上、右下、左上、左下の5方向のうち、まだキャリブレーション動作が行われていない方向があると判定した場合、その1方向に、キャリブレーション動作を行う方向を変更し、ステップS3103に戻る。これにより、すでに終了した正面方向以外の、残りの方向について同様にキャリブレーション動作を繰り返す。
なお、図21においては不図示だが、ステップS3111において、キャリブレーション動作が行われていない方向がないと判定した場合は本処理をそのまま終了する。
図23A~図23Eは、使用者の右手上方向(超広角画像における右上方向)についてのキャリブレーション動作について説明するための図である。図23A~図23Eはそれぞれ図22A~図22Eに対応しており、基本的な動作も同じであるため、共通する説明は省略する。
ここで、図23Aに示すように、指示表示855には顔を右上に向けた際の視野中心に位置決め指標851を配置するよう文字での指示を記載している。
図23Bは、使用者が、図23Aにおける指示表示855に示された指示に従ってキャリブレータ850を右上にかざしている様子の斜視図を示す。
図23Cは、図23Bの状態において撮影レンズ16が捉えた超広角画像の全体を示す模式図である。
図23Cに示すように、具体的なオフセット方法としては、まず、超広角画像における中心856及び位置決め指標中心852の位置のずれ量857を計測する。その後、計測されたずれ量857を直径方向のずれ量857eと角度方向のずれ量857fに分け、全画角の投影方法に従って適切な変換処理を行った後にオフセット量を決定すればよい。
また他にも、図23Dに示すように、超広角画像に投影方法に従って適切な変換処理を行った後にオフセット量を決定しても良い。すなわち、変換後の撮影映像における中心856aと位置決め指標中心852aとのずれ量857a(図23Dにおいて不図示)を計測し、ずれ量857aを直径方向のずれ量857gと角度方向ずれ量857hに分けてオフセット量を決定しても良い。
なお、図22A~図22Eを用いて説明したオフセット量の決定では、ずれ量を上下―左右方向に分ける方法を用いた。これに対し、図23A~図23Dを用いて説明したオフセット量の決定では、ずれ量を直径―角度方向に分ける方法を用いたが、この方法の違いは説明の便宜上のものにすぎず、いずれの方法を用いてもかまわない。
また、このとき顔方向検出部20では、図23Eに示すように、使用者が右上方向を向いた時の顔方向を算出するのに必要な首元位置206及び顎先位置207ruが取得できている。そのため、使用者の個人差・調整差にかかわらず、使用者が位置決め指標中心852の方向(この場合は右上方向)を見た際の顔方向を正しく測定することが出来る。
以上のように、図21に示すキャリブレーション処理においては、正面方向だけでなく、右上、右下、左上、左下の各方向についてもキャリブレーション動作を行う。これにより、使用者が上下左右方向のいずれかの方向に首を振った場合に、使用者がどの方向を向いているかを顔方向検出部20は正しく測定することが可能となり、個人差や調整差によらずカメラ本体1を適切に使用することが出来る。
以上の記載では、簡単のため明示的に正面、右上、右下、左上、左下の5つの方向に対して繰り返しキャリブレーション動作を行う方法を説明した。
しかし、キャリブレーション動作はこの方法に限らない。例えば、使用者が、指示表示855に従ってZ字状、渦巻き状、多角形状等の形状に連続的にキャリブレータ850を移動させると同時に、キャリブレータ850に表示中の位置決め指標851を視野中心で捉え続ける方法を採っても良い。この方法では、表示装置制御部801は、この方法によりキャリブレータ850が移動している間、複数回キャリブレーション指示をカメラ本体1に送信する。全体制御CPU101は、キャリブレーション指示を受信する毎に顔方向検出部20で検出して顔方向と、撮影部40で撮影した超広角画像における位置決め指標中心852の位置座標情報を取得し、履歴情報として保持する。その後、全体制御CPU101は、取得した履歴情報から抽出した情報を組み合わせて、映像の切り出し中心位置と使用者の顔方向との関係性を算出する。さらには、この方法によるキャリブレータ850の移動中にキャリブレータ850側で取得されたインカメラ805や顔センサ806の情報を用いて、履歴情報から抽出される情報を、使用者が位置決め指標851を見ている状態の情報のみとしてもよい。これにより、例えば使用者がよそ見をしている状態の情報は、履歴情報から抽出されなくなるため、関係性の算出の精度を上げることが可能である。
また、表示装置制御部801は、キャリブレーション指示の際に角速度センサ807による測定値もカメラ本体1に送信するようにしてもよい。この場合、全体制御CPU101は、送信された角速度センサ807による測定値から、使用者によるキャリブレータ850の移動方法や、キャリブレータ850の位置や姿勢を示す移動情報を取得し、これも履歴情報として保持する。これにより、角速度センサ807による測定値に基づく移動情報、顔方向検出部20が検出した顔方向、及び撮影部40で撮影した超広角画像における位置決め指標中心852の位置座標情報から、キャリブレーション動作を簡易かつ正確に行うことが出来る。
ただしこの場合は、角速度センサ807による測定値に基づく移動情報と、位置決め指標851の位置座標情報に基づく移動情報が一致している必要がある。そのため、角速度センサ807による測定値を用いる場合は、カメラ本体1とキャリブレータ850の通信を同期させることが必要である。
以上、実施例2では、個人差や調整差があっても使用者の顔方向と超広角画像における狙い視野125の中心位置を関係づけるキャリブレーション方法を説明した。しかし、本発明は、実施例2で例示した各種形態に限定されるものではなく、その要旨の範囲内で種々の変形及び変更が可能である。
(実施例3)
実施例3では、カメラ本体1が使用者に対して位置ズレした際の検出方法と、ズレを検出した際の動作について図24~図29を用いて詳細に説明する。
基本的に本実施例は、実施例1からの派生として説明を行う。このため、実施例3のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
本実施例の撮像装置は使用者の首元から使用者の頭部を観察することで使用者の顔の向きを検出し、その検出結果に基づいて超広角映像から映像を切り出して出力映像とする。したがって、顔方向検出部20と撮影部40を有するカメラ本体1が使用者に対して正しく装着されていない、もしくは、キャリブレーションを実施した位置からズレが生じてしまうと、正しく顔方向を検出できなくなったり、出力映像が傾いたりしてしまう。そのため、使用者に対するカメラ本体1の位置ズレを検出し、補正や警告を実施することが必要となる。
本実施例の撮像装置は首掛け式の装着を想定していることから、使用者が正面を見た時の視線を主軸としてロールズレとピッチズレが発生する可能性が高い。
図24は、カメラ本体1を装着した使用者を正面から見た模式図であり、図24aはカメラ本体1が使用者に対して正しく装着されている時、図24bはカメラ本体1が使用者に対してロールズレしている時の様子をそれぞれ表している。
図25は、カメラ本体1を装着した使用者を側面から見た模式図であり、図25aはカメラ本体1が使用者に対して正しく装着されている時、図25bはカメラ本体1が使用者に対してピッチズレしている時の様子をそれぞれ表している。
図26は、本実施例におけるカメラ本体1の機能ブロック図である。詳細は後述するので、ここでは図26を用いてカメラ本体1で実行される大まかな処理の流れを説明する。
図26においてカメラ本体1は顔方向検出部20、記録方向・画角決定部30、撮影部40、画像切り出し・現像処理部50、一次記録部60、送信部70を備える。さらに、カメラ本体1は、他制御部111、ズレ検出部9021(ズレ検出手段)、顔方向補正部9022(観察方向補正手段)、及び記録角度決定部9031(記録映像補正手段)を備える。これらの機能ブロックは、カメラ本体1の全体制御を行う全体制御CPU101の制御により実行される。
顔方向検出部20は、顔の状態を検出してこれをズレ検出部9021に渡し、検出された顔の状態から観察方向を類推し、これを記録方向・画角決定部30に渡す。
ズレ検出部9021は顔方向検出部20で検出された顔の状態から、使用者に対するカメラ本体1のロールズレ量とピッチズレ量を検出し、ロールズレ量を記録角度決定部9031に渡し、ロールズレ量とピッチズレ量を顔方向補正部9022に渡す。また、ズレ検出部9021はロールズレまたはピッチズレを検出すると、他制御部111にズレ情報を通知する。
他制御部111はズレ情報を受け取ると、カメラ本体1に備わっているスピーカー105、振動体106を用いて使用者に警告を通知する。または、他制御部111はズレ情報を受け取ると、送信部70から表示装置800に対してズレ情報を通知し、表示装置800にそなわった表示部803、スピーカー815、振動体816、またはLED817で使用者に警告を通知する。
この時、カメラ本体1のスピーカー105、振動体106、及び表示装置800の表示部803、スピーカー815、振動体816、LED817のうちの一つまたは複数が請求項記載の警告手段である。
記録角度決定部9031は、ロールズレ量から記録画像のロール補正角を算出して画像切り出し・現像処理部50に渡す。
顔方向補正部9022は、ロールズレ量とピッチズレ量から観察方向の補正量を算出し、記録方向・画角決定部30に観察方向の補正量を渡す。
記録方向・画角決定部30は、顔方向検出部20で類推された観察方向と、顔方向補正部9022で算出された観察方向の補正量に基づき各種演算を行い、撮影部40からの映像を切り出す際の位置や範囲の情報を決定する。そして、記録方向・画角決定部30は決定した情報を画像切り出し・現像処理部50に渡す。
撮影部40は、被写体からの光線を映像に変換し、その映像を画像切り出し・現像処理部50に渡す。
画像切り出し・現像処理部50は、記録方向・画角決定部30からの情報と、記録角度決定部9031からの情報を用いて、撮影部40からの映像を切り出して現像することで、使用者が見ている方向の映像のみを一次記録部60に渡す。以降は実施例1と同様のため説明を割愛する。
図27は、顔方向検出窓13から見える使用者の映像である。そして、図27aはカメラ本体1が使用者に対して正しく装着されている時、図27bはカメラ本体1が使用者に対してロールズレしている時、図27cはカメラ本体1が使用者に対してピッチズレしている時の様子をそれぞれ表している。
正しく装着されている図27aでは首元位置9206(首の中心)が画面のほぼ中央に位置している(9206a)のに対し、ロールズレしている図27bでは、首元位置9206が画面右寄りに位置している(9206b)ことがわかる。したがって、首元位置9206bの画面の左右中央からのズレ量が所定の閾値を超えた時に、カメラ本体1が使用者に対してロールズレしたと判定することが可能である。もしくは、首元位置9206のキャリブレーションした時の位置からのズレ量が所定の閾値を超えた時に、カメラ本体1が使用者に対してロールズレしたと判定することが可能である。
この時、赤外線集光レンズ26と赤外検出処理装置27の性能は既知なので、首元位置9206のズレ量からロールズレ量を算出することが可能である。
白枠9220は、キャリブレーション時に判明している顎先端位置9207(顎の先端)が存在する可能性のある範囲である。正しく装着されている図27aでは顎先端位置9207aが白枠9220内に収まっているのに対し、ピッチズレしている図27cでは、顎先端位置9107cは白枠9220内に収まっていなことがわかる。したがって、顎先端位置9207がキャリブレーション時に判明している顎先端位置9207が存在する可能性のある白枠9220から外れた時に、カメラ本体1が使用者に対してピッチズレしたと判定することが可能である。
この時、赤外線集光レンズ26と赤外検出処理装置27の性能は既知なので、顎先端位置9207の白枠9220かの外れ量からピッチズレ量をおおむね算出することが可能である。
また、図27aの使用者と図27cの使用者は同じ方向を向いているが、図27cではピッチズレの影響で、首元位置9206cが移動しているため、移動角度θrが変化している。この変化量を算出して補正を実施する。
図28は、撮影部40で撮影された超広角映像の有効投影部9122と、画像切り出し・現象処理部50で切り出す狙い視野9125を示した図である。図28aは、カメラ本体1が使用者に対して正しく装着されている時の様子である。図28bはカメラ本体1が使用者に対してロールズレしている時の様子である。図28cはカメラ本体1がロールズレしていて、記録角度決定部9031によって狙い視野9125cが補正されている時の様子である。
図28bで示されるように、カメラ本体1がロールズレをしていると、使用者の見ている角度に対して傾いた映像が記録されてしまう。しかし、図28cに示すように、狙い視野9125のロール補正を実施すると使用者見ている映像に近い映像を記録することが可能となる。
図29は、ズレ検出時のフローチャートである。図29を使ってズレ検出のフローを説明する。
まず、角速度センサ107または加速度センサ108(姿勢検出手段)で、使用者が運動中かどうかを検出し(ステップS9101)、使用者が運動中であると検出されている間はズレ検出を停止する(ステップS9102)。運動中は使用者に対するカメラ本体1の位置が不安定であり、ズレ検出の効果が期待できないことと、運動するたびにズレ通知が出ることの煩わしさを回避するためにこのようにしている。
ステップS9101で運動中ではないと検出された場合、顔方向検出部20で取得した情報を基に、ズレ検出部9021は、図27で示したような方法でロールズレが発生しているかどうかを検出する(ステップS9103)。続いて、ピッチズレが発生しているかどうかも検出する(ステップS9104・ステップS9105)。
ロールズレがあると検出された際には、記録角度決定部9031が切り出し映像のロール補正角を算出して(ステップS9106)、画像切り出し・現像処理部50が切り出し映像のロール補正(記録映像ロール補正)を実施する(ステップS9107)。
この補正により、使用者が実際に目で見ている映像と、記録される映像の回転ズレの量を低減することが可能となる。
また、ピッチズレがあると検出された際には、顔方向補正部9022で顔方向のロール及びピッチの補正量を算出し(ステップS9108)、記録方向・画角決定部30での記録方向を補正する(ステップS9110)。この補正により、使用者が実際に向いている方向と、実際に記録される方向のズレを少なくすることができる。
加えて、ロールズレまたはピッチズレのどちらかが検出された際には、画像切り出し・現像処理部50が切り出す狭い視野9125の範囲を拡大してもよい。これにより、カメラ本体1にズレが生じても、使用者が記録したい方向をできる限り記録することが可能となる。
ロールズレまたはピッチズレのどちらかが検出された際には、各補正を実施(ステップS9107・ステップS9109)の後、警告手段を用いてズレ警告を使用者に対して通知する(ステップS9110)。この通知により、使用者がカメラ本体1のズレに気づき、ズレの修正を実施することを助けることができる。なお、ズレ警告を行うタイミングはこれに限らなくてもよい。例えば、ロールズレ及びピッチズレが所定の時間以上継続して検出されたときにズレ警告を行なうようにしてもよいし、ロールズレおよびピッチズレが所定の回数以上検出された場合にズレ警告を行うようにしてもよい。ロールズレ及びピッチズレのどちらも検出されなかった際には、通常撮影を続ける(ステップS9111)。
なお、図29はズレ検出時のフローとしてロールズレが発生しているかどうかを先に検出しているが、先にピッチズレが発生しているかどうかを検出する構成でもよく、その順序は問わない。
本実施例では、実施例1に倣って赤外線カメラで顔方向検出及びズレ検出を実施する方式で説明したが、ToFに代表される3Dセンサや、ミリ波レーダーなどを用いて検出を行なっても良い。
本実施例では、映像のロール補正、顔方向検出の補正、ズレ警告すべてを実施するパターンで説明したが、これらのうち一部だけを実施しても良い。その際には図29で説明したフローの中で、実施しないものを無視したフローに沿って実施されていればよい。
(実施例4)
実施例4では、使用者が首を横に倒した時(首を傾げた時)に、出力映像を使用者の見ている角度に補正するための動作について図30~図34を用いて詳細に説明する。
基本的に本実施例は、実施例1からの派生として説明を行う。このため、実施例4のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
本実施例の撮像装置は使用者の首元から使用者の頭部を観察することで使用者の顔の向きを検出し、その検出結果に基づいて超広角映像から映像を切り出して出力映像とする。したがって、使用者は自身の観察している映像に非常に近い映像を記録することが可能となる。このようなコンセプトのカメラにおいては、使用者が首を横に倒した時(首を傾げた時)にも、使用者が見ている映像と出力映像との角度(ロール角)が一致していることが望まれる。
図30は使用者が首を横に倒した(首を傾げた)状態を示した図である。図30aは首を倒す前、図30bは倒した後の状態を表している。
図33は、撮影部40で撮影された超広角映像の有効投影部9122と、画像切り出し・現象処理部50で切り出す狙い視野9125を示した図である。図33aは、首を傾げずに正面を見ている時の狙い視野9125dを、図33bは、首を傾げて正面を見ている時の狙い視野9125eをそれぞれ示している。
図33に示すように、首をかしげている時には、かしげていない時に対して、体に対する有効投影部9122の映像に変化はない。ただし、見ている映像が傾いているので、見ている映像と同じ映像を記録するためには、狙い視野9125のみをロール回転させる必要がある。
図31は、本実施例におけるカメラ本体1の機能ブロック図である。詳細は後述するので、ここでは図31を用いてカメラ本体1で実行される大まかな処理の流れを説明する。
図31においてカメラ本体1は顔方向検出部20(測距手段)、記録方向・画角決定部30、撮影部40、画像切り出し・現像処理部50、一次記録部60、送信部70、他制御部111、及び記録角度決定部9031(ロール角検出手段)を備える。これらの機能ブロックは、カメラ本体1の全体制御を行う全体制御CPU101の制御により実行される。
顔方向検出部20は、顔の状態を検出してこれを記録角度決定部9031に渡し、検出された顔の状態から観察方向を類推し、これを記録方向・画角決定部30に渡す。
記録角度決定部9031は、顔方向検出部20から受け取った顔の状態から首の倒れ量(ロール角補正量)を算出して画像切り出し・現像処理部50に渡す。
記録方向・画角決定部30は、顔方向検出部20で類推された観察方向に基づき各種演算を行なって、撮影部40からの映像を切り出す際の位置や範囲の情報を決定し、この情報を画像切り出し・現像処理部50に渡す。
撮影部40は、被写体からの光線を映像に変換し、その映像を画像切り出し・現像処理部50に渡す。
画像切り出し・現像処理部50は、記録方向・画角決定部30からの情報と、記録角度決定部9031からの情報を用いて、撮影部40からの映像を切り出して現像することで、使用者が見ている方向の映像のみを一次記録部60に渡す。以降は実施例1と同様のため説明を割愛する。
図32は、顔方向検出窓13から見える使用者の映像であり、図30bに対応する角度に首を傾けている様子を表している。図32を用いて首の倒し量(顔のロール角)を検出する方法について説明する。
図32aの第1の点9230と第2の点9231(複数の点)はそれぞれ、次の位置に配置される。各点は、それぞれ、第1の点9230と第2の点9231とを結んだ直線が首元位置9206と顎先端位置9207とを結んだ直線と直交し、かつ首元位置9206と顎先端位置9207とを結んだ直線によって2等分される位置に配置される。第1の点9230と第2の点9231それぞれと、カメラ本体1との距離を比較することで大まかな首の倒し量を検出することが可能となる。
一方、図32bの第1の領域9232と第2の領域9233(複数の領域)はそれぞれ、首元位置9206と顎先端位置9207とを結んだ直線の両側に線対称な位置で配置されている。ここでは、第1の領域9232と第2の領域9233それぞれと、カメラ本体1との距離の平均を比較することで大まかな首の倒し量を検出することが可能となる。
図32aに示す第1の点と第2の点の位置を比較する方法、図32bに示す第1と第2の領域を比較する方法、どちらでも顔ロール角を算出することができる。
図34は、顔ロール角検出から切り出し映像のロール補正までのフローチャートである。図34を使って顔ロール角補正のフローを説明する。
まず、本実施例の撮像装置は出力映像のロール補正を実施する第1のモードと、ロール補正を実施しない第2のモードを備え、初めに第1のモードであるかどうかを確認する(ステップS9201)。第1のモードであった際には、顔方向検出部20で取得した情報を基に、記録角度決定部9031は、図32で示したような方法を基に顔ロール角の演算を実施する(ステップ9202)。また、第2のモードである場合には顔ロール角演算は実施されない(ステップS9203)。
次に、記録角度決定部9031によって算出された顔ロール角が、角速度センサ107または加速度センサ108で検出された鉛直方向に対して所定の閾値以上のズレがあるかどうかを判定する(ステップS9204)。具体的には、角速度センサ107または加速度センサ108で検出された鉛直方向に沿った平面に対し、首がどれほど傾いているか(図30参照)を判定していることになる。
所定の閾値以上のズレがあると判定された際には、記録角度決定部9031は顔ロール角の算出結果に基づいて決定した記録角度を算出し、画像切り出し・現像処理部50が切り出し映像のロール補正を実施する(ステップS9205)。
所定の閾値以上のズレがない(所定の閾値未満)と判定された際には、記録角度決定部9031は角速度センサ107または加速度センサ108で検出された鉛直方向に基づいて決定した記録角度を算出する。また、この算出とともに、画像切り出し・現像処理部50が切り出し映像のロール補正を実施する(ステップS9206)。このようなフローにすることで、使用者が直立していない状況で水平の取れた映像を見たいという場合に、鉛直方向を基にした、水平の取れた映像を出力することが可能となる。そして使用者が水平に対して傾いた角度の映像を見ている際には、使用者が見ている角度の映像を記録することが可能となる。
本実施例では、鉛直方向に対する比較を行なって、顔ロール角と鉛直方向のどちらを選択するか判定するフローで説明したが、鉛直方向に対する比較を行わず、顔ロール方向を基準とした判定のみを実施するようにしても良い。その際にはステップS9203及びステップS9205を廃止すればよい。
本実施例では、実施例1に倣って赤外線カメラで顔方向検出及びズレ検出を実施する方式で説明したが、ToFに代表される3Dセンサや、ミリ波レーダーなどを用いて検出を行なっても良い。
(実施例5)
実施例5では、顎の位置に変化が生じた際の検出方法と、顎の位置の変化を検出した際の動作について図35及び図36を用いて詳細に説明する。
基本的に本実施例は、実施例1からの派生として説明を行う。このため、実施例3のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
本実施例の撮像装置は使用者の首元から使用者の頭部を観察することで使用者の顔の向きを検出し、その検出結果に基づいて超広角映像から映像を切り出して出力映像とする。つまり、顎の状態を観察して顔の向きを推論するので、顔の向きと顎の状態との関係性に変化が生じる(口の開閉がある)と、顔の向きの推論結果に誤差が生じてしまう。これは、会話中や食事中に正しい検出が困難であることを示している。
図35は、カメラ本体1を装着した使用者を側面から見た模式図であり、図35aは使用者が正面を見て口を閉じている時、図35bは使用者が正面を見て口を開いている時、図35cは使用者が斜め下を見て口を閉じている時の様子をそれぞれ表している。
実際には、図35aと図35bが正面を見ており、図35cは斜め下方向を見ているが、カメラ本体1から見た時には、図35aは正面を見ているが、図35bと図35cは斜め下を見ているように見える。つまり、口が閉じている時の検出結果を用いることができれば正しい顔の方向を検出することができる。
図36は、横軸に時間、縦軸に顔の上下方向(ピッチ方向)の角度をとった時の検出結果の例を示している。図36aは、口を開閉(会話など)しながら上から下を向いた時の検出結果を示しており、検出生値9400は上下に波打ちながら上から下に向かって移動している。この時、一般的に行われるであろうLoパス処理を実施したLoパス値9402は検出生値9400の中央を通過する値をとる。このLoパス値9402では、口を半開きにした状態での顔の位置で検出することになってしまう。この時、正しく口を閉じた位置での判定値は、細かい波の各ピーク点を結んでできる、判定値9401である。
図36bは、正面を見たまま口を開閉し、その開閉量を変化させている時の検出結果を示している。図36bからわかる通り、使用者は正面を向いたままなのに対し、Loパス値9402を基に検出方向を決めた際には、出力映像が上下に揺れることになってしまう。ここでも、細かい波の各ピーク点を結んでできる判定値9401を基に顔方向を検出すれば出力映像は正面を向いたままになる。したがって、所定の範囲の周波数で顔の上下方向(ピッチ角)が上下を繰り返している時には、各周期の波の最大値(上側)をとるように検出値を補正することで、会話、食事中でも正しい顔の方向を検出することが可能となる。
本実施例においては、会話、食事による口の開閉の周波数は1Hzから10Hz程度であることを想定している。
図35に示す9019は使用者の発声及び咀嚼音を検出する使用者側マイク(音検知手段)である。図36に示すように検出生値9400の周波数で会話、食事を判定しても良いが、使用者側マイク9019によって、所定の閾値以上の音を検出した際に、細かい波の各ピーク点を結んでできる判定値9401を顔の方向であると判定するようにしても良い。
また、実施例2で実施されるキャリブレーションの際に、口を閉じた状態でキャリブレーションを実施するよう、表示装置800、またはキャリブレータ850に指示を出すことで、より正確なキャリブレーション及びピッチ角補正が可能となる。そこで、キャリブレーションを実施する際に、例えばキャリブレータ850から音声によるアナウンスを行う。これにより、使用者に口を閉じた状態でキャリブレーションを実施するように促すことができる。
(実施例6)
実施例2で説明したように、使用者の体格やカメラ本体1の取り付け状態等に起因して、顔方向検出部20で検出した顔方向と、その顔方向に応じて設定される狙い視野125の中心位置(画像の切り出し位置)との関係性には個人差が生じる。そのため、顔方向と画像の切り出し位置を関連付けるキャリブレーション処理(以下本実施例では単に「キャリブレーション処理」または「キャリブレーション」と言う)が必要となる。このキャリブレーション作業は、使用者が正面を向いている場合のみではなく、例えば、左上、左下、右上、右下を向いている場合等、複数の顔方向について行う必要があるため、使用者にとって操作が煩雑となるおそれがある。実施例6は、キャリブレーション処理における使用者の手間を軽減するものである。
本実施例は、基本的に実施例1および実施例2からの派生として説明を行う。そのため、実施例6のカメラシステムの構成のうち、実施例1および実施例2のカメラシステムの構成と同一の構成については同一の符号を用いて重複する説明は省略し、異なる構成については都度詳細を追記して説明する。
図37は、実施例6に係るキャリブレーション処理に用いられるキャリブレータ850の詳細を表す図である。本実施例では、キャリブレーションシステムは、カメラ本体1(撮像装置)とキャリブレータ850とを備え、キャリブレータ850を表示装置800が兼ねている場合について説明を行う。なお、キャリブレータ850は、実施例1および実施例2と同様に専用の機器であってもよいし、一般的なスマートフォンやタブレット端末であってもよい。
図37に示すように、キャリブレータ850には、ボタン802、表示部803、インカメラ805、顔センサ806、位置決め指標851、カメラ画像表示4001、メッセージ表示4002が含まれている。なお、位置決め指標851、カメラ画像表示4001、メッセージ表示4002は、本実施例では表示部803に表示されるものとするが、これに限定されない。このように、表示部803は、位置決め指標851等を表示する指標表示手段として機能する。これにより、指標表示手段を表示部803とは別に設けるのを省略することができ、よって、キャリブレータ850の構成を簡単にすることができるとともに、小型化にも寄与する。
実施例1等でも述べたように、カメラ本体1により撮影された超広角画像は、送信部70によって送信され、キャリブレータ850の高速無線ユニット872または小電力無線ユニット871によって受信される。そして、カメラ画像表示4001(受信画像表示手段)には、カメラ本体1(撮像手段)により撮影された超広角画像に、各種情報を重畳して描画した画像が表示される。図37に示すように、この画像には、各種情報の1つとしてキャリブレータ850が含まれている。メッセージ表示4002には、使用者に対して操作を促すメッセージやエラーメッセージ等が表示される。
まず、カメラ本体1の処理について説明する。図38は、本実施例のキャリブレーション処理におけるカメラ本体1の処理のフローチャートである。なお、このフローチャートにおける各処理は、全体制御CPU101が、内蔵不揮発性メモリ102に格納されたプログラムを実行することにより実現される。
キャリブレーション処理が開始されると、まず、ステップS4101では、撮影部40により、超広角画像を撮影する。
次いで、ステップS4102では、ステップS4101で撮影された(取得された)超広角画像の収差を補正する。図40(a)は、キャリブレーション時に、カメラ本体1により撮影し、収差を補正した超広角画像の例を表す模式図である。実施例2でも説明したように、キャリブレーション処理において、使用者は、キャリブレータ850を自身の体の前面にかざす動作をする。このため、鎖骨位置に設置されたカメラ本体1で撮影した画像には、図40(a)に示すように、キャリブレータ850と、キャリブレータ850を保持する使用者の手4301が写ることとなる。
次いで、ステップS4103では、カメラ本体1の送信部70により、ステップS4102で補正した画像をキャリブレータ850へ送信する。
次いで、ステップS4104では、送信部70(座標送信手段)により、キャリブレーションのための目標位置をキャリブレータ850へ送信する。キャリブレータ850は、この目標位置を高速無線ユニット872または小電力無線ユニット871(座標受信手段)で受信することができる。ここで「キャリブレーションのための目標位置」とは、キャリブレーションを行うために、使用者がキャリブレータ850を移動してかざす位置、すなわち、キャリブレータ850の移動先の座標情報のことである。本実施例では、目標位置として、カメラ画像表示4001の画像中央、左上、左下、右上、右下が設定される(指定される)が、これに限定されない。また、目標位置は、必要に応じて追加あるいは省略も可能である。
次いで、ステップS4105では、全体制御CPU101(指標検出手段)は、ステップS4102で補正した超広角画像に基づいて、キャリブレータ850に表示された位置決め指標851を検出するとともに、当該位置決め指標851の座標を算出する。なお、位置決め指標851の検出は、例えば、位置決め指標851の色や形状等の特徴と一致する画像領域を探索することで可能である。また、この他、深層学習(Deep Learning)等のような機械学習を用いることによっても、位置決め指標851の検出が可能である。
次いで、ステップS4106では、全体制御CPU101は、ステップS4105で検出された位置決め指標851が目標位置(所定の位置)にあるか否かを判定する。この判定は、ステップS4105で算出された位置決め指標851の座標が、目標位置の座標と一致またはその近傍にあるか否かを判定することによって実行される。そして、ステップS4106での判定の結果、位置決め指標851が目標位置にあると判定された場合には、処理はステップS4107に進む。そして、キャリブレーションの実行が全体制御CPU101(キャリブレーション手段)で開始される。一方、ステップS4106での判定の結果、位置決め指標851が目標位置にはないと判定された場合には、処理はステップS4110に進む。なお、位置決め指標851が目標位置にはないと判定された場合、キャリブレータ850は、位置決め指標851を所定位置に移動させる指示を使用者に与える。これについては、図39を参照して後述する。
ステップS4106実行後のステップS4107では、顔方向検出部20は、顔方向(使用者の顔向き)を検出する。この顔方向の検出処理は、実施例1で説明したステップS200の処理と同様のものである。
ステップS4106実行後のステップS4108では、全体制御CPU101は、補正情報を算出する。この補正情報は、実施例2で説明したものと同様のものであり、ステップS4105で算出された位置決め指標851の座標と、ステップS4107で検出された顔方向との関係を示す情報である。なお、本実施例では、説明の簡略化のために、使用者が位置決め指標851を視野正面で見ているか否かの判定について説明を省略したが、実施例2と同様に、使用者が位置決め指標851を視野正面で見ている場合に補正情報の算出を行うようにしてもよい。
次いで、ステップS4109では、全体制御CPU101は、目標位置を更新する。本実施例では、目標位置をカメラ画像表示4001の画像中央→左上→左下→右上→右下の順に更新するが、これに限されない。
次いで、ステップS4110では、全体制御CPU101は、全ての目標位置で補正情報の算出が完了したか否かを判定する。ステップS4110での判定の結果、全ての目標位置で補正情報の算出が完了したと判定された場合には、処理はステップS4111に進む。一方、ステップS4110での判定の結果、全ての目標位置で補正情報の算出が完了していないと判定された場合は、処理はステップS4101へ戻り、以降のステップが準実行される。
ステップS4110実行後のステップS4111では、ステップS4110までで得られた補正情報がカメラ本体1の内蔵不揮発性メモリ102または大容量不揮発性メモリ51(補正情報記憶手段)に記憶される。これにより、例えば、この記憶された補正情報を任意のタイミングでキャリブレータ850に送信することができる。この場合、補正情報は、カメラ本体1の送信部70(補正情報送信手段)を介して送信され、キャリブレータ850の高速無線ユニット872または小電力無線ユニット871(補正情報受信手段)で受信される。そして、補正情報は、キャリブレータ850の大容量不揮発性メモリ814等(補正情報記憶手段)でも記憶されることとなる。
次いで、ステップS4112では、送信部70により、キャリブレーション処理の完了をキャリブレータ850へ通知して、処理が終了する。
次に、キャリブレータ850の処理について説明する。図39は、本実施例のキャリブレーション処理におけるキャリブレータ850での処理のフローチャートである。なお、このフローチャートにおける各処理は、表示装置制御部801が、内蔵不揮発性メモリ812に格納されたプログラムを実行することにより実現される。
キャリブレーションが開始されると、まず、ステップS4201では、表示装置制御部801は、表示部803に位置決め指標851を表示する。ステップS4105の処理は、この表示部803に表示された位置決め指標851を検出する処理である。
次いで、ステップS4202では、表示装置制御部801は、使用者に対して操作を促すメッセージを表示部803に表示する。図41(a)は、ステップS4202完了時における表示部803の表示状態を表す模式図である。図41(a)に示すように、表示部803には、表示部803の中央部近傍に配置された位置決め指標851と、位置決め指標851の下側に配置されたメッセージ表示4002とが表示されている。メッセージ表示4002には、キャリブレータの移動を促す旨のメッセージが表示されている。なお、位置決め指標851は、カメラ本体1で検出可能であれば、図41(a)で示す配置位置や形状に限定されない。また、位置決め指標851が超広角画像の縁部側に位置している場合、位置決め指標851の形状に歪みが生じるおそれがある。この場合、表示部803(指標表示手段)の作動によって位置決め指標851の形状または色を時間経過とともに変化させることにより、位置決め指標851の検出が可能となる。位置決め指標851の形状の変化としては、例えば、円形と矩形とを繰り返す変化等が挙げられる。また、位置決め指標851の色の変化としては、例えば、有彩色(例えば赤色)と無彩色(例えば黒色)とを繰り返す変化等が挙げられる。
次いで、ステップS4203では、高速無線ユニット872または小電力無線ユニット871により、カメラ本体1から超広角画像を受信する。この画像は、ステップS4103で送信された画像である。
次いで、ステップS4204では、高速無線ユニット872または小電力無線ユニット871により、カメラ本体1から目標位置の座標を受信する。この座標は、ステップS4104で送信された目標位置の座標である。
次いで、ステップS4205では、表示装置制御部801(描画手段)は、ステップS4203で受信した超広角画像と、ステップS4204で受信した目標位置の座標とを重畳させて描画する。この目標位置の座標(座標情報)は、キャリブレータ850の移動先を使用者に示す情報、すなわち、使用者がキャリブレータ850を移動させる際の目印となる。また、目標位置の座標は、例えば、後述するようにカメラ画像表示4001の中心と同心的に配置され、予め設定められた半径を有する円とするが、形状については、これに限定されず、例えば、四角形等の他の形状でもよい。
図40(b)は、目標位置がカメラ画像表示4001の中央に位置する場合において、目標位置が目印の円として超広角画像に描画された画像を表す模式図である。図40(b)に示すように、カメラ画像表示4001には、使用者の手4301に加えて、目印4302が点線で描画されている。目印4302は、キャリブレータ850が当該目印4302の内側に配置されるように、使用者にキャリブレータ850を移動してもらうためのものである。従って、目印4302の半径は、キャリブレータ850の大きさを考慮して決定される。そして、メッセージ表示4002には、この目印4302の内側にキャリブレータ850を移動するよう促すメッセージが表示される。このメッセージを確認した使用者は、当該メッセージどおりに、キャリブレータ850を目印4302の内側に移動させることができる。
次いで、ステップS4206では、表示部803の所定位置、すなわち、カメラ画像表示4001(受信画像表示手段)に、ステップS4205で描画した超広角画像を表示する。図41(b)は、ステップS4206完了時における表示部803の表示状態を表す模式図である。図41(b)に示すように、カメラ画像表示4001には、超広角画像に目印の円(目印4302)が重畳して描画された画像が表示されている。このように、キャリブレータ850を移動するための目印4302と自分の手4301とが一括して表示される。これにより、使用者は、直感的にキャリブレータ850を目印4302まで移動させることができる。
次いで、ステップS4207では、表示装置制御部801は、カメラ本体1からキャリブレーション処理の完了通知を受信したか否かを判定する。ステップS4207での判定の結果、完了通知が受信されたと判定された場合には、処理を終了する。一方、ステップS4207での判定の結果、完了通知が受信されていないと判定された場合には、処理はステップS4203に戻り、以降のステップが順次実行される。
以上のようなキャリブレーション作業により、使用者が、前述のように正面、左上、左下、右上、右下等の複数の方向に顔を向ける煩わしさを低減することができる。これにより、キャリブレーション作業、すなわち、キャリブレーション時における使用者の操作が容易になる。従って、カメラ本体1やキャリブレータ850を使用するときの利便性が向上する。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えばASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
1 カメラ本体
20 顔方向検出部
30 記録方向・画角決定部
40 撮影部
50 画像切り出し・現像処理部
60 一次記録部
70 送信部
101 全体制御CPU
105 スピーカー
106 振動体
107 角速度センサ
108 加速度センサ
800 表示装置
803 表示部
815 スピーカー
816 振動体
817 LED
850 キャリブレータ
851 位置決め指標
4001 カメラ画像表示
9019 使用者側マイク
9021 ズレ検出部
9022 顔方向補正部
9031 記録角度決定部
9206 首元位置
9207 顎先端位置
9230 第1の点
9231 第2の点
9232 第1の領域
9233 第2の領域

Claims (30)

  1. 使用者の頭部以外の身体上に装着される撮像装置であって、
    前記使用者の頭部を観察することで、前記使用者の観察方向を検出する観察方向検出手段と、
    前記使用者の身体上に装着され、映像を撮影する撮像手段と、
    前記観察方向の検出結果を用いて記録方向を決定する記録方向決定手段と、
    前記撮像手段より撮影された映像のうち、前記記録方向決定手段により決定された前記記録方向の映像を記録する映像記録手段と、
    前記使用者の身体に対する前記撮像装置のズレを検出するズレ検出手段と、を有し、
    前記映像記録手段は前記ズレ検出手段が検出した前記撮像装置のズレに基づいた記録方向で映像を記録することを特徴とする撮像装置。
  2. 前記ズレ検出手段は、前記使用者の首元位置および顎先端位置の基準位置からのズレをもとに前記撮像装置のズレを検出することを特徴とする請求項1に記載の撮像装置。
  3. 前記基準位置は、キャリブレーションの情報に基づいて決定することを特徴とする請求項2に記載の撮像装置。
  4. 前記ズレ検出手段が前記撮像装置のズレを検出した際に、前記観察方向検出手段の出力に補正を加える観察方向補正手段と、を備えることを特徴とする請求項3に記載の撮像装置。
  5. 前記ズレ検出手段が前記撮像装置のズレを検出した際に、前記映像記録手段が記録する映像に補正を加える記録映像補正手段と、を備えることを特徴とする請求項3または4に記載の撮像装置。
  6. 前記ズレ検出手段が前記撮像装置の前記使用者の体に対するロールズレを検出した場合、前記記録映像補正手段は記録する映像にロール補正を行うことを特徴とする請求項5に記載の撮像装置。
  7. 前記ズレ検出手段が前記撮像装置のズレを検出した際に、前記記録映像補正手段は映像の記録範囲を拡大することを特徴とする請求項5または6に記載の撮像装置。
  8. 前記使用者の姿勢を検出する姿勢検出手段を備え、
    前記姿勢検出手段の出力が所定の閾値以上の変化をしている時は、前記ズレ検出手段はズレの判定を出力しないことを特徴とする請求項3乃至7のいずれか1項に記載の撮像装置。
  9. 前記使用者の頭部のロール角を判定するロール角検出手段と、
    前記ロール角検出手段の検出結果に基づいて、前記映像記録手段による記録映像をロール補正する記録映像ロール補正手段と、を備えることを特徴とする請求項3乃至8のいずれか1項に記載の撮像装置。
  10. 前記記録映像ロール補正手段による補正を実施する第1のモードと、
    前記記録映像ロール補正手段による補正を実施しない第2のモードと、を備えることを特徴とする請求項9に記載の撮像装置。
  11. 前記姿勢検出手段が検出する鉛直方向と前記ロール角検出手段が検出した前記使用者の頭部のロール角とがなす傾きの大きさが、第1の閾値未満の時には、前記記録映像ロール補正手段は鉛直方向に基づいて記録映像をロール補正し、第1の閾値以上の時には、前記使用者の頭部のロール角に基づいて記録映像をロール補正することを特徴とする請求項9または10に記載の撮像装置。
  12. 前記ロール角検出手段は、距離を測定することが可能な測距手段を備え、
    前記測距手段により測定された、前記使用者の頭部の複数の領域または複数の点の距離をもとに前記使用者の頭部のロール角を算出することを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。
  13. 前記頭部のロール角を算出するのに用いる前記頭部の複数の領域または複数の点は、前記使用者の首の中心と顎の先端を結んだ線の両側に少なくとも1つずつ配置されることを特徴とする請求項12に記載の撮像装置。
  14. 前記観察方向検出手段のピッチ方向の検出結果が所定の閾値以上の周波数で変化を続けている時、前記記録方向決定手段は、前記ピッチ方向の検出結果における各波の上側のピーク点に基づいて記録方向を決定することを特徴とする請求項3乃至13のいずれか1項に記載の撮像装置。
  15. 前記観察方向検出手段のキャリブレーションを実行するキャリブレーション手段を更に備え、
    前記キャリブレーション手段がキャリブレーションを実施する際には、前記使用者に対して、口を閉じた状態でキャリブレーションを実施するようにアナウンスすることを特徴とする請求項14に記載の撮像装置。
  16. 前記所定の閾値以上の周波数とは1Hzから10Hz程度であることを特徴とする請求項14または15に記載の撮像装置。
  17. 前記使用者の音声を検知する音検知手段を備え、
    前記音検知手段が予め定めた閾値以上の音を検知した時、前記記録方向決定手段は、前記ピッチ方向の検出結果における各波の上側のピーク点に基づいて記録方向を決定することを特徴とする請求項14乃至16のいずれか1項に記載の撮像装置。
  18. 前記ズレ検出手段は、前記観察方向検出手段の検出結果を用いて前記撮像装置のズレを検出することを特徴とする請求項3乃至17のいずれか1項に記載の撮像装置。
  19. 前記ズレ検出手段が前記撮像装置のズレを検出した際に、前記使用者に対して警告を発する警告手段を備えることを特徴とする請求項3乃至18のいずれか1項に記載の撮像装置。
  20. 前記ズレ検出手段によって前記撮像装置のズレが所定の時間以上継続して検出されたときに、前記警告手段による警告が実施されることを特徴とする請求項19に記載の撮像装置。
  21. 前記ズレ検出手段によって前記撮像装置のズレが所定の回数以上検出されたときに、前記警告手段による警告が実施されることを特徴とする請求項19または20に記載の撮像装置。
  22. 撮像装置と表示装置とを備えるキャリブレーションシステムであって、
    前記撮像装置は、
    画像を撮像する撮像手段と、
    前記撮像装置を使用する使用者の顔向きを検出する顔向き検出手段と、
    前記撮像手段によって撮影された画像に基づいて、前記表示装置の位置決めのための指標を検出する指標検出手段と、を有し、
    前記表示装置は、
    前記撮像手段によって撮影された画像を受信する画像受信手段と、
    前記画像受信手段から受信した画像に、前記表示装置の移動先を前記使用者に示す情報を重畳して描画する描画手段と、
    前記描画手段によって前記情報が描画された前記画像を表示する受信画像表示手段と、を有し、
    前記撮像装置は、
    前記指標検出手段によって検出された前記指標が所定の位置にある場合に、前記顔向きと前記画像とを関連付ける際のキャリブレーションを実行するキャリブレーション手段を更に有することを特徴とするキャリブレーションシステム。
  23. 前記表示装置は、前記指標を表示する指標表示手段を更に有することを特徴とする請求項22に記載のキャリブレーションシステム。
  24. 前記指標表示手段は、時間経過とともに前記指標の形状または色を変化させることを特徴とする請求項23に記載のキャリブレーションシステム。
  25. 前記キャリブレーション手段は、前記指標検出手段によって検出される前記指標の座標と、前記顔向き検出手段によって検出される前記使用者の顔向きとの関係を示す補正情報を算出することを特徴とする請求項22乃至24のうちの何れか1項に記載のキャリブレーションシステム。
  26. 前記撮像装置は、前記補正情報を記憶する補正情報記憶手段を更に有することを特徴とする請求項25に記載のキャリブレーションシステム。
  27. 前記撮像装置は、前記補正情報を送信する補正情報送信手段を更に有し、
    前記表示装置は、前記補正情報を受信する補正情報受信手段と、前記補正情報受信手段で受信した前記補正情報を記憶する補正情報記憶手段と、を更に有することを特徴とする請求項25または26に記載のキャリブレーションシステム。
  28. 前記撮像装置は、前記表示装置の移動先の座標情報を送信する座標送信手段を更に有し、
    前記表示装置は、前記座標情報を受信する座標受信手段を更に有し、
    前記描画手段は、前記座標受信手段で受信した前記座標情報に基づいて、前記表示装置の移動先を示す情報を描画することを特徴とする請求項22乃至27のうちの何れか1項に記載のキャリブレーションシステム。
  29. 使用者の頭部を観察することで、前記使用者の観察方向を検出する観察方向検出ステップと、
    前記使用者の身体上に装着された撮像装置によって映像を撮影する撮影ステップと、
    前記観察方向の検出結果を用いて記録方向を決定する記録方向決定ステップと、
    前記撮影ステップより撮影された映像のうち、前記記録方向決定ステップにより決定された前記記録方向の映像を記録する映像記録ステップと、
    前記使用者の身体に対しての前記撮像装置のズレを検出するズレ検出ステップと、を有し、
    前記映像記録ステップでは、前記ズレ検出ステップにて検出した前記撮像装置のズレに基づいた記録方向で映像を記録することを特徴とする撮像装置の制御方法。
  30. 請求項29に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
JP2022038688A 2021-03-12 2022-03-11 撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラム Pending JP2022140417A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
GB2210561.3A GB2611157A (en) 2021-07-30 2022-07-19 Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for...
US17/815,726 US11849217B2 (en) 2021-07-30 2022-07-28 Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for image pickup apparatus
DE102022118923.6A DE102022118923A1 (de) 2021-07-30 2022-07-28 Bildaufnahmevorrichtung, die als eine Aktionskamera verwendet wird, Kalibrierungssystem, Steuerungsverfahren für eine Bildaufnahmevorrichtung und Speichermedium, das ein Steuerungsprogramm für eine Bildaufnahmevorrichtung speichert
CN202210909406.6A CN115695961A (zh) 2021-07-30 2022-07-29 摄像设备及其控制方法、校准***和存储介质

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021040848 2021-03-12
JP2021040848 2021-03-12
JP2021125341 2021-07-30
JP2021125341 2021-07-30

Publications (1)

Publication Number Publication Date
JP2022140417A true JP2022140417A (ja) 2022-09-26

Family

ID=83399067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022038688A Pending JP2022140417A (ja) 2021-03-12 2022-03-11 撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラム

Country Status (1)

Country Link
JP (1) JP2022140417A (ja)

Similar Documents

Publication Publication Date Title
CN112219393A (zh) 便携信息终端
JP6165681B2 (ja) 画像表示装置及び画像表示方法
CN115086547A (zh) 摄像设备、便携式装置和校准器及其控制方法和存储介质
WO2022057723A1 (zh) 一种视频的防抖处理方法及电子设备
CN115695960A (zh) 摄像设备及其控制方法和存储介质
JP2010147715A (ja) 撮像装置
CN115695961A (zh) 摄像设备及其控制方法、校准***和存储介质
WO2015194084A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
KR20230019016A (ko) 액션 카메라로서 사용되는 촬상장치
JP2022140417A (ja) 撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラム
JP2022140424A (ja) 撮像装置及びその制御方法並びにプログラム
JP2023067530A (ja) 撮像装置及びその制御方法並びにプログラム
JP2023055074A (ja) 撮像装置及びその制御方法並びにプログラム
JP2022140421A (ja) 撮影システム、撮像装置、表示装置、制御方法、及びプログラム
JP2022140418A (ja) 撮像装置
JP2022140419A (ja) 撮像装置、制御方法及びプログラム
JP6885133B2 (ja) 画像処理装置、撮像システム、画像処理方法及びプログラム
JP2024097267A (ja) 撮像装置、キャリブレータ、及びこれらの制御方法並びにプログラム
JP2023087468A (ja) 撮像装置、制御方法およびプログラム
JP2023154539A (ja) 撮像装置、撮像装置の制御方法、表示装置及び撮像システム
JP2022140422A (ja) 撮像装置、制御方法、並びにプログラム
JP2004120600A (ja) デジタル双眼鏡
CN116017165A (zh) 摄像设备及其控制方法和存储介质
CN116805984A (zh) 显示装置、显示装置的控制方法和计算机可读存储介质
JP2016019092A (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム