JP7306089B2 - 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム - Google Patents

画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム Download PDF

Info

Publication number
JP7306089B2
JP7306089B2 JP2019111951A JP2019111951A JP7306089B2 JP 7306089 B2 JP7306089 B2 JP 7306089B2 JP 2019111951 A JP2019111951 A JP 2019111951A JP 2019111951 A JP2019111951 A JP 2019111951A JP 7306089 B2 JP7306089 B2 JP 7306089B2
Authority
JP
Japan
Prior art keywords
image
mode
imaging device
processing
stitching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019111951A
Other languages
English (en)
Other versions
JP2020204874A (ja
Inventor
和弘 吉田
剛史 渡部
正人 千秋
博 狩野
大輔 北條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019111951A priority Critical patent/JP7306089B2/ja
Priority to EP20729190.7A priority patent/EP3963877A1/en
Priority to PCT/IB2020/054712 priority patent/WO2020254887A1/en
Priority to CN202080044226.5A priority patent/CN114096984A/zh
Priority to US17/614,566 priority patent/US11825213B2/en
Publication of JP2020204874A publication Critical patent/JP2020204874A/ja
Application granted granted Critical
Publication of JP7306089B2 publication Critical patent/JP7306089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2622Signal amplitude transition in the zone between image portions, e.g. soft edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本開示は、画像処理技術に関し、より詳細には、画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラムに関する。
従来、全方位を撮像する装置においては、複数の魚眼レンズや広角レンズを用いて撮影し、得られた複数の画像に対し、歪み補正および射影変換を行い、各レンズにより撮影された部分画像をつなぎ合わせて、1枚の全天球画像とする処理が行われる。画像をつなぎ合わせる処理においては、各部分画像の重複領域において、パターン・マッチング手法などの適用することによって、撮影されている被写体が重なる位置が検出される。
ところで、全方位を撮像する撮像装置においては、その性質上、撮影者や撮像装置を固定する固定治具といった不要な被写体が写り込んでしまう場合がある。撮像装置を固定する固定治具については、一脚などを利用すれば、写り込みを少なくすることができる。
また、撮影者の写り込みに関連しては、特許第6514418号公報(特許文献1)が知られている。特許文献1は、施設や不動産物件等の現場での全天球画像の撮像作業を容易に行うことができ、且つ、取得した全天球画像から撮影者の像などの不要な部分を簡単な画像処理で消去することができる撮像システムを提供することを目的とした技術を開示する。特許文献1の撮像システムは、一度の撮像動作により周囲の全方位360°の範囲に含まれる被写体が写った画像を生成する撮像装置と、該撮像装置に同一の被写体を複数回撮像させることにより生成される複数の画像であって、撮像装置に対する被写体以外の物体の位置が異なる複数の画像の画像データを取得する画像データ取得部が設けられた携帯端末と、上記複数の画像を合成することにより、物体の像が消去された画像を生成する画像処理部が設けられたサーバとを備える。
しかしながら、上記特許文献1の従来技術では、依然として、撮像装置の一部の写り込みを避けることが困難である点で、充分なものではなかった。
本開示は、上記点に鑑みてなされたものであり、複数の入力画像をつなぎ合わせて生成された画像において、画像内への撮像装置の写り込みを最小化することが可能な画像処理システムを提供することを目的とする。
本開示では、上記課題を解決するために、下記特徴を有する画像処理システムが提供される。本画像処理システムは、複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部と、つなぎ処理に関し、複数のモードのうちの1つを受け付ける受付部とを含む。上記複数のモードは、複数の入力画像の撮影に使用した撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、つなぎ処理によって生成された出力画像中に撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、つなぎ処理によって生成された出力画像中への撮像装置の写り込みが第1のモードより小さいかまたは撮像装置が写り込まずに出力される第2のモードとを含む。
上記構成により、複数の入力画像をつなぎ合わせて生成された画像において、画像内への撮像装置の写り込みを最小化することが可能となる。
図1は、本実施形態による全天球撮像システムを構成する全天球カメラの断面図である。 図2は、本実施形態による全天球撮像システムのハードウェア構成図。 図3は、本実施形態による全天球撮像システムにおける複数のモードの画像処理パスを説明する概略図である。 図4は、本実施形態による全天球撮像システム上に実現される、複数のモードでの全天球画像合成機能に関連する主要な機能ブロックである。 図5は、本実施形態による全天球撮像システムにおける射影関係を説明する図である。 図6は、本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を説明する図である。 図7は、本実施形態による位置検出用歪み補正部および画像合成用歪み補正部が参照する変換データを説明する図である。 図8は、本実施形態による、本体表示モードと本体非表示モードとの間のつなぎ位置検出のパラメータの違いを説明する図である。 図9は、本実施形態による位置検出処理の際における、2つの魚眼レンズで撮像された部分画像の球面座標系へのマッピングを説明する図である。 図10は、本実施形態によるテンプレート生成部によるテンプレート画像の生成方法を説明する図である。 図11は、本実施形態におけるつなぎ位置検出結果のデータ構造を示す図。 図12は、本実施形態による画像合成処理の際における、2つの魚眼レンズで撮像された部分画像の球面座標系へのマッピングを説明する図。 図13は、本実施形態による全天球撮像システムが実行する、モードに応じた全天球画像合成処理を示すフローチャートである。 図14は、本実施形態による全天球撮像システムにおいて生成される本体表示モードおよび本体非表示モードの各モードで得られる画像の違いを説明する図である。
以下、本実施形態について説明するが、実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、画像処理システムおよび撮像システムの一例として、2つの魚眼レンズを備える全天球カメラ110と、全天球カメラ110と通信するユーザ端末装置150とを備える全天球撮像システム100を用いて説明する。なお、以下の実施形態では、2つの魚眼レンズとしているが、3つ以上の魚眼レンズが用いられてもよい。また、魚眼レンズには、広角レンズや超広角レンズも含み得るものとする。
全天球撮像システムの基本構成
以下、図1および図2を参照しながら、本実施形態による全天球撮像システム100の全体構成について説明する。図1は、本実施形態による全天球撮像システム100を構成する全天球カメラ110の断面図である。図1に示す全天球カメラ110は、撮像体12と、上記撮像体12およびコントローラやバッテリなどの部品を保持する筐体14と、上記筐体14に設けられた撮影ボタン18とを備える。図1に示す全天球カメラ110は、縦長形状を有しており、筐体14における撮影ボタン18が設けられた位置の下部あたりの部位が、ユーザが全天球カメラ110を把持するための把持部Gとなる。
図1に示す撮像体12は、2つの結像光学系20A,20Bと、2つの撮像素子22A,22Bとを含み構成される。撮像素子22A,22Bは、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどである。結像光学系20は、例えば6群7枚の魚眼レンズとして構成される。上記魚眼レンズは、図1に示す実施形態では、180度(=360度/n;光学系数n=2)より大きい全画角を有し、好適には、190度以上の画角を有する。このような広角な結像光学系20と撮像素子22とを1個ずつ組み合わせたものを広角撮像光学系と参照する。
2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、撮像素子22A,22Bに対して位置関係が定められる。結像光学系20A,20Bの光学素子の光軸が、対応する撮像素子22の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように位置決めが行われる。
図1に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子22A,22Bは、受光した光分布を画像信号に変換し、コントローラ上の画像処理ブロックに順次、画像フレームを出力する。詳細は後述するが、撮像素子22A,22Bでそれぞれ撮像された画像は、合成処理されて、これにより、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。説明する実施形態では、好ましくは、全天球画像を生成するものとして説明するが、生成する画像は、水平面のみ360度を撮影した、いわゆるパノラマ画像であってもよく、全天球または水平面360度の全景のうちの一部を撮影した画像であってもよい。また、全天球画像は、静止画として保存することもできるし、動画として保存することもできる。
図2(A)は、本実施形態による全天球撮像システム100を構成する全天球カメラ110のハードウェア構成を示す。全天球カメラ110は、CPU(Central Processing Unit)112と、ROM(Read Only Memory)114と、画像処理ブロック116と、動画圧縮ブロック118と、静止画圧縮ブロック119と、DRAM(Dynamic Random Access Memory)インタフェース120を介して接続されるDRAM132と、外部センサインタフェース124を介して接続される加速度センサ136とを含み構成される。
CPU112は、全天球カメラ110の各部の動作および全体動作を制御する。ROM114は、CPU112が解読可能なコードで記述された制御プログラムや各種パラメータを格納する。画像処理ブロック116は、2つの撮像素子130A,130B(図1における撮像素子22A,22Bである。)と接続され、それぞれで撮像された画像の画像信号が入力される。画像処理ブロック116は、ISP(Image Signal Processor)などを含み構成され、撮像素子130から入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などを行う。画像処理ブロック116は、さらに、撮像素子130から取得された複数の画像を合成処理し、これにより、上述した全天球画像を生成する。
動画圧縮ブロック118は、MPEG(Moving Picture Experts Group)-4 AVC(Advanced Video Coding)/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。動画圧縮ブロック118は、生成された全天球画像の動画データを生成するために用いられる。静止画圧縮ブロック119は、JPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)などの静止画圧縮および伸張を行うコーデック・ブロックである。静止画圧縮ブロック119は、生成された全天球画像の静止画データを生成するために用いられる。DRAM132は、各種信号処理および画像処理を施す際にデータを一時的に保存する記憶領域を提供する。加速度センサ136は、3軸の加速度成分を検出し、検出された加速度成分は、鉛直方向を検出して全天球画像の天頂補正を施すために用いられる。
全天球カメラ110は、さらに、外部ストレージインタフェース122と、USB(Universal Serial Bus)インタフェース126と、シリアルブロック128と、映像出力インタフェース129とを含み構成される。外部ストレージインタフェース122には、外部ストレージ134が接続される。外部ストレージインタフェース122は、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ134に対する読み書きを制御する。
USBインタフェース126には、USBコネクタ138が接続される。USBインタフェース126は、USBコネクタ138を介して接続されるパーソナル・コンピュータなどの外部機器とのUSB通信を制御する。シリアルブロック128は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC(Network Interface Card)140が接続される。映像出力インタフェース129は、HDMI(High-Definition Multimedia Interface,HDMIは登録商標である。)などの外部ディスプレイと接続するためのインタフェースであり、撮像した画像を外部ディスプレイなどに映像出力することができる。また、無線は、3Gや4Gなどの移動通信システムや、第5世代移動通信システムである「5G」であってもよい。5Gは4Gと比べ、高速・大容量・低遅延などの点で優れており、全天球カメラ110から外部装置へ画像データを送信する際に有利である。
電源スイッチの操作によって電源がオン状態になると、上記制御プログラムがメインメモリにロードされる。CPU112は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、全天球カメラ110の後述する各機能部および処理が実現される。
図2(B)は、本実施形態による全天球撮像システム100を構成するユーザ端末装置150のハードウェア構成を示す。図2(B)に示すユーザ端末装置150は、CPU152と、RAM154と、HDD(Hard Disk Drive)156と、入力装置158と、外部ストレージ160と、ディスプレイ162と、無線NIC164と、USBコネクタ166とを含み構成される。なお、HDD156は、適宜、SSD(Solid State Drive)などの記憶媒体に変更することが可能である。ここでユーザ端末装置150は、PC(Personal Computer)やスマートフォンやタブレット端末などの携帯情報端末PDA(Personal Digital Assistant)が想定されている。
CPU152は、ユーザ端末装置150の各部の動作および全体動作を制御する。RAM154は、CPU152の作業領域を提供する。HDD156は、CPU152が解読可能なコードで記述された、オペレーティング・システム、本実施形態によるユーザ端末装置150側の処理を担うアプリケーションなどのプログラムを格納する。
入力装置158は、マウス、キーボード、タッチパッド、タッチスクリーンなどの入力装置であり、ユーザ・インタフェースを提供する。外部ストレージ160は、メモリカードスロットなどに装着された着脱可能な記録媒体であり、動画形式の画像データや静止画データなどの各種データを記録する。無線NIC164は、全天球カメラ110などの外部機器との無線LAN通信の接続を確立する。USBコネクタ166は、全天球カメラ110などの外部機器とのUSB接続を確立する。なお、一例として、無線NIC164およびUSBコネクタ166を示すが、特定の規格に限定されるものではなく、Bluetooth(登録商標)やワイヤレスUSBなどの他の無線通信、有線LAN(Local Area Network)などの有線通信で外部機器と接続されてもよい。また、無線は、上述したように、3G、4G、5Gなどの移動通信システムであってもよい。
ディスプレイ162は、ユーザが操作するための操作画面の表示、撮影前または撮影中の全天球カメラ110による撮像画像のモニタ画像の表示、保存された動画や静止画の再生、閲覧のための表示を行う。ディスプレイ162および入力装置158により、ユーザは、操作画面を介して全天球カメラ110に対する撮影指示や各種設定変更を行うことが可能となる。
ユーザ端末装置150に電源が投入され電源がオン状態になると、ROMやHDD156からプログラムが読み出され、RAM154にロードされる。CPU152は、RAM154に読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、ユーザ端末装置150の後述する各機能部および処理が実現される。
上述したように、本実施形態による全天球カメラ110によって撮像される全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。このすべての方向には、全天球カメラ110を用いて撮影を行う撮影者、全天球カメラ110を固定するための固定治具および全天球カメラ110自身(例えば筐体14の一部)が含まれ得る。撮影者については、撮影者が全天球カメラ110の死角(例えば被写体の陰)に移動したり、両眼での撮影タイミングをずらして、各タイミングで撮影者が死角に移動することで、その写り込みを防ぐことができる。また、撮影者自身が被写体として有用である場合もある。固定治具については、固定治具として一脚などを利用することにより、固定治具の写り込みを限りなく少なくすることができる。
しかしながら、全天球カメラ110自身については、その筐体14の一部が写り込んでしまうことを避けることが難しかった。そして、全天球カメラ110の筐体は、通常、撮影者のように被写体として有用であるというものでもない。また、HMD(ヘッドマウントディスプレイ)などで全天球画像を視聴する場合に、撮像装置自身が写り込んでいると、没入感が損なわれることとなる。したがって、全天球画像内で全天球カメラ110の筐体の写り込みを避けて、それが全天球画像中に含まれないようにすることに対し要望がある。
そこで、本実施形態においては、全天球カメラ110の筐体14の写り込みに関し、複数のモードの画像処理パスが提供される。複数のモードとしては、第1のモードは、筐体14の一部が写り込むことを許容しながらもつなぎ目の自然さを優先する本体表示モードであり、第2のモードは、特に第1のモードで筐体14の一部が写り込む領域周辺でのつなぎ目の不自然さを許容しながら筐体14の写り込みの回避を優先する本体非表示モードである。そして、全天球カメラ110は、好ましくは、ユーザによる手動または自動での選択を受け付けて、各モードにおいては、全天球カメラ110の筐体の一部が写り込む領域に関しつなぎ処理を変更するよう構成されている。
上記構成により、筐体の写り込みをできる限り避けたいという用途においては、ユーザは、(2)本体非表示モードを選択すればよく、これにより、筐体14の一部が写り込み得る領域から離れた部分で可能な限り自然になるようなつなぎ処理が行われながらも筐体の一部が写り込まないようにした結果を得ることが可能なる。これにより、全天球画像において、撮像装置自身の写り込みを最小化、好ましくは消去できるようになる。
画像処理の流れ
以下、図3を参照しながら、本実施形態による全天球撮像システム100における複数のモードの画像処理の流れについて説明する。図3は、本実施形態による全天球撮像システム100における、複数のモードの画像処理パスを概略説明する図である。
図3には、(1)本体表示モードおよび(2)本体非表示モードの2つのモードの各画像処理の流れが示されている。(1)本体表示モードおよび(2)本体非表示モードのいずれのモードにおいても、画像処理200は、モードの選択処理210から開始される。その後、部分画像取得処理230では、全天球カメラ110は、2つの撮像素子130A,130Bを制御し、連続したフレームを順次撮像する。撮像素子130各々で撮像される画像は、概ね全天球のうちの半球を視野に収めた魚眼画像であり、全天球画像の部分的な画像を構成する。以下、撮像素子130それぞれで撮像される各フレームの画像を部分画像と参照する。
選択処理210では、ユーザの指示によるモード指定の受付およびそれに応じた設定処理を行う。ユーザによるモード指定は、(1)本体表示モードおよび(2)本体非表示モードの2つのうちのいずれかとして特定される。次に、パラメータ切替処理220では、設定されたモードに応じて、つなぎ位置検出処理240に渡すパラメータの切り替えを行う。
つなぎ位置検出処理240では、パラメータ切替処理220で選択されたパラメータを用いて、部分画像取得処理230で取得された2つの部分画像間のつなぎ位置を検出するつなぎ位置検出処理240を実行する。つなぎ位置検出処理240では、フレーム毎に、複数の部分画像間に存在する重複領域において、複数の対応点各々の位置ずらし量を検出する処理が行われ、つなぎ位置検出結果が生成される。
つなぎ位置検出処理240に引き続きあるいは並行して、傾き検出処理250が実行される。傾き検出処理250では、全天球カメラ110は、図2(A)に示した加速度センサ136を制御し、所定の基準方向に対する全天球カメラ110の傾きを検出する。ここで、所定の基準方向とは、典型的には、鉛直方向であり、重力加速度が作用する方向である。傾き検出処理250により、フレーム毎に、3軸加速度センサ136の各加速度成分が測定され、傾き検出結果が生成される。
上述したつなぎ位置検出処理240によるつなぎ位置検出結果および傾き検出処理250による傾き検出結果により、各フレームの複数の部分画像を合成するためのつなぎパラメータ260が構成される。
全天球カメラ110は、引き続き、得られたつなぎパラメータ260に基づいて、部分画像取得処理230で取得された2つの部分画像(入力画像)をつなぎ処理するつなぎ処理270を実行する。つなぎ処理270では、つなぎ位置検出結果に基づくつなぎ位置で複数の部分画像の位置合わせが行われ、傾き検出結果に基づいて天頂補正が行われる。これにより、部分画像取得処理230で取得された2つの部分画像が合成され、全天球画像が生成される。3つ以上の複数の魚眼レンズの場合は、3以上の部分画像が合成され、全天球画像が生成される。
フレーム毎につなぎ位置検出および傾き検出が行われるので、つなぎパラメータ260は、フレーム毎に動的に更新される。そして、つなぎ処理は、これらの検出結果が反映されたつなぎパラメータ260を適用してフレーム毎に実行される。そのため、撮影中、全天球カメラ110の傾きや向きが変化したり、重複領域付近の被写体が移動したりした場合であっても、適切に天頂補正およびつなぎ補正が施された状態で出力画像を生成することができる。
つなぎ処理270が完了した後、全天球カメラ110は、データ出力処理280を実行し、全天球カメラの記憶媒体にフレームを順次保存したり、全天球カメラ110からユーザ端末装置150にデータ出力し、ユーザ端末装置150側で、出力された画像に基づきモニタ表示を行ったりする。
ユーザ端末装置150でのモニタ表示では、出力データをモニタに表示する。なお、モニタ表示では、全天球画像をそのまま表示してもよいし、全天球画像を所定の画角で射影表示して生成された画像(全天球画像から指定された画角で切り出された画像)を表示してもよい。
全天球撮像システムのより具体的な説明
以下、図4~図14を参照しながら、本実施形態による全天球撮像システム100についてより詳細に説明する。図4は、本実施形態による全天球撮像システム100上に実現される、複数のモードでの全天球画像合成機能に関する主要な機能ブロックを示す。本実施形態による画像処理ブロック300は、図4に示すように、位置検出用歪み補正部302と、つなぎ位置検出部304と、テーブル修正部306と、テーブル生成部308と、傾き検出部310と、画像合成用歪み補正部312と、画像合成部314と、モード選択部318と、パラメータ切替部319と、画像データ保存部320と、モニタ画像生成部322とを含み構成される。
(射影方式)
画像処理ブロック300には、2つの撮像素子130A,130Bから、各種画像信号処理を経て、フレーム毎に2つの部分画像が入力される。ここで、撮像素子130Aをソースとするフレームの画像を「部分画像0」のように参照し、撮像素子130Bをソースとするフレームの画像を「部分画像1」のように参照する。画像処理ブロック300には、さらに、それぞれのレンズ光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成された、位置検出用変換テーブル330が提供される。
位置検出用歪み補正部302は、入力される部分画像0,1に対し、位置検出用変換テーブル330を用いて歪み補正を施し、位置検出用補正画像(以下、単に補正画像と参照する場合がある。)0および位置検出用補正画像1を生成する。入力される部分画像0,1は、平面座標系(x,y)で表現された画像データであり、これに対し、位置検出用変換テーブル330を用いて歪み補正がかけられた補正画像は、球面座標系(動径を1とし、2つの偏角θ,φを有する極座標系である。)で表現された全天球画像フォーマットの画像データとなる。
図5は、本実施形態による全天球撮像システム100における射影関係を説明する図である。1つの魚眼レンズで撮影された画像は、撮影地点から概ね半球分の方位を撮影したものとなる。また、魚眼レンズでは、図5(A)に示すように、光軸に対する入射角度φに対応した像高hで画像生成される。像高hと、入射角度φとの関係は、所定の投影モデルに応じた射影関数で決定される。また、説明する実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとし、得られる部分画像は、図5(B)に示すように、撮影範囲の概ね半球分が投影されたイメージサークル全体を含む平面画像となる。
図6は、本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を説明する図である。図6に示すように、全天球画像フォーマットの画像データは、所定の軸に対するなす角度に対応する垂直角度φと、上記軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。各座標値(θ,φ)は、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上にマッピングされる。
図7は、本実施形態による位置検出用歪み補正部302が参照する変換データを説明する図である。変換テーブル330は、平面座標系で表現される部分画像から、球面座標系で表現される画像への射影を規定する。変換テーブル330は、図7(A)および(B)に示すように、魚眼レンズ毎に、補正後画像の座標値(θ,φ)と、該座標値(θ,φ)にマッピングされる補正前の部分画像の座標値(x、y)とを対応付ける情報を、全座標値(θ,φ)に対して保持したものである。図7の例示では、1画素が担当する角度は、φ方向およびθ方向いずれも1/10度であり、変換テーブルは、各魚眼レンズについて、3600×1800の対応関係を示す情報を有している。つなぎ位置検出の際に用いられる位置検出用変換テーブル330は、事前に製造元等で理想的なレンズモデルからの歪みを補正した上で計算され、テーブル化されたものである。
(モード設定および切替)
モード選択部318は、ユーザからの指定されるモードを受け付け、受け付けたモードに応じて、パラメータ切替部319の動作を切り替える。ユーザによるモード指定は、例えば、全天球カメラ110に接続されたユーザ端末装置150上で動作するアプリケーション上のソフトキー、全天球カメラ110が備えるハードキー、または全天球カメラ110に接続されたリモートコントローラなどのユーザ・インタフェースを介して行われる。説明する実施形態において、ユーザが指定可能なモードは、上述した本体表示モードと本体非表示モードの2つである。モード選択部318は、本実施形態において、ユーザからの指定されたモードを受け付ける受付部およびモードを特定する特定部を構成する。
なお、説明する実施形態では、本体表示モードおよび本体非表示モードの2つのモードを例として説明するが、モードは、必ずしも「本体表示モード」および「本体非表示モード」の名称でユーザに提示されることを要さない。別名称で、これら2つのモードが参照されてもよいし、本体表示モードおよび本体非表示モードがそれぞれ別のモードに組み込まれてもよい。
(モード切替タイミング)
モード切替のタイミングは、基本的には撮影開始前にユーザからモードの指定を受け付けたタイミングである。ユーザによりモード変更がされれば、次の撮影でモードを切替えて撮影する。なお、連続的に静止画が撮影される撮影方法(例えば、インターバル撮影やタイムラプス撮影)で撮影中であるなど特定条件にある間は、撮影途中でユーザによってモードの変更が設定されたとしても、撮影終了までモードを固定し、変更させないようにするのが望ましい。つなぎ処理が画像毎に変わってしまうと、被写体の大きさや形が画像間で変わってしまうこともあるためである。
(パラメータ切替)
次に、パラメータ切替部319で切替えるパラメータ337、338について説明する。パラメータ337、338は、位置検出用変換テーブル330として使用されるパラメータであり、全天球カメラ110の工場出荷時の校正等で予め生成されたパラメータや、前回の撮影モードでの撮影時に生成されたパラメータなど、少なくとも部分画像が取得される前から存在するパラメータが用いられる。パラメータ切替部319は、モード選択部318で選択されたモードに応じて、本体表示モードのときは本体表示用パラメータ337を、本体非表示モードのときは本体非表示用パラメータ338を選択する。本体表示用パラメータ337と本体非表示用パラメータ338とは、全天球カメラ110の筐体14が部分画像に写り込む領域に対するパラメータが異なっている。
図8を用いて本体表示用パラメータ337と本体非表示用パラメータ338の違いを説明する。図8(A)は、全天球カメラ110の1つの魚眼レンズで撮影された部分画像を示している。図8(A)に示す部分画像の下部には、全天球カメラ110本体の筐体14が写り込んだ本体写り込み領域が生じている。使用する魚眼レンズの撮影範囲が半球(180度)を越える場合、このような状態が生じやすい。また、どのような被写体を撮影しても、部分画像に筐体14が写り込んでしまうことを避けることが難しい。
図8(B)は、部分画像で本体写り込み領域が発生している筐体14の長手方向に対して、つなぎ位置を変更した時の筐体14の写り込みを示した概念図である。2つの結像光学系20A,20Bからの距離を、距離Aのように短焦点距離につなぎ位置とした場合、実線で示すように2つの結像光学系20A,20Bからつなぎ位置までの間に筐体14が入るため、2つの部分画像をつないだ合成画像には、筐体14の一部が写り込むことになる。特に、全天球カメラ110が把持部Gを有し、縦長形状である場合に、図8(B)に示すように、写り込みが発生し易くなる。一方、距離Bのように長焦点距離につなぎ位置とした場合、点線で示すようにつなぎ位置までの間に筐体14が入らないため、2つの部分画像をつないだ合成画像には筐体14は写り込まないようになる。つまり、本体表示用パラメータ337と本体非表示用パラメータ338とで、筐体14が写り込む本体写り込み領域に関し、つなぎ位置の距離を変更することで、2つの部分画像をつないだ合成画像に本体(筐体14)が写り込むか、写り込まないかを変更することができる。
本体非表示用パラメータ338は、つなぎ位置の焦点距離が、少なくとも部分的に、本体表示用パラメータ337よりも長焦点距離であるモードである。より具体的には、本体非表示用パラメータ338は、本体が写り込む領域外では本体表示用パラメータ337と同一のつなぎ位置の距離のものを含み、本体が写り込む領域では、本体表示用パラメータ337と異なるつなぎ位置の距離のものを含むことができる。好ましくは、本体が写り込む領域において、本体非表示の方が、本体表示モードよりも長焦点距離となっている。本体が写り込む領域外で本体表示用パラメータ337と同じとすることにより、後段のパターン・マッチングで、本体が写り込む領域外について正確につなぎ位置を検出することが可能となる。
説明する実施形態では、パラメータ337,338は、図7で示した魚眼レンズ毎に平面座標系で表現される部分画像から球面座標系で表現される画像へ変換する変換テーブルとすることができる。図7に示すような変換テーブルとした場合、本体非表示用パラメータ338は、より具体的には、本体表示用パラメータ337において、部分画像の写り込み領域およびその周辺に該当する変換前座標値に対応づけられていた変換後座標値の範囲に対し、部分画像の写り込み領域外のずらした位置の変換前座標値に対応づけたものとなる。また、別の実施形態では、変換テーブルに代えて、またはこれとともに、魚眼レンズ毎に魚眼レンズの光学データとつなぎ位置(本体が写り込む領域と写り込まない領域)の距離をセットでパラメータ337,338として保持し、保持データから変換テーブルを算出できるようにすることができる。また、本体(筐体14)が写り込む領域を異ならせるため、変換テーブルでは、本体表示用パラメータ337で本体が写り込まない領域では本体表示および本体非表示モードでデータ共用するとともに、本体が写り込む領域で異なるデータを保持するようにすれば、情報を記憶する容量を削減することができる。
また、便宜上、単に本体が写り込む領域と該領域外とでつなぎ位置の距離を変更するとして説明したが、つなぎ位置の距離が急激に変化しないように、本体が写り込む領域を含む所定範囲で、例えばつなぎ位置の距離を段階的に変えるなどをすることが好ましい。これにより、本体が写り込む領域と該領域外とで違和感の少ない自然な画像となる。
(つなぎ位置検出)
図9は、本実施形態による位置検出処理の際における、魚眼レンズで撮像された部分画像の球面座標系へのマッピングを説明する図である。位置検出用歪み補正部302による処理の結果、魚眼レンズで撮像された2つの部分画像0,1は、図9に示すように、全天球画像フォーマット上に展開される。魚眼レンズ0により撮影された部分画像0は、典型的には、全天球のうちの概ね上半球にマッピングされ、魚眼レンズ1により撮影された部分画像1は、全天球のうちの概ね下半球にマッピングされる。全天球フォーマットで表現された補正画像0および補正画像1は、魚眼レンズの全画角が180度を超えるため、それぞれ半球からはみ出している。その結果、補正画像0および補正画像1を重ね合わせると、画像間で撮影範囲が重複する重複領域が発生する。
つなぎ位置検出部304は、位置検出用歪み補正部302により変換された補正画像0,1の入力を受けて、パターン・マッチング処理により、入力された補正画像0,1間のつなぎ位置を検出し、つなぎ位置検出結果332を生成する。本実施形態による位置検出用変換テーブル330では、図9に示すように、2つのレンズ光学系各々の光軸を球面の2つの極に射影するとともに、画像間の重複領域を球面の赤道近傍に射影するように作成される。球面座標系では、垂直角度φが0度または180度である極に近接するほど歪みが大きくなり、つなぎ位置検出精度が劣化してしまう。これに対し、上述したような射影とすることによって、つなぎ位置検出精度を向上させることができる。なお、図9は2つの魚眼レンズで撮像された2つの部分画像の球面座標系へのマッピングを説明する図であるが、3つ以上の複数の魚眼レンズでもよい。
図10は、本実施形態によるつなぎ位置検出処理を説明する図である。説明する実施形態では、テンプレート用画像500は、位置検出用補正画像1の重複領域の部分の画像であり、探索用画像510は、位置検出用補正画像0の重複領域の部分の画像である。ここで、指定されたサイズW、指定された生成間隔Stepでテンプレート画像が生成されるものとすると、図9に示すような態様で複数のテンプレート画像502-1~502-#が生成される。
生成された複数のテンプレート画像502-1~502-#に対し、テンプレート・マッチングにより、探索用画像510上での対応部分514が所定の探索範囲512内で探索される。この各テンプレート画像502-1~502-#に対して、それぞれ、マッチングスコアが最大となる位置の基準位置からのずらし量が検出される。
本体が写り込む領域以外に関しては、図10に示したようなテンプレート・マッチングなどによりつなぎ位置を検出し、検出されたつなぎ位置に応じてつなぎ処理を行うことが好ましい。一方、本体が写り込む領域については、図10に示したようなテンプレート・マッチングを行ってもよいし、テンプレート・マッチングを行わず位置検出用変換テーブル330で設定されているつなぎ位置に固定してもよい。また、本体非表示モードの時にテンプレート・マッチングを行うと、テンプレート・マッチングの結果によって本体が写り込むようになる可能性がある。このため、テンプレート・マッチングを行う場合は、その探索範囲を限定し、位置検出用変換テーブル330で設定されているつなぎ位置より長焦点距離方向に探索するようにすることで、本体が写り込むことがないようにすることが望ましい。この場合、長焦点距離方向に探索してマッチングしない場合でも、位置検出用変換テーブル330で設定されているつなぎ位置をつなぎ検出結果に設定すればよい。これにより、本体非表示モードで本体を写り込ませずに2つの部分画像のつなぎ精度を向上させることができる。
ここで、長焦点距離方向とは、図10ではテンプレート用画像500を位置検出用補正画像1で作成し、探索用画像510を位置検出用補正画像0で作成したとすると、探索用画像510上でテンプレート用画像500をφで0度側に探索する方向が長焦点距離方向となる。これとは逆に、テンプレート用画像を位置検出用補正画像0で作成し、探索用画像を位置検出用補正画像1で作成した場合は、探索用画像上でテンプレート用画像をφで180度側に探索する方向が長焦点距離方向となる。
図10に示すΔφ=0が位置検出用変換テーブル330で設定されているつなぎ位置を指しており、本体非表示モードの時は、このつなぎ位置でも本体の写り込みは生じない。長焦点距離方向(Δφ=0からマイナス方向)に探索してつなぎ位置を決定しても、本体は写り込まないが、一方で、短焦点距離方向(Δφ=0からプラス方向)に探索してつなぎ位置を決定すると、本体が写り込んでくる可能性がある。このため、テンプレート・マッチングを行う場合は、その探索範囲を限定して位置検出用変換テーブル330で設定されているつなぎ位置より長焦点距離方向に探索するようにすることが好ましいということになる。
(つなぎパラメータ)
図11は、本実施形態におけるつなぎ位置検出結果のデータ構造を示す図である。つなぎ位置検出処理に基づき、図11に示すような、変換後の各座標値(θ,φ)に対して、ずらし量(Δθ,Δφ)が対応付けられた情報を全座標値について保持するデータが生成される。このとき、上記つなぎ位置検出により求められたテンプレート・ブロック毎のずらし量(Δθi,Δφi)を、テンプレート・ブロックの中心座標の値として設定し、各座標値(θ,φ)に対応するずらし量(Δθ,Δφ)を補間して、つなぎ位置データが計算される。
テーブル修正部306は、つなぎ位置検出結果332に基づいて、事前準備された位置検出用変換テーブル330に対し修正を施し、テーブル生成部308に渡す。なお、位置検出用変換テーブル330は、本体表示用パラメータ337および本体非表示用パラメータ338のいずれか選択された方である。上述したつなぎ位置検出により、図11に示すように、全天球画像フォーマットの座標値毎にずらし量が求まっているので、テーブル修正部306は、部分画像0の歪み補正に用いた検出用歪み補正テーブル0において、入力座標値(θ,φ)に対し、修正前に(θ+Δθ,φ+Δφ)に対応付けられていた(x,y)を対応付けるように修正する。なお、部分画像1の歪み補正に用いた検出用歪み補正テーブル1については対応付けを変える必要がない。
テーブル生成部308は、上記テーブル修正部306により修正された変換データから、回転座標変換に基づき、画像合成用変換テーブル336を生成する。なお、この際に、傾き検出部310が生成した傾き検出結果334に基づいて、傾き補正を反映させて画像合成用変換テーブル336を生成することができる。
このように、フレーム毎につなぎ位置検出が行われ、画像合成用変換テーブル336が更新される。位置検出用歪み補正部302、つなぎ位置検出部304、テーブル修正部306およびテーブル生成部308が実行する処理は、図3に示したつなぎ位置検出処理240に対応しており、傾き検出部310が実行する処理は、傾き検出処理250に対応している。生成される画像合成用変換テーブル336は、つなぎパラメータ260に対応する。
(つなぎ処理)
画像合成用歪み補正部312は、画像合成処理の前段の処理として、部分画像0および部分画像1に対し、変換テーブルを用いて歪み補正をかけ、画像合成用補正画像0および画像合成用補正画像1を生成する。生成される画像合成用補正画像0,1は、位置検出用補正画像と同様に、球面座標系で表現されている一方で、上記回転座標変換により、位置検出用補正画像とは座標軸の定義が異なったものとなる。画像合成部314は、得られた画像合成用補正画像0および画像合成用補正画像1を合成し、全天球画像フォーマットの合成画像のフレームを生成する。
図12は、本実施形態による画像合成処理の際における、魚眼レンズで撮像された部分画像の球面座標系へのマッピングを説明する図である。上記回転座標変換により、図9に示すような、一方のレンズ光学系の光軸を軸とした水平角度および垂直角度の座標軸の定義から、図12に示すような、光軸に垂直な軸を基準とした水平角度および垂直角度の定義に変換される。これにより、画像合成用歪み補正部312による処理の結果、魚眼レンズで撮像された2つの部分画像0,1は、図12に示すように全天球画像フォーマット上に展開される。魚眼レンズ0により撮影された部分画像0は、典型的には、全天球のうちの概ね左半球にマッピングされ、魚眼レンズ1により撮影された部分画像1は、全天球のうちの概ね右半球にマッピングされる。なお、図12は、2つの魚眼レンズで撮像された2つの部分画像の球面座標系へのマッピングについて説明しているが、3つ以上の複数の魚眼レンズの場合は、3以上の部分画像が合成され、全天球画像が生成される。
また、画像合成用歪み補正部312による処理の結果、図12に示すように全天球画像フォーマット上に、魚眼レンズ0により画像合成用補正画像0が右側に、魚眼レンズ1による画像合成用補正画像1が左側に並べられた形で展開されるものとして描かれているが、これに限定されない。他の実施形態では、魚眼レンズ0により画像合成用補正画像0が左側にあってもよい。さらに、他の実施形態では、全天球画像フォーマット上において、画像合成用補正画像0が中央に、画像合成用補正画像1が、画像合成用補正画像0の両脇に分離して並べられた形で展開されてもよいし、逆に画像合成用補正画像1が中央に配置されてもよい。また、図12は、全天球画像フォーマット上で天頂補正がかけられない場合を例示している。全天球画像フォーマット上で天頂補正をかける場合は、光軸に垂直な軸を基準とした水平角度および垂直角度の定義に変換するための回転座標変換において、傾き検出部310が生成した傾き検出結果334に応じた回転がさらに加味されることとなる。
フレーム毎に、つなぎ位置検出処理240により更新される画像合成用変換テーブル336が参照される。
(表示および保存)
図4に示す画像処理ブロック300は、さらに、モニタ画像生成部322を含むことができる。上記生成された合成画像は、全天球画像フォーマットで表現されるため、そのまま、ディスプレイなどの平面表示デバイスに表示させると、垂直角度0度および180度に近づくほど画像が歪んで表示されることになる。画角の確認という目的では、全天球画像フォーマットのまま表示させてもよいが、好ましい実施形態では、全天球画像を平面表示デバイスに投影するための画像処理を実行することができる。
モニタ画像生成部322は、全天球画像フォーマットの合成画像から、球面座標系から特定方向および特定画角の平面座標系への順次変換し、ユーザが指定する特定の視野方向の一定画角の画像に投影する処理を行う。これにより、視聴者は、所定の視点および視野で観察した場合に相当する画像をモニタすることができるようになる。
また、上述した説明では、撮影前または撮影中のモニタ画像表示について説明した。しかしながら、上述した画像処理パスで生成される全天球画像の静止画を生成し、または、全天球画像の複数のフレームからなる画像列を動画圧縮して動画像を生成し、これらの静止画または動画の画像データを保存することもできる。
画像データ保存部320は、静止画または動画を画像データとして保存する処理を行う。静止画の場合には、静止画圧縮ブロック119でJPEG、TIFFなどの静止画フォーマットへ圧縮を行い、動画の場合は、動画圧縮ブロック118でMPEG-4 AVC/H.264などの動画フォーマットへ圧縮を行う。生成された画像データは、外部ストレージ134などの記憶領域に保存する。
保存する画像データには、どのモードでつなぎ処理が行われたかを後から判別できるように、処理を行ったモードの種別を関連付けて記録するとよい。例えば、静止画であればEXIF(Exchangeable Image File Format)、TIFFなどの既存のメタデータフォーマットを、動画であればMP4など既存のコンテナフォーマットを使用して記録してもよいし、独自にメタデータフォーマットを作成して記録してもよい。これにより、利用方法に応じた画像データの選別が容易となる。また、モードの種別とともに、またはこれに代えて、つなぎ処理に使用した変換テーブルや光学データなどのパラメータを画像データのメタデータ内に記録してもよい。
また、一般的にRAWデータと呼ばれる撮像素子130から出力されたままの形式で、画像処理ブロック116などで画像処理(特につなぎ処理)されていない画像データ(中間画像データ)を出力部よりファイル出力し、保存する場合も考えられる。RAWデータでは、つなぎ処理が行われていないため、ユーザ端末装置150など全天球カメラ110以外の装置でつなぎ処理が行われる。全天球カメラ110以外の装置でも同様につなぎ処理のモードを変更できるようにするために、出力部は、RAWデータのメタデータ内に2つのモードの変換テーブルや光学データを記録することができる。RAWデータでは、DNG(Digital Negative)などの既存のメタデータフォーマットが利用可能である。全天球カメラ110以外の装置(例えばユーザ端末装置150)では、RAWデータのメタデータ内に記録された2つのモードの変換テーブルや光学データを使用し、全天球カメラ110と同じつなぎ処理方法を行うアプリケーション(上述した位置検出用歪み補正部302、つなぎ位置検出部304、テーブル修正部306、テーブル生成部308、画像合成用歪み補正部312、画像合成部314、モード選択部318およびパラメータ切替部319を実装するアプリケーション)などを実行することで、全天球カメラ110と同一のつなぎ処理を行うことができる。
全天球画像合成処理
図13を参照しながら、本実施形態による全天球画像合成処理についてより詳細に説明する。なお、図13に示す処理は、静止画の全天球画像を撮影する場合に対応する。また、図13に示す各ステップの処理は、全天球カメラ110が行うものとして説明するが、全天球カメラ110のCPU112や他の適切なハードウェアブロック(画像処理ブロック116(ISPを含む。)や静止画圧縮ブロック119)が実行を担う。
図13に示す処理は、例えば、ユーザからの撮影ボタン18の押下を検出して、ステップS100から開始される。ステップS101では、全天球カメラ110は、自身になされた設定値を参照し、選択されたモードが、本体表示モードおよび本体非表示モードのいずれであるかを特定する。ステップS102では、特定されたモードに応じて処理を分岐させる。ステップS102で、本体表示モードであると判定された場合は、ステップS103へ処理が分岐され、全天球カメラ110は、本体表示用パラメータ337を位置検出用変換テーブル330として取得する。一方、ステップS102で、本体非表示モードであると判定された場合は、ステップS104へ処理が分岐され、全天球カメラ110は、本体非表示用パラメータ338を位置検出用変換テーブル330として取得する。
ステップS105では、全天球カメラ110は、図2(A)に示した2つの撮像素子130A,130Bを制御し、2つの部分画像を取得する。3つ以上の複数の魚眼レンズの場合は、3以上の部分画像が取得される。ステップS106では、全天球カメラ110は、図2(A)に示した加速度センサ136を制御し、所定の基準方向に対する全天球カメラ110の傾きを検出し、傾き検出結果を取得する。なお、ステップS105およびステップS106の順に説明されているが、その順序は限定されず、傾き検出を先に行ってもよいし、同時に行ってもよい。
ステップS107では、全天球カメラ110は、ステップS103またはステップS104で取得された位置検出用変換テーブル330を用いて部分画像を歪み補正し、2つの位置検出用補正画像を取得する。3つ以上の複数の魚眼レンズの場合は、3以上の位置検出用補正画像が取得される。
ステップS108では、全天球カメラ110は、パターン・マッチング等により、2つの位置検出用補正画像間のつなぎ位置を検出し、つなぎ位置検出結果332を取得する。3つ以上の複数の魚眼レンズの場合は、3以上の位置検出用補正画像のうちの、重なる2つの画像の各組について、画像間のつなぎ位置が取得される。
ステップS109では、全天球カメラ110は、つなぎ位置検出結果332に基づいて、位置検出用変換テーブル330に対し修正を施す。ステップS110では、修正された変換データから、回転座標変換に基づき、適宜、傾き検出部310が生成した傾き検出結果334を反映させて、画像合成用変換テーブル336を生成する。
ステップS111では、全天球カメラ110は、画像合成用変換テーブル336を用いて、ステップS105で取得された部分画像を歪み補正し、2つの画像合成用補正画像を取得する。3つ以上の複数の魚眼レンズの場合は、3以上の画像合成用補正画像が取得される。ステップS112では、全天球カメラ110は、得られた2つの画像合成用補正画像を合成し、全天球画像を生成する。この際に、画像合成用補正画像間の重複領域において、適宜、ブレンディングなどが行われる。ステップS113では、全天球カメラ110は、合成された全天球画像を、適切な方式(JPEGなど)で、記録媒体やモニタなどの装置に出力し、ステップS114で本処理を終了させる。
なお、図13を参照しながら静止画の全天球画像を撮影する場合を一例として全天球画像合成処理を説明したが、動画撮影や連続した複数の静止画からなるインターバル撮影やタイムラプス撮影の場合には、ステップS105~ステップ113の処理が、動画のフレーム毎または静止画毎に繰り返される。
また、図13を参照しながら、全天球画像を撮影するとともに全天球画像合成する、全天球カメラ110が実行する処理として説明したが、撮影後の画像データに基づいてユーザ端末装置150側で行う場合も同様である。その場合、ステップS101では、画像データのメタデータからの読み出しによりモードが特定されたり、アプリケーション上でのユーザによるモードの指定を受けたりする。ステップS105では、魚眼画像を並べたデュアルフィッシュアイ形式の画像データからの読み出しにより2つの部分画像が取得され、ステップS105では、画像データのメタデータの読み出しにより傾き検出結果が取得される。ステップS103およびステップS104での本体表示用パラメータ337および本体非表示用パラメータ338の取得も、画像データのメタデータなどから取得される。また、これらの処理は、ユーザ端末装置150のCPU152や他の適切なハードウェアブロック(ハードウェアアクセラレータなど)が実行を担う。また、全天球カメラ110およびユーザ端末装置150が協働して全天球画像を撮影するとともに全天球画像合成することもでき、その場合の全天球カメラ110およびユーザ端末装置150間の処理分担は、任意である。
本体表示モードおよび本体非表示モードの間の画像の違い
図14を用いて本体表示モードと本体非表示モードで生成される画像の違いを説明する。図14(A)は、各モードで撮影された全天球画像フォーマットの画像を球面座標上にマッピングしたときの視点方向を示している。全天球カメラ110の上方から床方向に視線を向けている。ここで、床面Tには格子状の模様があるものとする。
本体表示モード時には、つなぎ位置検出を行い、2つの結像光学系20A,20Bから等距離の床面T上の点P0が2つの部分画像をつなぐつなぎ位置となる。一方、本体非表示モード時には、本体が写り込まない入射角度(点線)と床面Tとの交点P1、P2が2つの部分画像をつなぐつなぎ位置となる。
図14(B)は、本体表示モードで撮影された画像のイメージ図であり、図14(C)は、本体非表示モードで撮影された画像のイメージ図であり、点線の位置で2つの部分画像がつながれているものとする。図14(B)に示す本体表示モードでは、撮影画像に本体の写り込み領域が発生するが、床面Tの格子状の模様は、比較的に正確につながれている。このように、本体表示モードは、全天球カメラ110の筐体14が写り込む複数の部分画像間のつなぎ処理に関し、つなぎ処理によって生成された全天球画像中に筐体が少なくとも部分的に写り込んで出力されるモードである。本体表示モードは、筐体14の一部が写り込むことを許容しながらもつなぎ目の自然さを優先するモードということができる。
一方、図14(B)に示す本体非表示モードでは、撮影画像に本体の写り込みは最小化され、好ましくは回避されているが、本体の写り込みをなくすためにつなぎ部分で一部画像が欠損しており、床面Tの格子状の模様には若干の矛盾が生じている。このように、本体非表示モードは、全天球カメラ110の筐体14が写り込む複数の部分画像間のつなぎ処理に関し、つなぎ処理によって生成された全天球画像中への筐体14の写り込みが本体表示モードより小さいか、または好ましくは筐体14が実質的に写り込まずに出力されるモードである。ここで、筐体14が実質的に写り込まないとは、筐体14の一部が数画素など全体的な画像品質に影響がない範囲で写り込む場合を含むものである。本体非表示モードは、特に筐体14が写り込み得る領域周辺でのつなぎ目の不自然さを許容しながら筐体14の一部が写り込むことを可能な限り回避するモードということができる。
なお、図14においては、説明の便宜上、本体非表示モードでは、全体的に床面Tの模様がつながらないように描かれている。しかしながら、つなぎ処理を変更するのは、好ましくは写り込み領域を含む一定範囲であり、図14(C)では、より正確には、本体から離れる上下方向で徐々に床面Tの模様がつながって行くようになる。つまり、本体非表示モードでも、筐体14が写り込み得る領域から離れた部分では、本体表示モードと同一のつなぎ処理となる。
このように、本体は写り込んでしまうが被写体を正しくつなぎたい場合は本体表示モードを、本体を写り込ませたくない場合は本体非表示モードをユーザは選択して使用するとよい。
以上説明したように、上述した実施形態によれば、複数の入力画像をつなぎ合わせて生成された画像において、画像内への撮像装置の写り込みを最小化、好ましくは、消去または回避することが可能な画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラムを提供することができる。
特に、つなぎ目の不自然さを許容しながら本体筐体の一部が写り込むことを回避する本体非表示モードが用意され、モード選択に応じて、少なくとも本体筐体の一部が写り込む領域のつなぎ処理を変更するよう構成される。このため、撮像装置の本体の写り込みあり、なしを選択して画像を出力することが可能となる。特に、把持部を有し、縦長形状である全天球カメラ110では、図8(B)に示すように、写り込みが発生し易くなるため、本体非表示モードが有用となる。
例えば、風景撮影時に本体非表示モードは有効である。自然の中(空間周波数が高い)で撮影する場合、つなぎ目の不自然さは多少残るものの、本体筐体の一部の写り込みを回避することで、より良い風景画像が撮像できる。特に屋外における自然界は空間周波数が高く、図14のような規則的な格子パターンが存在することは少ない。よって、多少つなぎ目の不自然さがあったとしても、撮像画像全体として不自然には感じにくい。このように、つなぎ目を不自然に感じにくい撮像シーンにおいては、本体非表示モードは有効である。
なお、上述までの実施形態では、全天球カメラ110と、全天球カメラ110と通信するユーザ端末装置150とを備える全天球撮像システム100を一例として、画像処理システムおよび撮像システムについて説明した。
上述した全天球撮像システム100において、特定の実施形態では、選択処理210、パラメータ切替処理220、部分画像取得処理230、つなぎ位置検出処理240、傾き検出処理250、つなぎ処理270およびデータ出力処理280を全天球カメラ110のハードウェア上で実装し、モニタ表示処をユーザ端末装置150上で実装することができる。この特定の実施形態では、全天球カメラ110は、指定されるモードに応じた出力画像を出力し、ユーザ端末装置150は、モードに応じた出力画像に基づくモニタ画像を表示することができる。また、全天球カメラ110は、指定されるモードに応じた静止画または動画を画像データとして保存することができる。しかしながら、画像処理システムおよび撮像システムの構成は、上述した構成に限定されるものではない。
上述した実施形態では、ユーザが手動でユーザ端末装置150や全天球カメラ110からモードを指定して、全天球カメラ110がそれを受け付けていた。しかしながら、他の実施形態では、本体が写り込む領域および該領域の周辺領域の被写体情報に基づいて、パターン認識や物体認識により本体が写り込む領域の被写体を判定し、自動的にモードを選択するようにしてもよい。例えば、本体写り込み領域近傍に特徴のある被写体(規則的な模様のある床など)があるならば本体表示モードを自動的に選択し、被写体を正確につなぐためのつなぎ処理を行う一方で、特徴のない被写体(模様のない床やランダムな模様の床、芝生、砂地)があるならば本体非表示モードを自動的に選択し被写体のつなぎ精度は落として、本体を写り込まないつなぎ処理を行うようにしてもよい。かかる自動モードは、ユーザ手動による本体非表示モードおよび本体表示モードとともに、ユーザ選択可能なモードとして、全天球カメラ110が有していてもよい。他の実施形態では、ユーザ手動による本体非表示モードおよび本体表示モードに代えて、ユーザ選択可能なモードとして自動モードを全天球カメラ110が有し、本体非表示モードおよび本体表示モードを内部モードとしてもよい。この場合、写り込む領域の被写体を判定し、内部モードを選択するモジュールから、モード選択部318が、決定された内部モードを受け付ける。
他の実施形態では、上述した画像処理210~280および表示処理をすべて全天球カメラ110上で実行し、全天球カメラ110のみで画像処理システム、画像処理装置および撮像システムを構成してもよい。さらに他の実施形態では、上述した部分画像取得処理230を除く画像処理210~280および表示処理を、ユーザ端末装置150を含む1以上の外部のパーソナル・コンピュータやサーバなどの画像処理装置上で分散実装してもよい。例えば、特定の実施形態では、画像処理210~280(部分画像取得処理230を除く。)を、画像処理装置としてのユーザ端末装置150上で実行することができる。このような実施形態では、全天球カメラ110は、モードにかかわらず複数の部分画像を取得して出力し、ユーザ端末装置150は、全天球カメラ110から出力された複数の部分画像の入力を受け、指定されるモードに応じた出力画像を生成し、モニタ画像を表示したり、画像データを保存したりすることができる。
以上の実施形態では、筐体14の写り込みについて説明してきたが、筐体14以外にも、全天球カメラ110に取り付ける部材、オプション品(防水ハウジング、外付けマイクなど)、固定器具(三脚、一脚)の台座などの写り込みに対しても本技術は適用することが可能である。この場合、写り込み領域が不定であるため、一度、本体表示モードで合成した画像データをユーザ端末装置などに表示させて、本体以外の写り込み領域をユーザに指定させることで、写り込み領域を特定し、図7で示した変換テーブルを変更することで対応することができる。また、純正アクセサリなどのオプション品であれば、形状が既知であり、写り込み領域も定まるので、オプション品毎に図7で示した各モードの変換テーブルを事前に準備しておくこともできる。
さらに、上記実施形態では、傾き補正において、鉛直方向を基準として傾き角を求めるとしたが、鉛直方向以外で、たとえば水平方向やその他所望の方向を基準方向として設定し、その基準方向に対する全天球カメラ110や撮像素子130A、130B等所定の物体との傾きに基づいて画像の傾きを修正するようにしてもよい。また、上記実施形態では、傾きの検出に加速度センサを用いたが、加速度センサと角速度センサと地磁気センサの組合せなどのその他の傾きセンサにより、全天球カメラ110や全天球カメラ110に固定された撮像素子130A、130B、センサ自体等の傾きを検出するようにしてもよい。
なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD-ROM、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog-HDLなどにより記述されたデータとして記録媒体により配布することができる。
これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
12…撮像体、14…筐体、18…撮影ボタン、20…結像光学系、22…撮像素子、100…全天球撮像システム、110…全天球カメラ、112…CPU、114…ROM、116…画像処理ブロック、118…動画圧縮ブロック、119…静止画圧縮ブロック、120…DRAMインタフェース、122…外部ストレージインタフェース、124…外部センサインタフェース、126…USBインタフェース、128…シリアルブロック、129…映像出力インタフェース、130…撮像素子、132…DRAM、134…外部ストレージ、136…加速度センサ、138…USBコネクタ、140…無線NIC、142…バス、150…ユーザ端末装置、152…CPU、154…RAM、156…HDD、158…入力装置、160…外部ストレージ、162…ディスプレイ、164…無線NIC、166…USBコネクタ、168…バス、200…画像処理、210…選択処理、220…パラメータ切替処理、230…部分画像取得処理、240…つなぎ位置検出処理、250…傾き検出処理、260…つなぎパラメータ、270…つなぎ処理、280…データ出力処理、300…画像処理ブロック、302…位置検出用歪み補正部、304…つなぎ位置検出部、306…テーブル修正部、308…テーブル生成部、310…傾き検出部、312…画像合成用歪み補正部、314…画像合成部、316…画像切出部、318…モード選択部、319…パラメータ切替部、320…画像データ保存部、322…モニタ画像生成部、330…位置検出用変換テーブル、332…つなぎ位置検出結果、334…傾き検出結果、336…画像合成用変換テーブル、337…本体表示用パラメータ、338…本体非表示用パラメータ、500…テンプレート用画像、502…テンプレート画像、510…探索用画像、512…探索範囲、514…対応部分
特許第6514418号公報

Claims (18)

  1. 複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部と、
    前記つなぎ処理に関し、複数のモードのうちの1つを受け付ける受付部と
    を含み、前記複数のモードは、
    前記複数の入力画像の撮影に使用した撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、前記つなぎ処理によって生成された出力画像中に前記撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、前記つなぎ処理によって生成された出力画像中への前記撮像装置の写り込みが前記第1のモードより小さいかまたは前記撮像装置が写り込まずに出力される第2のモードと
    を含み、前記第1のモードと前記第2のモードでは、少なくとも前記撮像装置が写り込む領域に関しつなぎ処理が変更され、前記つなぎ処理の変更は、つなぎ位置の焦点距離の変更を含み、前記第2のモードの方が、前記第1のモードよりも長焦点距離となっている、画像処理システム。
  2. 複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部と、
    前記つなぎ処理に関し、複数のモードのうちの1つを受け付ける受付部と
    を含み、前記複数のモードは、
    つなぎ位置の焦点距離が所定の距離である第1のモードと、
    つなぎ位置の焦点距離が少なくとも部分的に第1のモードよりも長焦点距離である第2のモードと
    を含む、画像処理システム。
  3. 前記出力画像に関連付けて、前記つなぎ処理で使用したモード、および、該モードに対応したパラメータのいずれか一方または両方が記録され、前記パラメータは、変換テーブルおよび魚眼レンズの光学データとつなぎ位置の距離セットのいずれか一方または両方を含む、請求項1または2に記載の画像処理システム。
  4. 複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部と、
    前記つなぎ処理に関し、複数のモードのうちの1つを受け付ける受付部と
    を含み、前記複数のモードは、
    前記複数の入力画像の撮影に使用した撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、前記つなぎ処理によって生成された出力画像中に前記撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、前記つなぎ処理によって生成された出力画像中への前記撮像装置の写り込みが前記第1のモードより小さいかまたは前記撮像装置が写り込まずに出力される第2のモードと
    を含み、前記つなぎ処理が施される前の前記複数の入力画像を、前記第1のモードに対応したパラメータと、前記第2のモードに対応したパラメータとともに中間画像データとして出力する出力部を含み、前記つなぎ処理部は、前記中間画像データを読み出して、前記複数の入力画像を取得するとともに、前記受付部により受け付けたモードに対応したパラメータを取得して、前記つなぎ処理を実行する画像処理システム。
  5. 前記受付部は、ユーザの指示に基づいてモードを受け付けることを特徴とする、請求項1~のいずれか1項に記載の画像処理システム。
  6. 前記ユーザの指示は、撮像装置が備えるユーザ・インタフェース、前記撮像装置に接続されたユーザ・インタフェース、または、前記撮像装置に接続された端末装置が備えるユーザ・インタフェースを介して行われる、請求項に記載の画像処理システム。
  7. 前記受付部は、前記複数の入力画像における撮像装置が写り込む領域および該領域の周辺領域の被写体情報に基づいて選択されたモードを受け付けることを特徴とする、請求項1~のいずれか1項に記載の画像処理システム。
  8. 複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部と、
    前記つなぎ処理に関し、複数のモードのうちの1つを受け付ける受付部と
    を含み、前記複数のモードは、
    前記複数の入力画像の撮影に使用した撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、前記つなぎ処理によって生成された出力画像中に前記撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、前記つなぎ処理によって生成された出力画像中への前記撮像装置の写り込みが前記第1のモードより小さいかまたは前記撮像装置が写り込まずに出力される第2のモードと
    を含み、特定条件にある間は、選択した前記モードが固定されることを特徴とする画像処理システム。
  9. 複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部と、
    前記つなぎ処理に関し、複数のモードのうちの1つを受け付ける受付部と
    を含み、前記複数のモードは、
    前記複数の入力画像の撮影に使用した撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、前記つなぎ処理によって生成された出力画像中に前記撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、前記つなぎ処理によって生成された出力画像中への前記撮像装置の写り込みが前記第1のモードより小さいかまたは前記撮像装置が写り込まずに出力される第2のモードと
    を含み、前記複数の入力画像間のつなぎ位置を検出する検出処理部を含み、前記つなぎ処理部は、少なくとも前記複数の入力画像内の撮像装置が写り込んだ領域以外に関し、前記つなぎ処理を、検出された前記つなぎ位置に応じて行うことを特徴とする画像処理システム。
  10. 前記入力画像は、平面座標系で表現された部分画像であり、前記出力画像は、球面座標系で表現された全天球画像である、請求項1~のいずれか1項に記載の画像処理システム。
  11. 前記入力画像および前記出力画像は、静止画または動画の形式である、請求項1~10のいずれか1項に記載の画像処理システム。
  12. 請求項1~11のいずれか1項に記載の画像処理システムと
    前記複数の入力画像を撮像する複数の光学系および撮像素子と
    を含む撮像システム。
  13. 複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部と、
    前記つなぎ処理に関し、複数のモードのうちの選択された1つのモードを特定する特定部と
    を含み、前記複数のモードは、
    前記複数の入力画像の撮影に使用した撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、前記つなぎ処理によって生成された出力画像中に前記撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、前記つなぎ処理によって生成された出力画像中への前記撮像装置の写り込みが前記第1のモードより小さいかまたは前記撮像装置が写り込まずに出力される第2のモードと
    を含み、前記第1のモードと前記第2のモードでは、少なくとも前記撮像装置が写り込む領域に関しつなぎ処理が変更される、画像処理装置。
  14. 前記つなぎ処理の変更は、つなぎ位置の焦点距離の変更を含み、前記第2のモードの方が、前記第1のモードよりも長焦点距離となっている、請求項1に記載の画像処理装置。
  15. 入力画像を撮像する光学系および撮像素子を複数含む撮像装置であって、
    複数の前記光学系および前記撮像素子それぞれで撮像された複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部と、
    前記つなぎ処理に関し、複数のモードのうちの1つを受け付ける受付部と
    を含み、前記複数のモードは、
    自装置である前記撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、前記つなぎ処理によって生成された出力画像中に前記撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、前記つなぎ処理によって生成された出力画像中への前記撮像装置の写り込みが前記第1のモードより小さいかまたは前記撮像装置が写り込まずに出力される第2のモードと
    を含む、撮像装置。
  16. 入力画像を撮像する光学系および撮像素子を複数含む撮像装置を
    複数の前記光学系および前記撮像素子それぞれで撮像された複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部、
    前記つなぎ処理に関し、複数のモードのうちの選択された1つのモードを特定する特定部
    として機能させるためのプログラムであって、前記複数のモードは、
    自装置である前記撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、前記つなぎ処理によって生成された出力画像中に前記撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、前記つなぎ処理によって生成された出力画像中へ前記撮像装置の写り込みが前記第1のモードより小さいかまたは前記撮像装置が写り込まずに出力される第2のモードと
    を含む、プログラム。
  17. コンピュータを、
    複数の入力画像をつなぎ処理して、出力画像を生成するつなぎ処理部、
    前記つなぎ処理に関し、複数のモードのうちの選択された1つのモードを特定する特定部
    として機能させるためのプログラムであって、前記複数のモードは、
    前記複数の入力画像の撮影に使用した撮像装置が写り込む複数の入力画像間のつなぎ処理に関し、前記つなぎ処理によって生成された出力画像中に前記撮像装置が少なくとも部分的に写り込んで出力される第1のモードと、前記つなぎ処理によって生成された出力画像中へ前記撮像装置の写り込みが前記第1のモードより小さいかまたは前記撮像装置が写り込まずに出力される第2のモードと
    を含み、前記第1のモードと前記第2のモードでは、少なくとも前記撮像装置が写り込む領域に関しつなぎ処理が変更されるプログラム。
  18. 前記つなぎ処理の変更は、つなぎ位置の焦点距離の変更を含み、前記第2のモードの方が、前記第1のモードよりも長焦点距離となっている、請求項17に記載のプログラム。
JP2019111951A 2019-06-17 2019-06-17 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム Active JP7306089B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019111951A JP7306089B2 (ja) 2019-06-17 2019-06-17 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
EP20729190.7A EP3963877A1 (en) 2019-06-17 2020-05-19 Removal of image capture device from omnidirectional image created by stitching partial images
PCT/IB2020/054712 WO2020254887A1 (en) 2019-06-17 2020-05-19 Removal of image capture device from omnidirectional image created by stitching partial images
CN202080044226.5A CN114096984A (zh) 2019-06-17 2020-05-19 从通过拼接部分图像而创建的全向图像中去除图像捕获装置
US17/614,566 US11825213B2 (en) 2019-06-17 2020-05-19 Removal of image capture device from omnidirectional image created by stitching partial images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019111951A JP7306089B2 (ja) 2019-06-17 2019-06-17 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2020204874A JP2020204874A (ja) 2020-12-24
JP7306089B2 true JP7306089B2 (ja) 2023-07-11

Family

ID=70918737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019111951A Active JP7306089B2 (ja) 2019-06-17 2019-06-17 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム

Country Status (5)

Country Link
US (1) US11825213B2 (ja)
EP (1) EP3963877A1 (ja)
JP (1) JP7306089B2 (ja)
CN (1) CN114096984A (ja)
WO (1) WO2020254887A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10999527B1 (en) * 2020-02-14 2021-05-04 Gopro, Inc. Generation of enhanced panoramic visual content
KR102660776B1 (ko) * 2020-03-23 2024-04-24 가부시키가이샤 리코 정보 처리 장치 및 정보 처리 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169601A (ja) 2017-03-30 2018-11-01 株式会社リコー 連携装置、撮影システム、撮影方法、及びプログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS609712A (ja) 1983-06-29 1985-01-18 Plus Eng Co Ltd 靭性ならびに耐摩耗性の良好な押出ピン
JP3934006B2 (ja) 2002-08-09 2007-06-20 株式会社リコー 撮像装置
JP2008070844A (ja) 2006-09-15 2008-03-27 Ricoh Co Ltd 撮像装置
JP5445363B2 (ja) 2010-07-08 2014-03-19 株式会社リコー 画像処理装置、画像処理方法および画像処理プログラム
JP5506577B2 (ja) * 2010-07-14 2014-05-28 キヤノン株式会社 光学系および光学機器
JP5652649B2 (ja) 2010-10-07 2015-01-14 株式会社リコー 画像処理装置、画像処理方法および画像処理プログラム
JP2013055381A (ja) 2011-08-31 2013-03-21 Ricoh Co Ltd 撮像装置及び撮像方法並びに携帯情報端末装置
US8928783B2 (en) 2011-09-26 2015-01-06 Ricoh Company, Ltd. Imaging apparatus including switchable edge extraction
JP6024107B2 (ja) 2012-01-06 2016-11-09 株式会社リコー 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5954623B2 (ja) 2012-04-20 2016-07-20 株式会社リコー 撮像装置および画像処理方法
JP6019964B2 (ja) 2012-09-10 2016-11-02 株式会社リコー 画像処理装置及びそれを搭載した撮像装置、並びに画像処理方法
US9094540B2 (en) * 2012-12-13 2015-07-28 Microsoft Technology Licensing, Llc Displacing image on imager in multi-lens cameras
WO2014152855A2 (en) 2013-03-14 2014-09-25 Geerds Joergen Camera system
EP3039643B1 (en) 2013-08-28 2018-01-31 Ricoh Company, Ltd. Image processing apparatus, image processing method, and imaging system
JP6467787B2 (ja) 2014-05-27 2019-02-13 株式会社リコー 画像処理システム、撮像装置、画像処理方法およびプログラム
JP2016103806A (ja) * 2014-11-28 2016-06-02 キヤノン株式会社 撮像装置、画像処理装置、撮像システム、画像処理方法およびプログラム
US10531071B2 (en) * 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
JP5846549B1 (ja) * 2015-02-06 2016-01-20 株式会社リコー 画像処理システム、画像処理方法、プログラム、撮像システム、画像生成装置、画像生成方法およびプログラム
US10051180B1 (en) * 2016-03-04 2018-08-14 Scott Zhihao Chen Method and system for removing an obstructing object in a panoramic image
US9934615B2 (en) * 2016-04-06 2018-04-03 Facebook, Inc. Transition between binocular and monocular views
US10979691B2 (en) * 2016-05-20 2021-04-13 Qualcomm Incorporated Circular fisheye video in virtual reality
US10694102B2 (en) * 2016-07-22 2020-06-23 Immervision, Inc. Method to capture, store, distribute, share, stream and display panoramic image or video
JP6514418B2 (ja) 2016-08-02 2019-05-15 ナーブ株式会社 撮像システム、撮像方法、及びプログラム
KR102560029B1 (ko) 2016-09-12 2023-07-26 삼성전자주식회사 가상 현실 콘텐트를 송수신하는 방법 및 장치
US20190340737A1 (en) 2016-12-28 2019-11-07 Keiichi Kawaguchi Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium
US10638039B2 (en) 2016-12-28 2020-04-28 Ricoh Company, Ltd. Apparatus, system, and method of controlling image capturing, and recording medium
JP2019057903A (ja) 2016-12-28 2019-04-11 株式会社リコー 画像処理装置、撮影システム、画像処理方法、及びプログラム
CN108259782A (zh) 2016-12-28 2018-07-06 株式会社理光 图像处理装置、摄影***、图像处理方法
JP2019057264A (ja) 2016-12-28 2019-04-11 株式会社リコー 画像処理装置、撮影システム、画像処理方法、及びプログラム
US10764495B2 (en) 2017-12-14 2020-09-01 Ricoh Company, Ltd. Image processing apparatus, image processing method, storage medium, system, and electronic apparatus
JP7064865B2 (ja) 2017-12-25 2022-05-11 株式会社Subaru 温調装置
US11012633B2 (en) 2018-03-22 2021-05-18 Ricoh Company, Ltd. Image capturing apparatus, image capturing method, and image processing apparatus
JP7268369B2 (ja) 2019-01-30 2023-05-08 株式会社リコー 撮像システム、現像システム、撮像方法、及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169601A (ja) 2017-03-30 2018-11-01 株式会社リコー 連携装置、撮影システム、撮影方法、及びプログラム

Also Published As

Publication number Publication date
WO2020254887A1 (en) 2020-12-24
US11825213B2 (en) 2023-11-21
US20220224831A1 (en) 2022-07-14
EP3963877A1 (en) 2022-03-09
CN114096984A (zh) 2022-02-25
JP2020204874A (ja) 2020-12-24

Similar Documents

Publication Publication Date Title
JP5920507B1 (ja) 画像処理システム、画像処理方法およびプログラム
JP5846549B1 (ja) 画像処理システム、画像処理方法、プログラム、撮像システム、画像生成装置、画像生成方法およびプログラム
JP6468307B2 (ja) 撮像装置、画像処理装置および方法
JP7226484B2 (ja) 撮像システム、撮像装置、動画表示装置、画像処理装置、方法およびプログラム。
KR102009122B1 (ko) 촬상 시스템, 촬상 장치, 컴퓨터 프로그램 및 시스템
JP5846172B2 (ja) 画像処理装置、画像処理方法、プログラムおよび撮像システム
JP7306089B2 (ja) 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
JP6222205B2 (ja) 画像処理装置
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP6256513B2 (ja) 撮像システム、撮像装置、方法およびプログラム
JP2019053758A (ja) 画像処理装置
JP5796611B2 (ja) 画像処理装置、画像処理方法、プログラムおよび撮像システム
JP6439845B2 (ja) 画像処理装置
JP2016006674A (ja) 画像処理装置、プログラム、画像処理方法および撮像システム
JP7484242B2 (ja) 画像処理装置、画像処理方法、撮像装置、画像処理システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230612

R151 Written notification of patent or utility model registration

Ref document number: 7306089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151