JP2019121941A - 画像処理装置および方法、並びに画像処理システム - Google Patents

画像処理装置および方法、並びに画像処理システム Download PDF

Info

Publication number
JP2019121941A
JP2019121941A JP2018001010A JP2018001010A JP2019121941A JP 2019121941 A JP2019121941 A JP 2019121941A JP 2018001010 A JP2018001010 A JP 2018001010A JP 2018001010 A JP2018001010 A JP 2018001010A JP 2019121941 A JP2019121941 A JP 2019121941A
Authority
JP
Japan
Prior art keywords
image
area
unit
read
cutout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018001010A
Other languages
English (en)
Inventor
山崎 守
Mamoru Yamazaki
守 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2018001010A priority Critical patent/JP2019121941A/ja
Priority to KR1020207016059A priority patent/KR102658707B1/ko
Priority to PCT/JP2018/047704 priority patent/WO2019138868A1/ja
Priority to US16/955,634 priority patent/US11388340B2/en
Publication of JP2019121941A publication Critical patent/JP2019121941A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像安定化による負荷の増大を抑制することができるようにする。【解決手段】処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定し、その設定された処理対象フレームの読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する。本開示は、例えば、画像処理装置、撮像装置、または画像処理システム等に適用することができる。【選択図】図2

Description

本開示は、画像処理装置および方法、並びに画像処理システムに関し、特に、画像安定化による負荷の増大を抑制することができるようにした画像処理装置および方法、並びに画像処理システムに関する。
従来、カメラEIS(Electronic Image Stabilization)ブレ補正技術として、動きに応じて撮像画像より部分画像を切り出す方法があった(例えば特許文献1参照)。
国際公開第2014/156731号
しかしながら、この方法の場合、より激しい動きに対しても画像を安定化させることができるように補正性能を向上させるためには、より高画素のセンサを用いて撮像し、その撮像画像から部分画像の切り出しを行う必要がある。しかしながら、画素数が増大する程、イメージセンサからより大量のデータをより高速に読み出さなければならず、負荷が増大するおそれがあった。
本開示は、このような状況に鑑みてなされたものであり、画像安定化による負荷の増大を抑制することができるようにするものである。
本技術の一側面の画像処理装置は、処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する読み出し領域設定部と、前記読み出し領域設定部により設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する切り出し領域設定部とを備える画像処理装置である。
本技術の一側面の画像処理方法は、処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定し、設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する画像処理方法である。
本技術の他の側面の画像処理システムは、被写体を撮像する撮像装置と、画像処理を行う画像処理装置とを備え、処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する読み出し領域設定部と、前記読み出し領域設定部により設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する切り出し領域設定部とを有する画像処理システムである。
本技術の一側面の画像処理装置および方法、並びに画像処理システムにおいては、処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域が設定され、その設定された処理対象フレームの読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域が設定される。
本開示によれば、画像を処理することができる。特に、画像安定化による負荷の増大を抑制することができる。
従来の画像安定化の方法を説明する図である。 撮像装置の主な構成例を示すブロック図である。 イメージセンサの主な構成例を示すブロック図である。 画像安定化部の主な構成例を示すブロック図である。 本技術を適用した画像安定化の処理の概要を説明する図である。 読み出し領域の設定の様子の例を説明する図である。 IMUデータの推定の例を説明する図である。 読み出し領域の設定の様子の例を説明する図である。 IMUデータの推定の例を説明する図である。 読み出し領域設定の様子の例を説明する図である。 撮像処理の流れの例を説明するフローチャートである。 読み出し領域設定処理の流れの例を説明するフローチャートである。 読み出し領域設定処理の流れの例を説明するフローチャートである。 読み出し領域の設定の様子の例を説明する図である。 画像安定化部の主な構成例を示すブロック図である。 撮像処理の流れの例を説明するフローチャートである。 読み出し領域設定処理の流れの例を説明するフローチャートである。 撮像装置の主な構成例を示すブロック図である。 画像処理システムの主な構成例を示すブロック図である。 画像安定化部の主な構成例を示すブロック図である。 サーバの主な構成例を示すブロック図である。 撮像処理の流れの例を説明するフローチャートである。 切り出し処理の流れの例を説明するフローチャートである。 画像処理装置の主な構成例を示すブロック図である。 積層イメージセンサの主な構成例を示す図である。 コンピュータの主な構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.画像安定化
2.第1の実施の形態(撮像装置:IMUデータに基づく画像安定化)
3.第2の実施の形態(撮像装置:動きベクトルに基づく画像安定化)
4.第3の実施の形態(撮像装置:データの記録)
5.第4の実施の形態(画像処理システム)
6.第5の実施の形態(画像処理装置)
7.第6の実施の形態(積層イメージセンサ)
8.付記
<1.画像安定化>
<EIS>
従来、カメラのブレ補正技術(画像安定化技術)としてEIS(Electronic Image Stabilization)がある。EISでは、動画像の撮像画像の各フレームから動きに応じて部分画像を切り出すことにより画像を安定化させる。
例えば、図1に示される撮像装置10のように、イメージセンサ11は被写体を撮像して撮像画像21を生成し、その撮像画像データを画像安定化部12に供給する。IMU(Inertial Measurement Unit)(慣性計測装置)13は、撮像装置10の3軸の角速度や加速度を計測し、その計測データを画像安定化部12に供給する。画像安定化部12は、その計測データに基づいて、撮像装置10の動きによる撮像画像21の動きを検出し、その動きに基づいて、被写体の位置変動が抑制されるように、撮像画像21から、その部分画像である切り出し画像22を切り出し、出力する。
このような処理を動画像の撮像画像21の各フレームについて行うことにより、撮像装置10の動きによる被写体の位置のブレを抑制し、画像を安定化させることができる。
一般的にこのような処理は、撮像装置10を持つ手のブレによる撮像画像のブレを補正する為に用いられる。これに対して、例えばユーザの体に装着して使用するようなウェアラブル機器の場合、撮像画像のブレは、一般的に、このような手ブレによるものよりも大きくなり易い。したがって、例えばこのようなウェアラブル機器としての撮像装置のブレ補正(画像安定化)技術として、より大きなブレを安定化させることができるようにすることが求められている。
その為には、上述の方法の場合、より大きな撮像画像21から切り出し画像22を切り出すようにすればよい。その際、出力する切り出し画像22の解像度を変えないとすると、撮像画像21の解像度を向上させることになる。すなわち、より高画素のイメージセンサ11を用いて撮像を行うようにすればよい。
しかしながら、イメージセンサ11の画素数が増大する程(すなわち、撮像画像21の解像度が増大する程)、イメージセンサ11からより大量のデータをより高速に読み出す必要がある。つまり、データ読み出しの負荷が増大するおそれがあった。より具体的には、例えば、出力インタフェースの帯域幅を拡大する必要があった。その為、開発や設計のコストが増大するおそれがあった。また、例えば、高バンドデータ転送に伴い消費電力が増大するおそれもあった。
付言するに、このように負荷が増大しても、出力する切り出し画像の解像度は変化しない。すなわち、画像安定化(ブレ補正)の為だけに負荷が増大してしまうおそれがあった。
そこで、処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定し、その設定された処理対象フレームの読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定するようにする。
例えば、画像処理装置において、処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する読み出し領域設定部と、その読み出し領域設定部により設定された処理対象フレームの読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する切り出し領域設定部とを備えるようにする。
また、例えば、画像処理システムにおいて、被写体を撮像する撮像装置と、画像処理を行う画像処理装置とを備え、処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する読み出し領域設定部と、その読み出し領域設定部により設定された処理対象フレームの読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する切り出し領域設定部とを有するようにする。
このようにすることにより、撮像領域から読み出すデータ量の増大を抑制することができるので、画像安定化による負荷の増大を抑制することができる。
<2.第1の実施の形態>
<撮像装置>
図2は、本技術を適用した画像処理装置の一態様である撮像装置の主な構成の一例を示すブロック図である。図2に示される撮像装置100は、例えば被写体を動画像で撮像し、その撮像画像に対して画像安定化処理(ブレ補正)を行って出力する装置である。
なお、図2においては、処理部やデータの流れ等の主なものを示しており、図2に示されるものが全てとは限らない。つまり、撮像装置100において、図2においてブロックとして示されていない処理部が存在したり、図2において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図2に示されるように撮像装置100は、イメージセンサ101、画像安定化部102、およびIMU(Inertial Measurement Unit)(慣性計測装置)103を有する。
イメージセンサ101は、撮像部として駆動し、被写体を撮像し、被写体からの光を光電変換して、撮像画像を得る。イメージセンサ101は、被写体からの光を光電変換する撮像領域として複数の画素からなる画素領域121を有している。イメージセンサ101は、この画素領域121の任意の範囲を駆動して撮像を行い、撮像画像を生成することができる。この範囲は画像安定化部102により指定される(矢印111)。例えば、イメージセンサ101は、画像安定化部102により指定される画素領域121の一部の領域を読み出し領域として駆動して読み出し画像122を得る。
イメージセンサ101は、得られた撮像画像を画像安定化部102に供給する(矢印112)。例えば、イメージセンサ101は、画像安定化部102により指定された読み出し領域において得られた読み出し画像122を撮像画像として出力する。
IMU103は、イメージセンサ101(または、イメージセンサ101を含む撮像装置100)の動きや姿勢を計測する計測部である。より具体的には、IMU103は、イメージセンサ101の3軸の角速度や加速度を計測する。IMU103は、そのイメージセンサ101の動きや姿勢に関する計測データ(IMUデータとも称する)を画像安定化部12に供給する(矢印113)。
画像安定化部102は、イメージセンサ101から供給される撮像画像に対する画像安定化に関する処理を行う。例えば、画像安定化部102は、イメージセンサ101から供給される撮像画像(読み出し画像122)を取得する(矢印112)。また、画像安定化部102は、IMU103から供給されるIMUデータ(撮像装置100の3軸の角速度や加速度)を取得する。
画像安定化部102は、取得したIMUデータに基づいて、取得した撮像画像(読み出し画像122)に対する画像安定化を行う。より具体的には、画像安定化部102は、IMUデータに基づいて、撮像装置100の動きによる読み出し画像122の動きを検出し、その動きに基づいて、被写体の位置変動が抑制されるように、読み出し画像122から、その部分画像である切り出し画像123を切り出す。
画像安定化部102は、得られた切り出し画像123を撮像装置100の外部に出力する(矢印114)。
また、画像安定化部102は、現在までのIMUデータに基づいて、現在のフレーム(処理対象のフレーム)の次以降の所定のフレーム(例えば現在のフレームの次のフレーム)に対応するIMUデータを推定し、その推定結果に基づいてその所定のフレームまでのイメージセンサ101の動きを推定し、その動きに基づいてその所定のフレームにおける読み出し領域を設定する。つまり、画像安定化部102は、所定のフレームまでのイメージセンサ101の動き(つまり画素領域121内における被写体の動き)を予測し、その所定のフレームにおいて、切り出し画像123が得られる読み出し画像122を得ることができるように、画素領域121内において読み出し領域の位置や形状(大きさ等を含む)を設定する。画像安定化部102は、その読み出し領域の設定をイメージセンサ101に供給する(矢印111)。
イメージセンサ101は、その所定のフレームの処理において、そのように画像安定化部102により設定された読み出し領域の読み出し画像122を得る。
つまり、撮像装置100においては、イメージセンサ101から、画素領域121の一部である読み出し領域において得られる読み出し画像122を撮像画像として読み出す。図2に示されるように、この読み出し画像122は、画素領域121全体を用いて得られる撮像画像よりも小さい。したがって、画素領域121の全体において得られる画像を撮像画像として読み出す場合よりも、イメージセンサ101から読み出すデータ量の増大を抑制することができる。したがってイメージセンサ101の出力インタフェースの帯域幅の拡張等によるコストの増大や消費電力の増大を抑制することができる。付言するに、後段の画像安定化部102においても、同様の理由により、入力インタフェースの帯域幅の拡張やメモリ容量の増大によるコストの増大や、消費電力の増大を抑制することができる。
また、図2に示されるように、この読み出し画像122は、撮像装置100より出力される切り出し画像123よりも大きい。そして、上述のように、画像安定化部102が、読み出し領域をIMUデータに基づいて設定する。したがって、その読み出し領域において得られた読み出し画像122から、画像を安定化させた(被写体の動きを抑制した)切り出し画像123を得ることができる。すなわち、読み出し画像122を用いて画像安定化を行うことができる。つまり、画像安定化による負荷の増大を抑制することができる。
<イメージセンサ>
図3は、イメージセンサ101の主な構成の一例を示すブロック図である。なお、図3においては、処理部やデータの流れ等の主なものを示しており、図3に示されるものが全てとは限らない。つまり、イメージセンサ101において、図3においてブロックとして示されていない処理部が存在したり、図3において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図3に示されるように、イメージセンサ101は、通信部131、システム制御部132、行走査部133、列走査部134、ADC(Analog Digital Converter)135、および画素領域136を有する。
通信部131は、画像安定化部102との通信に関する処理を行う。例えば、通信部131は、MIPI(Mobile Industry Processor Interface)等の所定の通信規格に準拠して画像安定化部102との通信を行う。MIPIは、MIPI Allianceが策定する、モバイル機器のカメラやディスプレイとのインタフェース規格である。
例えば、通信部131は、この通信により、画像安定化部102から、読み出し領域に関する情報(読み出し領域の設定指示)を取得する。この読み出し領域に関する情報(読み出し領域の設定指示)には、例えば、その設定する読み出し領域の位置や形状(大きさも含む)に関する情報が含まれる。通信部は、その読み出し領域に関する情報(読み出し領域の設定指示)をシステム制御部132に供給する。
また、例えば、通信部131は、システム制御部132より供給される撮像画像データ(読み出し画像データ)を取得する。この撮像画像データ(読み出し画像データ)は、上述の情報(指示)により設定された読み出し領域において得られた画像データである。通信部131は、その撮像画像データ(読み出し画像データ)を、上述の通信により画像安定化部102に供給する。その際、通信部131は、撮像画像データ(読み出し画像データ)とともに、その撮像画像(読み出し画像)を得た読み出し領域に関する情報も画像安定化部102に供給する。この読み出し領域に関する情報には、例えば、その読み出し領域の位置や形状(大きさも含む)に関する情報が含まれる。
システム制御部132は、撮像の制御に関する処理を行う。例えば、システム制御部132は、行走査部133や列走査部134を制御して画素領域136に読み出し領域を設定し、その読み出し領域において撮像画像(すなわち読み出し画像)を生成させる。システム制御部132は、通信部131を介して画像安定化部102から供給される読み出し領域に関する情報(読み出し領域の設定指示)に基づいて、このような制御(つまり、読み出し領域の設定)を行う。つまり、システム制御部132は、読み出し領域に関する情報により示される位置や形状に読み出し領域を設定する。
また、システム制御部132は、例えば、このようにして設定された読み出し領域において得られた読み出し画像データを、ADC135を介して取得する。システム制御部132は、その読み出し画像データ(撮像画像データ)を、その読み出し画像データが得られた読み出し領域に関する情報とともに通信部131に供給し、それらを画像安定化部102に供給させる。
行走査部133は、システム制御部132の制御に従って、画素領域136に形成される画素アレイの各行の駆動(走査)を制御する。つまり、行走査部133は、画素アレイの内、駆動させる行を選択することができる。例えば、行走査部133は、画素領域136の内、読み出し領域に指定された行の各画素のみを駆動させ、画素データを生成させることができる。
列走査部134は、システム制御部132の制御に従って、画素領域136に形成される画素アレイの各列の駆動(列の走査)を制御する。より具体的には、列走査部134は、画素アレイの各列に対応するADC135内の各カラムADCの駆動を制御することにより、そのような制御を行う。つまり、列走査部134は、画素アレイの内、画素データを読み出す列を選択することができる。例えば、列走査部134は、画素領域136の内、読み出し領域に指定された列の各画素からのみ画素データを読み出すことができる。
したがって、システム制御部132は、行走査部133および列走査部134を制御することにより、画素アレイの内の所望の範囲(行や列)を読み出し領域とし、その読み出し領域の撮像画像(すなわち読み出し画像)を得ることができる。
ADC135は、画素領域136内に形成される画素アレイの列毎にADC(カラムADC)を有している。カラムADCは、対応する列の各画素より読み出されたアナログ信号の画素データをA/D変換する。ADC135は、列走査部134により制御されて、所望の列に対応するカラムADCを駆動し、その列の各画素において得られた画素データをA/D変換して、デジタルデータとしてシステム制御部132に供給する。
つまり、行走査部133および列走査部134が上述のように読み出し領域の行および列を駆動させることにより、ADC135は、読み出し領域の画素データをA/D変換し、デジタルデータの読み出し画像データとしてシステム制御部132に供給することができる。
画素領域136は、被写体からの光を光電変換する画素が複数形成される領域である。画素領域136には、その複数の画素がアレイ状に形成される。すなわち、画素領域136には複数の画素からなる画素アレイが形成される。この画素アレイは、画素領域136の略全体に形成され、画素領域136の略全体において被写体を撮像することができる。つまり、画素領域136全体が、被写体を撮像する撮像領域(有効画素領域)である。換言するに、イメージセンサ101は、画素領域136のほぼ全体を使って被写体を撮像する(撮像画像を得る)ことができる。
また、上述したように、イメージセンサ101は、この画素領域136の一部の領域を読み出し領域として設定し、その読み出し領域において被写体を撮像する(撮像画像を得る)ことができる。つまり、イメージセンサ101は、画素領域136全体の撮像画像よりも小さい(範囲の狭い)読み出し画像を得ることもできる。
なお、画素領域136における複数の画素の配置パタン(レイアウト)は任意であり、アレイ状以外であってもよい。ただし、以下においては、画素領域136には画素アレイが形成されるものとして説明する。なお、画素領域136に形成される画素アレイの行数および列数はそれぞれ任意である。また、図3においては画素領域136の形状を矩形に表しているが、画素領域136の形状は任意であり、矩形以外であってもよい。
<画像安定化部>
図4は、画像安定化部102の主な構成例を示すブロック図である。なお、図4においては、処理部やデータの流れ等の主なものを示しており、図4に示されるものが全てとは限らない。つまり、画像安定化部102において、図4においてブロックとして示されていない処理部が存在したり、図4において矢印等として示されていない処理やデータの流れが存在したりしてもよい。図4に示されるように画像安定化部102は、通信部151、および画像処理部152を有する。
通信部151は、イメージセンサ101との通信に関する処理を行う。例えば、通信部151は、MIPI等の所定の通信規格に準拠してイメージセンサ101との通信を行う。
例えば、通信部151は、画像処理部152から供給される読み出し領域に関する情報(読み出し領域の設定指示)を取得する。この読み出し領域に関する情報(読み出し領域の設定指示)には、例えば、その設定する読み出し領域の位置や形状(大きさも含む)に関する情報が含まれる。通信部151は、この通信により、その読み出し領域に関する情報(読み出し領域の設定指示)をイメージセンサ101(の通信部131)に供給する。
また、例えば、通信部151は、この通信により、イメージセンサ101から供給される撮像画像データ(読み出し画像データ)およびその撮像画像(読み出し画像)を得た読み出し領域に関する情報を取得する。この読み出し領域に関する情報には、例えば、その読み出し領域の位置や形状(大きさも含む)に関する情報が含まれる。通信部151は、取得したこれらの情報を画像処理部152に供給する。
画像処理部152は、画像処理に関する処理を行う。特に、画像処理部152は、イメージセンサ101において得られた読み出し画像データに対する画像安定化等に関する処理を行う。図4に示されるように、画像処理部152は、撮像制御部161、動き情報取得部162、切り出し領域設定部163、切り出し部164、出力部165、学習部166、および読み出し領域設定部167を有する。
撮像制御部161は、通信部151を介してイメージセンサ101を制御し、撮像の制御に関する処理を行う。例えば、撮像制御部161は、イメージセンサ101に被写体を撮像させ、画素領域136(撮像領域)の読み出し領域において得られる撮像画像(読み出し画像)を取得する。
例えば、撮像制御部161は、読み出し領域設定部167により設定された読み出し領域に関する情報を、読み出し領域の設定指示としてイメージセンサ101に供給し、イメージセンサ101に対して、画素領域136内に読み出し領域を設定させ、その読み出し領域の読み出し画像を生成させる。
この読み出し領域に関する情報(読み出し領域の設定指示)には、例えば、その設定する読み出し領域の位置や形状(大きさも含む)に関する情報が含まれる。
また、例えば、撮像制御部161は、その生成された読み出し画像のデジタルデータ(読み出し画像データ)を、イメージセンサ101から取得する。その際、撮像制御部161は、その読み出し画像データとともに、その読み出し画像が得られた読み出し領域に関する情報を取得する。
この読み出し領域に関する情報には、例えば、その設定する読み出し領域の位置や形状(大きさも含む)に関する情報が含まれる。
撮像制御部161は、取得した読み出し画像データや読み出し領域に関する情報を、切り出し領域設定部163や切り出し部164に供給する。
動き情報取得部162は、IMU103において計測されたイメージセンサ101の動きや姿勢に関する計測データ(IMUデータ)を取得する。より具体的には、動き情報取得部162は、イメージセンサ101の3軸の角速度や加速度に関する計測データを取得する。動き情報取得部162は、そのIMUデータを切り出し領域設定部163や読み出し領域設定部167に供給する。
切り出し領域設定部163は、切り出し画像を切り出す切り出し領域の設定に関する処理を行う。例えば、切り出し領域設定部163は、撮像制御部161から供給される読み出し画像から切り出し画像(部分画像)を切り出す切り出し領域を設定する。
この読み出し画像は、上述したように、読み出し領域設定部167により設定された読み出し領域において得られた現在のフレーム(処理対象フレーム)の撮像画像である。つまり、切り出し領域設定部163は、処理対象フレームの読み出し領域内に、切り出し領域を設定する。
その際、切り出し領域設定部163は、切り出し領域の位置および形状(大きさも含む)を設定する。
また、切り出し領域設定部163は、動き情報取得部162により取得されたイメージセンサ101の動きや姿勢に関する計測データ(IMUデータ)に対応する現在までの動き情報に基づいて、現在フレーム(処理対象フレーム)の切り出し領域を設定する。例えば、切り出し領域設定部163は、動き情報取得部162からIMUデータを取得する。切り出し領域設定部163は、その動き情報取得部162により取得されたIMUデータに基づいてイメージセンサ101の現在までの動き情報を求め、その求めた現在までの動き情報に基づいて、現在フレーム(処理対象フレーム)の切り出し領域を設定する。
また、切り出し領域設定部163は、撮像制御部161から現在フレーム(処理対象フレーム)の読み出し領域に関する情報を取得する。切り出し領域設定部163は、上述のIMUデータと、その処理対象フレームの読み出し領域に関する情報とに基づいて、処理対象フレームの切り出し領域を設定する。
なお、この読み出し領域に関する情報には、読み出し領域の位置および形状に関する情報が含まれる。
切り出し領域設定部163は、被写体の位置変動が抑制されるように、切り出し領域を設定する。すなわち、切り出し領域設定部163は、切り出し画像内における被写体の動きを抑制するように(切り出し画像を安定化させるように)、切り出し領域を設定する。
切り出し領域設定部163は、設定した切り出し領域に関する情報を切り出し部164や学習部166に供給する。なお、この切り出し領域に関する情報は、例えば、切り出し領域の位置および形状(大きさも含む)に関する情報を含む。
切り出し部164は、切り出し画像の切り出しに関する処理を行う。例えば、切り出し部164は、撮像制御部161から、現在フレームの読み出し画像データと、その読み出し領域に関する情報とを取得する。また、例えば、切り出し部164は、切り出し領域設定部163から、現在フレームの切り出し領域に関する情報を取得する。例えば、切り出し部164は、それらの情報に基づいて、現在フレームの読み出し画像から切り出し画像を切り出す。つまり、切り出し部164は、例えば、読み出し画像内から、切り出し領域設定部163により設定された切り出し領域内の画像を切り出し画像として切り出す(抽出する)。切り出し部164は、切り出した切り出し画像を出力部165に供給する。
出力部165は、切り出し画像の出力に関する処理を行う。例えば、出力部165は、出力インタフェースを有し、その出力インタフェースを介して、切り出し画像のデータ(切り出し画像データ)を撮像装置100(または画像安定化部102)の外部に出力する。また、例えば、出力部165は、モニタやスピーカ等の出力デバイスを有し、切り出し画像をモニタに表示したり、切り出し画像に対応する音声等をスピーカより出力したりする。
学習部166は、切り出し領域設定部163におより設定された切り出し領域に関する情報を取得する。学習部166は、現在までの切り出し領域の設定結果(設定された現在までの切り出し領域の位置や形状(大きさを含む))に基づいて、読み出し領域設定部167による読み出し領域の設定に関する学習を行う。学習部166は、得られた学習結果を読み出し領域設定部167に供給し、その学習結果を、読み出し領域の設定に反映させる。
なお、学習部166は、読み出し領域設定部167からイメージセンサ101の動きや姿勢の計測データおよび予測値を取得し、それらに基づいて、読み出し領域設定部167によるイメージセンサ101の動きや姿勢の予測に関する学習を行うようにしてもよい。学習部166は、得られた学習結果を読み出し領域設定部167に供給し、その学習結果を、イメージセンサ101の動きや姿勢の予測に反映させる。
読み出し領域設定部167は、読み出し領域の設定に関する処理を行う。例えば、読み出し領域設定部167は、処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する。
例えば、読み出し領域設定部167は、読み出し領域の位置および形状を設定する。
例えば、読み出し領域設定部167は、現在までの動き情報に基づいて所定のフレームまでの動き情報を、動き予測情報として推定し、その推定した動き情報に基づいて読み出し領域を設定する。
例えば、読み出し領域設定部167は、動き情報取得部162により取得された現在までのイメージセンサ101の動きや姿勢に関する計測データ(IMUデータ)を、現在までの動き情報として動き情報取得部162から取得し、その現在までのIMUデータに基づいて動き予測情報を推定し、推定した動き予測情報に基づいて読み出し領域を設定する。
また、読み出し領域設定部167は、例えば、学習部166による学習結果を反映して、読み出し領域の設定を行うことができる。また、例えば、読み出し領域設定部167は、学習部166による学習結果を反映して、イメージセンサ101の動きや姿勢の予測を行うこともできる。
読み出し領域設定部167は、設定した読み出し領域に関する情報を撮像制御部161に供給する。この読み出し領域に関する情報には、読み出し領域の位置および形状に関する情報が含まれる。
<画像安定化の概要>
次に画像の安定化に関する処理の流れについて概要を説明する。読み出し領域の設定は、イメージセンサ101が処理を行っている処理対象フレーム(フレームi(Frame i))の読み出しの前までに行われればよい。切り出し領域の設定は、切り出しが行われる前までに行われればよい。
例えば、画像安定化部102は、イメージセンサ101が処理を行っている処理対象フレーム(フレームi(Frame i))の次以降のフレームについての読み出し領域の設定を行い、処理対象フレームについての切り出し領域の設定を行うようにしてもよい。
例えば、図5に示される例のように、読み出し領域設定部167が、処理対象フレーム(フレームi(Frame i))の次のフレーム(フレームi+1(Frame i+1))の読み出し領域を設定し、切り出し領域設定部163が、処理対象フレーム(フレームi(Frame i))の切り出し領域を設定するようにしてもよい。
図5の例の場合、イメージセンサ101が処理対象フレーム(フレームi(Frame i))についての処理を行っている間に、画像安定化部102は、処理181を行う。すなわち、読み出し領域設定部167は、IMUデータの角速度や加速度のデータを使って、次フレームの読み出し位置(読み出し領域)を決める。
読み出し位置が決まると、画像安定化部102は、処理182を行う。すなわち、撮像制御部161は、イメージセンサ101に対して処理対象フレームの次のフレーム(フレームi+1(Frame i+1))の読み出し領域に関する情報を供給し、イメージセンサ101の読み出し位置の設定を行う。
そして、イメージセンサ101の処理対象フレームが、フレームi+1(Frame i+1)になると、画像安定化部102は、処理183を行う。すなわち、切り出し領域設定部163は、IMUデータを使って処理対象フレーム(フレームi+1(Frame i+1))の切り出し位置を決定する。また、読み出し領域設定部167は、処理対象フレームの次のフレーム(フレームi+2(Frame i+2))の読み出し位置を決定する。
つまり、図6に示されるように、各フレームについて将来の読み出し領域と現在の切り出し領域とを設定することにより、イメージセンサ101から読み出し画像として画素領域136の一部において得られた撮像画像を読み出し、その読み出し画像を用いて切り出し画像を生成することができる。すなわち、画像の安定化を行うことができる。
したがって、上述したように、画像安定化による負荷の増大を抑制することができる。
<読み出し領域の設定>
上述のように、読み出し領域設定部167は、処理対象フレームの次以降の所定のフレーム、すなわち、将来のフレームについて、読み出し領域を設定する。その際、読み出し領域設定部167は、IMUデータに基づいて、その所定のフレームまでのイメージセンサ101の動き(撮像画像における被写体の動き)を予測(推定)し、その動き予測情報に基づいて、読み出し領域を設定する。
この動き予測情報に基づく読み出し領域の設定方法は任意である。例えば、読み出し領域設定部167が、処理対象フレーム(現在フレーム)の読み出し領域を、動き予測情報に応じて移動させるようにしてもよい。
イメージセンサ101の動き予測の方法は任意である。例えば、読み出し領域設定部167が、現在までのIMUデータの値の変化に基づいて、将来のIMUデータを予測するようにしてもよい。例えば、図7の例の場合、読み出し領域設定部167が、処理対象フレーム(Frame i)において得られたIMUデータ201乃至IMUデータ208に基づいて、次のフレーム(Frame i+1)のIMUデータ209乃至IMUデータ212を予測するようにしてもよい。例えば図7の場合、読み出し領域設定部167は、IMUデータ207およびIMUデータ208の間の変化等に基づいて、IMUデータが直線221に沿って変化すると推定し、その直線221に沿ったIMUデータ209乃至IMUデータ212を予測している。
例えば、読み出し領域設定部167は、このように予測(推定)したIMUデータ209乃至IMUデータ212に基づいて、読み出し領域を移動させる。このようにすることにより、読み出し領域設定部167は、現在までのIMUデータに基づいて、次以降のフレームの読み出し領域を設定することができる。
なお、その際、読み出し領域設定部167が、任意の情報に基づいて、読み出し領域の形状や大きさを変えるようにしてもよい。例えば、予測した動きの大きさ(角速度や加速度の大きさ)等に応じて、読み出し領域の形状や大きさを変えるようにしてもよい。
また、例えば、読み出し領域設定部167が、動き予測情報(所定のフレームまでのIMUデータの推定値)に基づいて、所定のフレームにおける切り出し領域(の位置や形状)を推定し、その推定した切り出し領域に基づいて(推定した切り出し領域を含むように)、読み出し領域を設定(推定)するようにしてもよい。
このようにすることにより、読み出し領域のより多様な設定を実現することができる。例えば、推定した動きに応じて、切り出し領域に対する読み出し領域のマージンの取り方を可変とすることができる。図6に示されるように、読み出し領域は切り出し領域よりも大きい。したがって、設定した読み出し領域には、推定した切り出し領域以外の部分が含まれる。この部分は、切り出し領域の推定誤差のマージンとして利用することができる。
例えば、図7に示されるように、フレームi+1(Frame i+1)において、IMUデータ231乃至IMUデータ234が得られたとすると、これらと、予測したIMUデータ209乃至IMUデータ212との差分が切り出し領域の推定の誤差となる。この誤差が大きくなりすぎると、読み出し領域内に切り出し領域を設定することができず、画像安定化の精度が低減するおそれがある。つまり、推定した切り出し領域の枠と設定した読み出し領域との枠との間隔が広い程、このマージンが大きいと言える。
読み出し領域は、推定された切り出し領域を含むように設定されればよく、どの方向にどれくらいマージンを取るかは任意である。つまり、読み出し領域設定部167が、推定された切り出し領域に対して、どのような位置に読み出し領域を設定するかを、動き予測情報に基づいて、設定することができるようにしてもよい。
例えば、読み出し領域設定部167が、動き方向には、推定した切り出し領域の位置に誤差が含まれる可能性が高いとし、動き方向に対してより多くのマージンを取るように読み出し領域を設定するようにしてもよい。
また、例えば、その逆に、読み出し領域設定部167が、動き方向に垂直な方向に、推定した切り出し領域の位置に誤差が含まれる可能性が高いとし、動き方向に垂直な方向に対してより多くのマージンを取るように読み出し領域を設定するようにしてもよい。
このようにすることにより、撮像装置100は、より高精度に切り出し画像を含むように読み出し画像を生成することができる。したがって、撮像装置100の画像安定化の性能を向上させることができる。
なお、図7のような動き予測の際に、読み出し領域設定部167が、現在までのIMUデータ以外の情報にも基づいて、イメージセンサ101の動き予測を行うようにしてもよい。例えば手ブレの場合、撮像画像内の被写体はおおよそ周期的な振動のように動くのが一般的であり、右から左等のように一方向にのみ動く可能性は低い。同様に、人体に装着して使用するウェアラブル機器の場合も、徒歩運動等によって、撮像画像内の被写体はおおよそ周期的な振動のように動くのが一般的であり、右から左等のように一方向にのみ動く可能性は低い。
そこで、読み出し領域設定部167が、現在までの動き情報に基づいて、所定の規則性に従って、処理対象フレームの次以降の所定のフレームまでの動き情報を推定するようにしてもよい。例えば、読み出し領域設定部167が、現在までのIMUデータだけでなく、手ブレの動きや徒歩運動等の動きも考慮して、動き予測を行うようにしてもよい。
このようにすることにより、手振れ補正やウェアラブル機器におけるブレ補正(画像安定化)により適した動き予測を行うことができ、予測精度を向上させることができる。したがって、撮像装置100は、より高精度に切り出し画像を含むように読み出し画像を生成することができる。したがって、撮像装置100の画像安定化の性能を向上させることができる。
なお、切り出し領域設定部163は、設定された読み出し領域内に切り出し領域を設定することができない場合、処理対象フレームの読み出し領域内の、現在までの動き情報に対応する切り出し領域の位置に対して動き方向に最近傍の位置に、切り出し領域を設定するようにしてもよい。
つまり、切り出し領域を設定する際に、強制的に読み出し領域内に切り出し領域を設定するようにしてもよい。上述したように、イメージセンサ101から読み出し画像を読み出し、切り出し画像をその読み出し画像から切り出して生成する場合、切り出し領域を読み出し領域内に設定することができないと、切り出し画像を生成することができない。そこで、切り出し領域設定部163は、必ず読み出し領域内に切り出し領域を設定するようにする。このようにすることにより、確実に切り出し画像を生成することができる。
また、その際、切り出し領域設定部163が、切り出し領域を、読み出し領域内の、現在までの動き情報から求められる切り出し領域の位置に最も近い位置(最近傍の位置)に設定するようにしてもよい。つまり、処理対象フレームの読み出し領域内の、現在までの動き情報に対応する切り出し領域の位置に対して動き方向に最近傍の位置に、切り出し領域を設定するようにしてもよい。このようにすることにより、切り出し画像における被写体の位置のブレの増大を抑制することができる。
また、次以降の所定のフレームの読み出し領域を設定する際、読み出し領域設定部167が、読み出し領域の形状や大きさを変えるようにしてもよい。
例えば、読み出し領域設定部167が、推定した切り出し領域の回転量に応じて読み出し領域の形状や大きさを設定するようにしてもよい。例えば図8に示されるように、推定した切り出し領域が回転する場合、その切り出し領域を含む読み出し領域の形状や大きさが変化する(切り出し領域の回転量に応じて異なる)。そこで、そのように推定した切り出し領域が回転する場合、その回転量に応じて読み出し領域の形状や大きさを設定するようにしてもよい。このようにすることにより、より高精度に、読み出し領域が、切り出し領域を含むようにすることができる。したがって、撮像装置100の画像安定化の性能を向上させることができる。
なお、動き予測に用いるIMUデータは、現在までのIMUデータであればよく、現在のフレームのIMUデータだけでなく、過去のフレームのIMUデータも用いるようにしてもよい。動き予測に用いるIMUデータの数は任意であり、任意のフレーム数のIMUデータを用いるようにしてもよい。例えば、図9に示されるような、遅延素子251、増幅部252、および加算部253よりなるFIR(Finite Impulse Response)フィルタを用い、複数のフレームのIMUデータの差分データを畳み込むことにより、所定のフレームのIMUデータを推定するようにしてもよい。
読み出し領域設定部167が読み出し領域を設定すると、撮像制御部161は、例えば図10に示されるように、処理対象フレームの次のフレームに読み出し位置設定が反映できるタイミングにおいて、イメージセンサ101に対して、読み出し領域設定コマンドを発行する(処理261)。例えば、撮像制御部161は、垂直ブランキング期間において、読み出し領域設定コマンドを発行する。この読み出し領域設定コマンドには、処理対象フレームの次のフレーム(フレームi+1(Frame i+1))の読み出し領域に関する情報が含まれる。この読み出し領域に関する情報には、読み出し領域の位置および形状に関する情報が含まれる。
例えば、撮像制御部161は、通信部151を介して、I2C(MIPIの場合)、SPI等でイメージセンサ101に読み出し位置を設定する。
<撮像処理の流れ>
次に、以上のような撮像装置100において実行される処理について説明する。最初に、撮像処理の流れの例を、図11のフローチャートを参照して説明する。
撮像処理が開始されると、撮像制御部161は、ステップS101において、設定を初期化する。例えば、撮像制御部161は、読み出し領域の設定等(例えば読み出し領域の位置や形状等)を初期化する。
ステップS102において、撮像制御部161は、イメージセンサ101を制御し、被写体を撮像させる。イメージセンサ101は、被写体を撮像し、設定された読み出し領域の読み出し画像を生成する。
ステップS103において、撮像制御部161は、ステップS102の処理の撮像により得られた読み出し領域の撮像画像(読み出し画像)とその座標情報(読み出し領域に関する情報)を取得する。
ステップS104において、動き情報取得部162は、IMU103から、現在フレームに対応するIMUデータを取得する。
ステップS105において、切り出し領域設定部163は、ステップS103において得られた読み出し画像およびその座標情報、並びに、ステップS104において得られた現在フレームに対応するIMUデータに基づいて、被写体の位置の変動(ブレ)が抑制されるように、現在フレームの切り出し領域を設定する。
ステップS106において、切り出し部164は、ステップS103において得られた読み出し画像から、ステップS105の処理により設定された切り出し領域の画像を切り出し、切り出し画像を生成する。
ステップS107において、出力部165は、ステップS106の処理により生成された切り出し画像を出力する。
ステップS108において、学習部166は、ステップS106の切り出し結果に基づいて、読み出し位置推定の学習を行う。
ステップS109において、読み出し領域設定部167は、ステップS108の学習結果を反映させて、次以降の所定のフレーム(例えば次フレーム)の読み出し領域を設定する。
読み出し領域が設定されると、ステップS110において、撮像制御部161は、撮像を終了するか否かを判定する。終了しないと判定された場合、撮像制御部161は、ステップS109において設定された読み出し領域に関する情報をイメージセンサ101に供給し、その読み出し領域をイメージセンサ101に設定させる。つまり、読み出し領域の設定を更新する。読み出し領域の設定を更新すると、撮像制御部161は、処理をステップS102に戻し、それ以降の処理を繰り返す。
また、ステップS110において、撮像を終了すると判定された場合、撮像処理が終了する。
<読み出し領域設定処理の流れ>
次に、図11のステップS109において実行される読み出し領域設定処理の流れの例を、図12のフローチャートを参照して説明する。
読み出し領域設定処理が開始されると、読み出し領域設定部167は、ステップS131において、現在フレームに対応するIMUデータ等に基づいて、現在フレームの次以降の所定のフレーム(例えば次フレーム)に対応するIMUデータを推定する。
ステップS132において、読み出し領域設定部167は、現在フレームの次以降の所定のフレーム(例えば次フレーム)に対応するIMUデータの推定結果等に基づいて、現在フレームの次以降の所定のフレーム(例えば次フレーム)における読み出し領域(の位置や形状(大きさも含む)等)を推定する。
ステップS132の処理が終了すると、読み出し領域設定処理が終了し、処理は図11に戻る。
<読み出し領域設定処理の流れ>
次に、図11のステップS109において実行される読み出し領域設定処理の流れの他の例を、図13のフローチャートを参照して説明する。
図13の場合、読み出し領域設定処理が開始されると、読み出し領域設定部167は、ステップS151において、現在フレームに対応するIMUデータ等に基づいて、現在フレームの次以降の所定のフレーム(例えば次フレーム)に対応するIMUデータを推定する。
ステップS152において、読み出し領域設定部167は、現在フレームの次以降の所定のフレーム(例えば次フレーム)に対応するIMUデータの推定結果等に基づいて、現在フレームの次以降の所定のフレーム(例えば次フレーム)における切り出し領域(の位置や形状(大きさも含む)等)を推定する。
ステップS153において、読み出し領域設定部167は、現在フレームの次以降の所定のフレーム(例えば次フレーム)の切り出し領域の推定結果と、現在フレームの次以降の所定のフレーム(例えば次フレーム)に対応するIMUデータの推定結果等に基づいて、現在フレームの次以降の所定のフレーム(例えば次フレーム)における読み出し領域(の位置や形状(大きさも含む)等)を推定する。
ステップS153の処理が終了すると、読み出し領域設定処理が終了し、処理は図11に戻る。
以上のように各処理を実行することにより、イメージセンサ101から、画素領域121の一部である読み出し領域において得られる読み出し画像122を撮像画像として読み出し、その読み出し画像から、画像を安定化させた(被写体の動きを抑制した)切り出し画像を切り出すことができる。つまり、イメージセンサ101から読み出すデータ量の増大を抑制することができ、画像安定化による負荷の増大を抑制することができる。
<その他>
なお、以上においては、撮像画像を得る際に、上述したように画像安定化を行うように説明したが、これに限らず、例えば、撮像前のモニタ等に表示するための取り込み画像を得る際に、上述したように画像安定化を行うようにしてもよい。取り込み画像の場合もイメージセンサ101および画像安定化部102の行う処理は、上述した撮像画像の場合と同様であるので、その説明は省略する。
また、図3においては、ADC135がカラムADCを有するように説明したが、ADC135が有するADCは任意であり、この例に限定されない。例えば、ADC135が、行毎のADC(ラインADC)を有するようにしてもよいし、領域毎のADC(エリアADC)を有するようにしてもよいし、画素毎のADC(画素ADC)を有するようにしてもよい。ただし、それらの場合、走査部(行走査部133および列走査部134)の構成が上述の例と異なる場合がある。
例えば、ADC135がラインADCを有する場合、列走査部134が駆動する画素列を選択し、行走査部133がADC135を制御して、ラインADCを駆動する画素行を選択する。また、例えば、ADC135がエリアADCを有する場合、行走査部133や列走査部134の代わりに、そのエリア毎に画素アレイの駆動を制御する走査部が設けられる。また、例えば、ADC135が画素ADCを有する場合、行走査部133や列走査部134の代わりに、画素毎に画素アレイの駆動を制御する走査部が設けられる。
また、以上においては、学習部166が、フレーム毎に学習を行うように説明したが、学習部166による学習は、一部のフレームについて行われるようにしてもよい。また、例えば、学習部166による学習は、一部のフレームにおいてまとめて行われるようにしてもよい。さらに、例えば、学習部166による学習が、不定期に行われるようにしてもよい。さらに、学習部166(による学習)を省略するようにしてもよい。
<3.第2の実施の形態>
<動きベクトル>
第1の実施の形態においては、動き情報としてIMUデータを用いるように説明したが、動き情報はこの例に限定されない。例えば、撮像画像のフレーム間の動きベクトルを動き情報として読み出し領域や切り出し領域の設定に用いるようにしてもよい。
例えば、図14に示されるように、フレームi-1(Frame i-1)とフレームi(Frame i)との間で特徴点を用いて動きベクトルを求め、その動きベクトルを使ってフレームi(Frame i)とフレームi+1(Frame i+1)との間の動きベクトルを推定し、その推定した動きベクトルを用いてフレームi+1(Frame i+1)の読み出し位置を推定するようにしてもよい。そして、読み出し画像から、特徴点の情報を使用して切り出し領域を設定するようにしてもよい。
その場合、IMU103を省略することができる。つまり、この場合、撮像装置100は、イメージセンサ101および画像安定化部102により構成される。したがって、コストの増大を抑制することができる。
<画像安定化部>
この場合の画像安定化部102の主な構成例を図15に示す。図15に示されるように、この場合の画像安定化部102は、動き情報取得部162(図4)の代わりに動きベクトル算出部311を有する。また、この場合の画像安定化部102(図15)は、切り出し領域設定部163(図4)の代わりに、切り出し領域設定部312を有する。さらに、この場合の画像安定化部102(図15)は、読み出し領域設定部167(図4)の代わりに、読み出し領域設定部313を有する。
動きベクトル算出部311は、撮像制御部161がイメージセンサ101から取得した読み出し画像およびその読み出し領域に関する情報を、撮像制御部161から取得する。撮像制御部161は、その読み出し画像(撮像画像)の特徴点について、フレーム間の動きベクトルを算出する(検出する)。動きベクトル算出部311は、算出した動きベクトルを切り出し領域設定部312および読み出し領域設定部313に供給する。
切り出し領域設定部312は、その動きベクトル算出部311により算出(検出)された現在までの動きベクトルに基づいて、処理対象フレーム(現在フレーム)の切り出し領域を設定する。それ以外の処理は、第1の実施の形態において説明した切り出し領域設定部163の場合と同様である。
読み出し領域設定部313は、その動きベクトル算出部311により算出(検出)された現在までの動きベクトルに基づいて、処理対象フレーム(現在フレーム)の次以降の所定のフレームの読み出し領域を設定する。それ以外の処理は、第1の実施の形態において説明した読み出し領域設定部167の場合と同様である。
このようにすることにより、撮像画像の特徴点のフレーム間の動きベクトルを用いて、読み出し領域や切り出し領域を設定することができる。したがって、IMU103を省略することができるので、コストの増大を抑制することができる。
<撮像処理の流れ>
この場合の撮像処理の流れの例を、図16のフローチャートを参照して説明する。撮像処理が開始されると、ステップS201乃至ステップS203の各処理が、図11の撮像処理のステップS101乃至ステップS103の各処理と同様に実行される。
ステップS204において、動きベクトル算出部311は、ステップS103において得られた読み出し画像を用いて、現在フレームに対応する動きベクトルを算出する。すなわち、動きベクトル算出部311は、現在フレームと現在フレームの1つ前のフレームとの間で、読み出し画像の特徴点を比較し、動きベクトルを算出する。
ステップS205において、切り出し領域設定部312は、ステップS204の処理により得られた動きベクトルに基づいて、被写体の位置の変動(ブレ)が抑制されるように、現在フレームの切り出し領域を設定する。
ステップS206乃至ステップS208の各処理は、図11の撮像処理のステップS106乃至ステップS108の各処理と同様に実行される。
ステップS209において、読み出し領域設定部313は、ステップS208の学習結果を反映させて、次以降の所定のフレーム(例えば次フレーム)の読み出し領域を設定する。
ステップS210の処理は、図11の撮像処理のステップS110の処理と同様に実行される。すなわち、ステップS210において、撮像処理を終了しないと判定された場合、S209において設定された読み出し領域に関する情報をイメージセンサ101に供給し、その読み出し領域をイメージセンサ101に設定させる。つまり、読み出し領域の設定が更新される。読み出し領域の設定が更新されると、撮像制御部161は、処理をステップS202に戻し、それ以降の処理を繰り返す。また、ステップS110において、撮像を終了すると判定された場合、撮像処理が終了する。
<読み出し領域設定処理の流れ>
次に、この場合の読み出し領域設定処理(図16のステップS209において実行される読み出し領域設定処理)の流れの例を、図17のフローチャートを参照して説明する。なお、この読み出し領域設定処理は、図12のフローチャートを参照して説明した読み出し領域設定処理に対応する。図17に示されるように、図12のフローチャートにおけるIMUデータを動きベクトルに置き換えることにより、この場合の読み出し領域設定処理の流れの例を説明することができる。
つまり、読み出し領域設定処理が開始されると、読み出し領域設定部313は、ステップS231において、現在フレームに対応する動きベクトル等に基づいて、現在フレームの次以降の所定のフレーム(例えば次フレーム)に対応する動きベクトルを推定する。
ステップS232において、読み出し領域設定部313は、現在フレームの次以降の所定のフレーム(例えば次フレーム)に対応する動きベクトルの推定結果等に基づいて、現在フレームの次以降の所定のフレーム(例えば次フレーム)における読み出し領域(の位置や形状(大きさも含む)等)を推定する。
ステップS232の処理が終了すると、読み出し領域設定処理が終了し、処理は図16に戻る。
以上のように各処理を実行することにより、動きベクトルを用いて画像安定化を行うことができる。したがってIMU103を省略することができ、第1の実施の形態の場合に比べて、コストの増大を抑制することができる。
なお、この場合も、動きベクトル推定結果に基づいて、現在フレームの次以降の所定のフレーム(例えば次フレーム)の切り出し領域を推定し、その切り出し領域の推定結果に基づいて、読み出し領域を推定するようにしてもよい。その場合の、読み出し領域設定処理の流れは、図13のフローチャートに対応する。つまり、図17の場合と同様に、図13のフローチャートにおけるIMUデータを動きベクトルに置き換えることにより、この場合の読み出し領域設定処理の流れの例を説明することができる。
なお、以上においては、動き情報として、動きベクトルを算出(検出)するように説明したが、これに限らず、撮像画像の消失点を検出し、消失点がどれだけ動いたかに基づいて動き量を検出するようにしてもよい。これにより、撮像画像において特徴点が存在しないような場合であっても、動き量を検出することができる。例えば、撮像装置100を、車線から消失点を推定することができる車載カメラとして適用する場合に、このようにすることにより、容易に動き量を検出することができる。
<4.第3の実施の形態>
<撮像装置>
なお、撮像装置100の構成例は、図2の例に限定されない。例えば、撮像装置100が、生成した切り出し画像をモニタに表示したり、メモリに記録したり、他の装置に送信したりするようにしてもよい。
図18は、撮像装置100の他の構成例を示すブロック図である。図18に示されるように、この場合、撮像装置100は、イメージセンサ101乃至IMU103の他に、出力部(表示部)351、記録部352、通信部353、およびドライブ354を有する。
出力部(表示部)351は、例えば、切り出し画像を表示可能な表示デバイスや、切り出し画像を投影可能な投影デバイス等といった、切り出し画像を出力可能な出力デバイスを有しており、画像安定化部102により生成された切り出し画像の出力(表示等)に関する処理を行う。例えば、出力部(表示部)351は、画像安定化部102から供給される切り出し画像を、モニタに表示したり、投影スクリーン等に投影したりする。
記録部352は、例えば、ハードディスク、RAM(Random Access Memory)ディスク、不揮発性のメモリなどよりなり、画像安定化部102により生成された切り出し画像の記録に関する処理(書き込みや読み出し等)を行う。例えば、記録部352は、画像安定化部102から供給される切り出し画像を、その記憶領域(メモリ等)に記録する。また、例えば、記録部352は、その記憶領域に記録されている切り出し画像を、画像安定化部102に供給する。
なお、切り出し画像を記録する際に、切り出し画像データを符号化して記録するようにしてもよい。この切り出し画像を読み出す場合は、記録部352は、切り出し画像の符号化データを読み出して復号し、切り出し画像データを画像安定化部102に供給する。
通信部353は、例えば、有線若しくは無線、またはその両方のネットワークインタフェースよりなり、通信相手である他の装置との通信に関する処理を行う。例えば、通信部353は、所定の通信規格に準拠して他の装置と通信を行い、画像安定化部102から供給される切り出し画像を、他の装置に供給する。また、例えば、通信部353は、所定の通信規格に準拠して他の装置と通信を行い、他の装置から切り出し画像を取得し、それを画像安定化部102等に供給する。
なお、このように切り出し画像を他の装置と授受する際に、切り出し画像データを符号化するようにしてもよい。例えば、通信部353が、切り出し画像を符号化し、その符号化データ(またはビットストリーム)を他の装置に送信するようにしてもよい。また、例えば、通信部353が、他の装置から送信された切り出し画像の符号化データを受信し、それを復号して切り出し画像データを画像安定化部102等に供給するようにしてもよい。
ドライブ354は、例えば、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア361を駆動する。例えば、ドライブ354は、画像安定化部102から供給された切り出し画像データを、リムーバブルメディア361に記録する。その際、ドライブ354は、切り出し画像データを符号化し、その符号化データをリムーバブルメディア361に記録するようにしてもよい。
以上のように、撮像装置100は、切り出し画像を出力したり、メモリに記録したり、他の装置に伝送したり、リムーバブルメディアに記録したりすることができる。
<5.第4の実施の形態>
<画像処理システム>
なお、画像安定化部102が切り出し領域の設定や切り出し画像の生成を行わずに、読み出し画像およびその座標情報、並びに、現在までのIMUデータを互いに関連付けて出力するようにしてもよい。そして、切り出し領域の設定や切り出し画像の生成を、後段の装置(例えばサーバ等)において行うようにしてもよい。
図19は、本技術を適用した画像処理システムの一態様の主な構成の一例を示すブロック図である。図19に示される画像処理システム400は、撮像装置100およびサーバ401により構成され、全体として図2の撮像装置100と同様の処理を行う。
図19の画像処理システム400の場合、撮像装置100は、第1の実施の形態の場合と同様に、イメージセンサ101、画像安定化部102、およびIMU103を有する。ただし、この場合の画像安定化部102は、切り出し領域の設定や切り出し画像の生成を行わずに、読み出し画像およびその座標情報(読み出し領域に関する情報)、並びに、現在までのIMUデータを互いに関連付けてサーバ401に供給する。
サーバ401は、それらの情報を取得し、その取得した情報に基づいて、切り出し領域の設定や、切り出し画像の生成等の処理を行う。
<画像安定化部>
この場合の画像安定化部102の主な構成例を図20に示す。図20に示されるように、この場合も、画像安定化部102は、図4の場合と同様に、通信部151および画像処理部152を有する。ただし、画像処理部152は、図4の場合と異なり、撮像制御部161、動き情報取得部162、読み出し領域設定部167、および通信部411を有する。換言するに、この場合の画像処理部152は、切り出し領域設定部163乃至学習部166を有していない。
撮像制御部161は、基本的に図4の場合と同様の処理を行うが、イメージセンサ101より取得した読み出し画像およびその読み出し領域に関する情報(座標情報を含む)を、通信部411に供給する。
動き情報取得部162は、基本的に図4の場合と同様の処理を行うが、IMU103より取得した動き情報(現在までのIMUデータ)を、通信部411と読み出し領域設定部167に供給する。
読み出し領域設定部167は、基本的に図4の場合と同様の処理を行い、現在までの動き情報に基づいて、処理対象フレームの次以降の所定のフレームの読み出し領域を設定する。読み出し領域設定部167は、設定した読み出し領域に関する情報を撮像制御部161に供給する。
通信部411は、所定の通信規格に準拠してサーバ401と通信を行い、読み出し画像およびその読み出し領域に関する情報(座標情報を含む)、並びに、現在までのIMUデータを、サーバ401に送信する。
このように、切り出し領域の設定や切り出し画像の生成に関する処理を省略することができるので、撮像装置100は、画像安定化による負荷の増大を抑制することができる。
<サーバ>
図21は、サーバ401の主な構成例を示すブロック図である。図21に示されるように、サーバ401は、通信部421、切り出し領域設定部422、切り出し部423、および出力部424を有する。
通信部421は、所定の通信規格に準拠して撮像装置100と通信を行い、撮像装置100から送信される、読み出し画像およびその読み出し領域に関する情報(座標情報を含む)、並びに、現在までのIMUデータを受信する。通信部421は、受信したそれらの情報を切り出し領域設定部422に供給する。
切り出し領域設定部422は、基本的に切り出し領域設定部163(図4)と同様の処理を行い、通信部421から供給された情報を用いて、読み出し画像において、切り出し画像内における被写体の動きを抑制するように(切り出し画像を安定化させるように)切り出し領域を設定する。切り出し領域設定部422は、その設定した切り出し領域に関する情報を、通信部421から供給された情報とともに、切り出し部423に供給する。
切り出し部423は、基本的に切り出し部164(図4)と同様の処理を行い、読み出し画像から、切り出し領域設定部422により設定された切り出し領域の画像を切り出し、切り出し画像を生成する。切り出し部423は、生成した切り出し画像を出力部424に供給する。
出力部424は、基本的に出力部165(図4)と同様の処理を行い、切り出し画像のデータ(切り出し画像データ)を、出力インタフェースを介してサーバ401の外部に出力する。また、例えば、出力部424は、モニタやスピーカ等の出力デバイスを有し、切り出し画像をモニタに表示したり、切り出し画像に対応する音声等をスピーカより出力したりする。
このように、切り出し領域の設定や切り出し画像の生成に関する処理を、比較的高性能なサーバ401において行うことにより、比較的低性能な撮像装置100においてこれらの処理を省略することができるので、撮像装置100は、画像安定化による負荷の増大を抑制することができる。
<撮像処理の流れ>
この場合の撮像装置100により実行される撮像処理の流れの例を、図22のフローチャートを参照して説明する。
撮像処理が開始されると、ステップS301乃至ステップS304の各処理が、図11のステップS101乃至ステップS104の各処理と同様に実行される。
ステップS305において、通信部411は、ステップS303の処理により得られた読み出し画像と座標情報、並びに、ステップS304の処理により得られた現在までのIMUデータを互いに関連付けてサーバ401に供給する。
ステップS306およびステップS307の各処理は、図11のステップS109およびステップS110の各処理と同様に実行される。
すなわち、ステップS307において、撮像を終了しないと判定された場合、撮像制御部161は、ステップS306において設定された読み出し領域に関する情報をイメージセンサ101に供給し、その読み出し領域をイメージセンサ101に設定させる。つまり、読み出し領域の設定を更新する。読み出し領域の設定を更新すると、撮像制御部161は、処理をステップS302に戻し、それ以降の処理を繰り返す。
また、ステップS307において、撮像を終了すると判定された場合、撮像処理が終了する。
<切り出し処理の流れ>
次に、図23のフローチャートを参照して、サーバ401により実行される切り出し処理の流れの例を説明する。
切り出し処理が開始されると、ステップS321において、通信部421は、撮像装置100から、読み出し画像、読み出し領域に関する情報(座標情報を含む)、および現在までのIMUデータを取得する。
ステップS322において、切り出し領域設定部422は、ステップS105(図11)の場合と同様に、ステップS321において得られた読み出し画像およびその座標情報、並びに、現在までのIMUデータに基づいて、被写体の位置の変動(ブレ)が抑制されるように、現在フレームの切り出し領域を設定する。
ステップS323において、切り出し部423は、ステップS106(図11)の場合と同様に、ステップS321において得られた読み出し画像から、ステップS322の処理により設定された切り出し領域の画像を切り出し、切り出し画像を生成する。
ステップS324において、出力部424は、ステップS107(図11)の場合と同様に、ステップS323の処理により生成された切り出し画像を出力する。
ステップS325において、通信部421は、切り出し処理を終了するか否かを判定する。撮像装置100からの読み出し画像等の情報の送信が継続しており、切り出し処理を終了しないと判定された場合、処理はステップS321に戻り、それ以降の処理が繰り返される。
ステップS325において、撮像装置100からの読み出し画像等の情報の送信が終了する等して、切り出し処理を終了すると判定された場合、切り出し処理が終了する。
以上のように各処理を実行することにより、画像処理システム400は、第1の実施の形態の撮像装置100の場合と同様に、画像安定化による負荷の増大を抑制することができる。
<6.第5の実施の形態>
<画像処理装置>
なお、本技術は、撮像装置以外の画像処理装置にも適用することができる。少なくとも、読み出し領域の設定と、切り出し領域の設定を行うことができればよい。例えば、第1の実施の形態の撮像装置100の、読み出し領域設定部167と切り出し領域設定部163とを、撮像装置100と別体の画像処理装置として構成するようにしてもよい。
図24は、本技術を適用した画像処理装置の一態様の主な構成の一例を示すブロック図である。図24に示される画像処理装置501は、撮像装置100(のイメージセンサ101)に対して、読み出し領域や切り出し領域を設定する画像処理装置である。
画像処理装置501は、読み出し領域設定部511および切り出し領域設定部512を有する。
読み出し領域設定部511は、読み出し領域設定部167と同様の処理部であり、同様の処理を行う。例えば、読み出し領域設定部511は、撮像装置100の画像安定化部102から、現在までのIMUデータを取得し、その情報に基づいて、処理対象フレームの次以降の所定のフレームの読み出し領域を設定する。そして、読み出し領域設定部511は、その読み出し領域に関する情報(読み出し領域設定情報)を画像安定化部102に供給する。撮像装置100は、その読み出し領域において読み出し画像を生成する。
また、切り出し領域設定部512は、切り出し領域設定部163と同様の処理部であり、同様の処理を行う。例えば、切り出し領域設定部512は、撮像装置100のお画像安定化部102から、読み出し画像およびその読み出し領域に関する情報(座標情報を含む)、並びに、現在までのIMUデータを取得し、それらの情報に基づいて、処理対象フレームの切り出し領域を設定する。そして、切り出し領域設定部512は、その切り出し領域に関する情報(切り出し領域設定情報)を画像安定化部102に供給する。撮像装置100は、その切り出し領域において切り出し画像を生成する。
なお、この場合、撮像装置100の画像安定化部102の読み出し領域設定部167と切り出し領域設定部163は、省略することができる。
このような構成であっても、画像処理装置501は、撮像装置100に、イメージセンサ101から読み出し画像を読み出させ、その読み出し画像を用いて画像安定化させた切り出し画像を生成させることができる。したがって、画像処理装置501は、第1の実施の形態の場合と同様に、撮像装置100の画像安定化による負荷の増大を抑制することができる。
<7.第6の実施の形態>
<積層イメージセンサ>
なお、本技術は、例えば、半導体基板が封止されたパッケージ(チップ)やそのパッケージ(チップ)が回路基板に設置されたモジュール等として実現するようにしてもよい。例えば、パッケージ(チップ)として実現する場合、そのパッケージ(チップ)において撮像素子が、単一の半導体基板により構成されるようにしてもよいし、互いに重畳される複数の半導体基板により構成されるようにしてもよい。
図25は、本技術を適用した積層イメージセンサの物理構成の一例を示す図である。例えば、図25Aに示される積層イメージセンサ610は、互いに重畳される2枚の半導体基板(積層基板(画素基板611および回路基板612))を有する。例えば、画素基板611の画素領域には、撮像装置100のイメージセンサ101の画素領域136(図3)が形成され、回路基板612の信号処理回路領域には、イメージセンサ101のその他の構成(図3)や画像安定化部102およびIMU103が形成されるようにしてもよい。このような構成とすることにより、画素領域を大きくすることができる。
なお、この半導体基板(積層基板)の数(層数)は任意であり、例えば3層以上であってもよい。例えば、図25Bに示されるメモリ搭載積層イメージセンサ620は、互いに重畳される3枚の半導体基板(積層基板(画素基板621、メモリ基板622、および回路基板623))を有する。例えば、画素基板621の画素領域には、撮像装置100のイメージセンサ101の画素領域136(図3)が形成され、メモリ基板622のメモリ領域には、読み出し画像(撮像画像)等を記憶するメモリが形成され、回路基板623の信号処理回路領域には、イメージセンサ101のその他の構成(図3)や画像安定化部102およびIMU103が形成されるようにしてもよい。このような構成とすることにより、画素領域を大きくすることができる。
<8.付記>
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
図26に示されるコンピュータ700において、CPU(Central Processing Unit)701、ROM(Read Only Memory)702、RAM(Random Access Memory)703は、バス704を介して相互に接続されている。
バス704にはまた、入出力インタフェース710も接続されている。入出力インタフェース710には、入力部711、出力部712、記憶部713、通信部714、およびドライブ715が接続されている。
入力部711は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部712は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部713は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部714は、例えば、ネットワークインタフェースよりなる。ドライブ715は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア721を駆動する。
以上のように構成されるコンピュータでは、CPU701が、例えば、記憶部713に記憶されているプログラムを、入出力インタフェース710およびバス704を介して、RAM703にロードして実行することにより、上述した一連の処理が行われる。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU701)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア721に記録して適用することができる。その場合、プログラムは、リムーバブルメディア721をドライブ715に装着することにより、入出力インタフェース710を介して、記憶部713にインストールすることができる。
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部714で受信し、記憶部713にインストールすることができる。
その他、このプログラムは、ROM702や記憶部713に、あらかじめインストールしておくこともできる。
<本技術の適用対象>
なお、本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。
例えば、本開示に係る技術(本技術)は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置(またはシステム)として実現されてもよい。
例えば、車両制御装置(または車両制御システム)が、移動体に搭載された撮像装置100(またはその他の実施の形態において説明した本技術を適用した装置等)により得られた切り出し画像(画像安定化が施された撮像画像)に基づいて(またはその切り出し画像から得られる情報に基づいて)、駆動力発生装置、ステアリング機構または制動装置の制御目標値を演算し、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行(例えば、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等)、車速維持走行、車両の衝突警告(例えば音声や画像による障害物との衝突警告等)、または車両のレーン逸脱警告や近傍の歩行者の注意喚起表示等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができるようにしてもよい。
また、例えば、車両制御装置(または車両制御システム)が、移動体に搭載された撮像装置100(またはその他の実施の形態において説明した本技術を適用した装置等)により得られた切り出し画像(画像安定化が施された撮像画像)に基づいて(またはその切り出し画像から得られる情報に基づいて)、駆動力発生装置、ステアリング機構または制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができるようにしてもよい。
さらに、例えば、車両制御装置(または車両制御システム)が、移動体に搭載された撮像装置100(またはその他の実施の形態において説明した本技術を適用した装置等)により得られた切り出し画像(画像安定化が施された撮像画像)に基づいて(またはその切り出し画像から得られる情報に基づいて)、先行車または対向車の位置を検出し、その位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができるようにしてもよい。
<その他>
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、装置またはシステムを構成するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等(すなわち、装置の一部の構成)として実施することもできる。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、撮像画像(動画像)に関するサービスを提供するクラウドサービスに適用することもできる。
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
なお、本技術は以下のような構成も取ることができる。
(1) 処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する読み出し領域設定部と、
前記読み出し領域設定部により設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する切り出し領域設定部と
を備える画像処理装置。
(2) 前記読み出し領域設定部は、前記読み出し領域の位置および形状を設定する
(1)に記載の画像処理装置。
(3) 前記読み出し領域設定部は、現在までの動き情報に基づいて前記所定のフレームまでの動き情報を、前記動き予測情報として推定し、推定した前記動き情報に基づいて前記読み出し領域を設定する
(1)または(2)に記載の画像処理装置。
(4) 前記読み出し領域設定部は、現在までの前記動き情報に基づいて、所定の規則性に従って、前記所定のフレームまでの動き情報を推定する
(3)に記載の画像処理装置。
(5) 前記読み出し領域設定部は、前記動き予測情報に基づいて、前記所定のフレームにおける前記切り出し領域を推定し、推定した前記切り出し領域を含むように前記読み出し領域を設定する
(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記読み出し領域設定部は、推定した前記切り出し領域の回転量に応じて前記読み出し領域の大きさを設定する
(5)に記載の画像処理装置。
(7) 前記切り出し領域設定部は、前記切り出し領域の位置および形状を設定する
(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記切り出し領域設定部は、前記処理対象フレームの前記読み出し領域内に、前記切り出し領域を設定する
(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記切り出し領域設定部は、前記処理対象フレームの前記読み出し領域内の、現在までの動き情報に対応する切り出し領域の位置に対して動き方向に最近傍の位置に、前記切り出し領域を設定する
(8)に記載の画像処理装置。
(10) 前記切り出し領域設定部は、現在までの動き情報と、前記読み出し領域設定部により設定された前記処理対象フレームの前記読み出し領域に関する情報とに基づいて、前記処理対象フレームの前記切り出し領域を設定する
(1)乃至(9)のいずれかに記載の画像処理装置。
(11) 前記読み出し領域に関する情報は、前記読み出し領域の位置および形状に関する情報を含む
(10)に記載の画像処理装置。
(12) 前記読み出し領域設定部は、処理対象フレームの次のフレームについて前記読み出し領域を設定し、
前記切り出し領域設定部は、前記処理対象フレームの前記切り出し領域を設定する
(1)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記読み出し画像から、前記切り出し領域設定部により設定された前記切り出し領域の部分画像を切り出す切り出し部をさらに備える
(1)乃至(12)のいずれかに記載の画像処理装置。
(14) 前記切り出し領域設定部による前記切り出し領域の設定結果に基づいて、前記読み出し領域設定部による前記読み出し領域の設定に関する学習を行う学習部をさらに備え、
前記読み出し領域設定部は、前記学習部による学習結果を反映して、前記読み出し領域の設定を行う
(1)乃至(13)のいずれかに記載の画像処理装置。
(15) 撮像部に被写体を撮像させ、前記撮像部の前記撮像領域の前記読み出し領域において得られる撮像画像である前記読み出し画像を取得する撮像制御部をさらに備える
(1)乃至(14)のいずれかに記載の画像処理装置。
(16) 前記撮像制御部は、前記読み出し領域設定部により設定された前記読み出し領域に関する情報を前記撮像部に供給し、
前記撮像部は、被写体を撮像し、供給された前記読み出し領域に関する情報に示される前記読み出し領域の撮像画像を生成する
(15)に記載の画像処理装置。
(17) 前記撮像制御部は、垂直ブランキング期間において、処理対象フレームの次のフレームの前記読み出し領域に関する情報を前記撮像部に供給する
(16)に記載の画像処理装置。
(18) 前記読み出し領域に関する情報は、前記読み出し領域の位置および形状に関する情報を含む
(16)または(17)に記載の画像処理装置。
(19) 前記撮像制御部は、前記読み出し画像とともに、前記読み出し領域に関する情報を取得する
(15)乃至(18)のいずれかに記載の画像処理装置。
(20) 前記読み出し領域に関する情報は、前記読み出し領域の位置および形状に関する情報を含む
(19)に記載の画像処理装置。
(21) 被写体を撮像する撮像部をさらに備え、
前記撮像制御部は、前記撮像部に被写体を撮像させ、前記読み出し画像を取得する
(15)乃至(20)のいずれかに記載の画像処理装置。
(22) 計測部により計測された撮像部の動きや姿勢に関する計測データを取得する取得部をさらに備え、
前記読み出し領域設定部は、前記取得部により取得された前記撮像部の動きや姿勢に関する前記計測データに基づいて前記動き予測情報を推定し、推定した前記動き予測情報に基づいて前記読み出し領域を設定する
(1)乃至(21)のいずれかに記載の画像処理装置。
(23) 前記切り出し領域設定部は、前記取得部により取得された前記撮像部の動きや姿勢に関する前記計測データに対応する現在までの動き情報に基づいて、前記処理対象フレームの前記切り出し領域を設定する
(22)に記載の画像処理装置。
(24) 前記計測部をさらに備える
(22)または(23)に記載の画像処理装置。
(25) 撮像画像のフレーム間の動きベクトルを検出する動きベクトル検出部をさらに備え、
前記読み出し領域設定部は、前記動きベクトル検出部により検出された前記動きベクトルに基づいて前記読み出し領域を設定する
(1)乃至(24)のいずれかに記載の画像処理装置。
(26) 前記切り出し領域設定部は、前記動きベクトル検出部により検出された前記動きベクトルに基づいて、前記処理対象フレームの前記切り出し領域を設定する
(25)に記載の画像処理装置。
(27) 処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定し、
設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する
画像処理方法。
(28) 被写体を撮像する撮像装置と、
画像処理を行う画像処理装置と
を備え、
処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する読み出し領域設定部と、
前記読み出し領域設定部により設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する切り出し領域設定部と
を有する画像処理システム。
100 撮像装置, 101 イメージセンサ, 102 画像安定化部, 103 IMU, 131 通信部, 132 システム制御部, 133 行走査部, 134 列走査部, 135 ADC, 136 画素領域, 151 通信部, 152 画像処理部, 161 撮像制御部, 162 動き情報取得部, 163 切り出し領域設定部, 164 切り出し部, 165 出力部, 166 学習部, 167 読み出し領域設定部, 311 動きベクトル算出部, 312 切り出し領域設定部, 313 読み出し領域設定部, 351 出力部, 352 記録部, 353 通信部, 354 ドライブ, 361 リムーバブルメディア, 401 サーバ, 411 通信部, 421 通信部, 422 切り出し領域設定部, 423 切り出し部, 424 出力部, 501 画像処理装置, 511 読み出し領域設定部, 512 切り出し領域設定部, 610 積層イメージセンサ, 620 メモリ搭載積層イメージセンサ, 700 コンピュータ

Claims (20)

  1. 処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する読み出し領域設定部と、
    前記読み出し領域設定部により設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する切り出し領域設定部と
    を備える画像処理装置。
  2. 前記読み出し領域設定部は、前記読み出し領域の位置および形状を設定する
    請求項1に記載の画像処理装置。
  3. 前記読み出し領域設定部は、現在までの動き情報に基づいて前記所定のフレームまでの動き情報を、前記動き予測情報として推定し、推定した前記動き情報に基づいて前記読み出し領域を設定する
    請求項1に記載の画像処理装置。
  4. 前記読み出し領域設定部は、現在までの前記動き情報に基づいて、所定の規則性に従って、前記所定のフレームまでの動き情報を推定する
    請求項3に記載の画像処理装置。
  5. 前記読み出し領域設定部は、前記動き予測情報に基づいて、前記所定のフレームにおける前記切り出し領域を推定し、推定した前記切り出し領域を含むように前記読み出し領域を設定する
    請求項1に記載の画像処理装置。
  6. 前記読み出し領域設定部は、推定した前記切り出し領域の回転量に応じて前記読み出し領域の大きさを設定する
    請求項5に記載の画像処理装置。
  7. 前記切り出し領域設定部は、前記切り出し領域の位置および形状を設定する
    請求項1に記載の画像処理装置。
  8. 前記切り出し領域設定部は、前記処理対象フレームの前記読み出し領域内に、前記切り出し領域を設定する
    請求項1に記載の画像処理装置。
  9. 前記切り出し領域設定部は、前記処理対象フレームの前記読み出し領域内の、現在までの動き情報に対応する切り出し領域の位置に対して動き方向に最近傍の位置に、前記切り出し領域を設定する
    請求項8に記載の画像処理装置。
  10. 前記切り出し領域設定部は、現在までの動き情報と、前記読み出し領域設定部により設定された前記処理対象フレームの前記読み出し領域に関する情報とに基づいて、前記処理対象フレームの前記切り出し領域を設定する
    請求項1に記載の画像処理装置。
  11. 前記読み出し画像から、前記切り出し領域設定部により設定された前記切り出し領域の部分画像を切り出す切り出し部をさらに備える
    請求項1に記載の画像処理装置。
  12. 撮像部に被写体を撮像させ、前記撮像部の前記撮像領域の前記読み出し領域において得られる撮像画像である前記読み出し画像を取得する撮像制御部をさらに備える
    請求項1に記載の画像処理装置。
  13. 前記撮像制御部は、前記読み出し領域設定部により設定された前記読み出し領域に関する情報を前記撮像部に供給し、
    前記撮像部は、被写体を撮像し、供給された前記読み出し領域に関する情報に示される前記読み出し領域の撮像画像を生成する
    請求項12に記載の画像処理装置。
  14. 前記撮像制御部は、垂直ブランキング期間において、処理対象フレームの次のフレームの前記読み出し領域に関する情報を前記撮像部に供給する
    請求項13に記載の画像処理装置。
  15. 前記撮像制御部は、前記読み出し画像とともに、前記読み出し領域に関する情報を取得する
    請求項12に記載の画像処理装置。
  16. 被写体を撮像する撮像部をさらに備え、
    前記撮像制御部は、前記撮像部に被写体を撮像させ、前記読み出し画像を取得する
    請求項12に記載の画像処理装置。
  17. 計測部により計測された撮像部の動きや姿勢に関する計測データを取得する取得部をさらに備え、
    前記読み出し領域設定部は、前記取得部により取得された前記撮像部の動きや姿勢に関する前記計測データに基づいて前記動き予測情報を推定し、推定した前記動き予測情報に基づいて前記読み出し領域を設定する
    請求項1に記載の画像処理装置。
  18. 撮像画像のフレーム間の動きベクトルを検出する動きベクトル検出部をさらに備え、
    前記読み出し領域設定部は、前記動きベクトル検出部により検出された前記動きベクトルに基づいて前記読み出し領域を設定する
    請求項1に記載の画像処理装置。
  19. 処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定し、
    設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する
    画像処理方法。
  20. 被写体を撮像する撮像装置と、
    画像処理を行う画像処理装置と
    を備え、
    処理対象フレームの次以降の所定のフレームについて、動き予測情報に基づいて、複数の画素により形成される撮像領域内の、画像を読み出す領域である読み出し領域を設定する読み出し領域設定部と、
    前記読み出し領域設定部により設定された前記処理対象フレームの前記読み出し領域から読み出された読み出し画像から部分画像を切り出す切り出し領域を設定する切り出し領域設定部と
    を有する画像処理システム。
JP2018001010A 2018-01-09 2018-01-09 画像処理装置および方法、並びに画像処理システム Pending JP2019121941A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018001010A JP2019121941A (ja) 2018-01-09 2018-01-09 画像処理装置および方法、並びに画像処理システム
KR1020207016059A KR102658707B1 (ko) 2018-01-09 2018-12-26 화상 처리 장치 및 방법, 및 화상 처리 시스템
PCT/JP2018/047704 WO2019138868A1 (ja) 2018-01-09 2018-12-26 画像処理装置および方法、並びに画像処理システム
US16/955,634 US11388340B2 (en) 2018-01-09 2018-12-26 Image processing device, image processing method, and image processing system for image stabilization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001010A JP2019121941A (ja) 2018-01-09 2018-01-09 画像処理装置および方法、並びに画像処理システム

Publications (1)

Publication Number Publication Date
JP2019121941A true JP2019121941A (ja) 2019-07-22

Family

ID=67219720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001010A Pending JP2019121941A (ja) 2018-01-09 2018-01-09 画像処理装置および方法、並びに画像処理システム

Country Status (4)

Country Link
US (1) US11388340B2 (ja)
JP (1) JP2019121941A (ja)
KR (1) KR102658707B1 (ja)
WO (1) WO2019138868A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117136A1 (ja) * 2019-12-10 2021-06-17 オリンパス株式会社 撮像システム及び内視鏡システム
WO2021186961A1 (ja) * 2020-03-16 2021-09-23 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法
WO2022004374A1 (ja) * 2020-06-30 2022-01-06 ソニーグループ株式会社 固体撮像素子、撮像装置、および撮像装置の作動方法、移動体装置、および移動体装置の作動方法、プログラム
WO2023007789A1 (ja) * 2021-07-28 2023-02-02 ソニーグループ株式会社 慣性計測装置、および慣性計測装置の作動方法、撮像装置、表示装置、並びにプログラム
WO2024029307A1 (ja) * 2022-08-03 2024-02-08 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11902660B2 (en) * 2019-02-21 2024-02-13 Sony Group Corporation Image processing device, image processing method, and program
WO2021230120A1 (ja) * 2020-05-15 2021-11-18 ソニーグループ株式会社 情報処理装置、情報処理方法、および情報処理プログラム
WO2023163781A1 (en) * 2022-02-23 2023-08-31 Gopro, Inc. Dynamic image dimension adjustment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7705884B2 (en) * 2004-07-21 2010-04-27 Zoran Corporation Processing of video data to compensate for unintended camera motion between acquired image frames
JP2007228019A (ja) * 2006-02-21 2007-09-06 Olympus Corp 撮像装置
JP2014156731A (ja) 2013-02-15 2014-08-28 Masanori Egashira 架台基礎部用型枠及び架台構築方法
JP6327245B2 (ja) 2013-03-29 2018-05-23 ソニー株式会社 撮像装置、固体撮像素子、カメラモジュール、電子機器、および撮像方法
JP6316030B2 (ja) 2014-03-12 2018-04-25 キヤノン株式会社 撮像装置及びその制御方法
KR20160061729A (ko) * 2014-11-24 2016-06-01 삼성전자주식회사 촬영 장치 및 그의 제어 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117136A1 (ja) * 2019-12-10 2021-06-17 オリンパス株式会社 撮像システム及び内視鏡システム
WO2021186961A1 (ja) * 2020-03-16 2021-09-23 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法
US11985424B2 (en) 2020-03-16 2024-05-14 Sony Semiconductor Solutions Corporation Signal processing device and signal processing method for correcting input signal from sensor
WO2022004374A1 (ja) * 2020-06-30 2022-01-06 ソニーグループ株式会社 固体撮像素子、撮像装置、および撮像装置の作動方法、移動体装置、および移動体装置の作動方法、プログラム
EP4174570A4 (en) * 2020-06-30 2024-01-03 Sony Group Corporation SEMICONDUCTOR IMAGING ELEMENT, IMAGING DEVICE, METHOD FOR OPERATING IMAGING DEVICE, MOVING OBJECT DEVICE, METHOD FOR OPERATING MOVING OBJECT DEVICE, AND PROGRAM
WO2023007789A1 (ja) * 2021-07-28 2023-02-02 ソニーグループ株式会社 慣性計測装置、および慣性計測装置の作動方法、撮像装置、表示装置、並びにプログラム
WO2024029307A1 (ja) * 2022-08-03 2024-02-08 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
KR20200106153A (ko) 2020-09-11
WO2019138868A1 (ja) 2019-07-18
US20210014399A1 (en) 2021-01-14
KR102658707B1 (ko) 2024-04-19
US11388340B2 (en) 2022-07-12

Similar Documents

Publication Publication Date Title
WO2019138868A1 (ja) 画像処理装置および方法、並びに画像処理システム
CN108449945B (zh) 信息处理设备、信息处理方法和程序
EP3700198B1 (en) Imaging device, image processing apparatus, and image processing method
US10242272B2 (en) Method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle
US11222409B2 (en) Image/video deblurring using convolutional neural networks with applications to SFM/SLAM with blurred images/videos
JP6610961B2 (ja) 制御装置、制御方法、プログラム、および制御システム
CN104126299A (zh) 视频图像稳定化
KR101896715B1 (ko) 주변차량 위치 추적 장치 및 방법
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7243714B2 (ja) 露光制御装置、露光制御方法、プログラム、撮影装置、及び、移動体
US10535193B2 (en) Image processing apparatus, image synthesizing apparatus, image processing system, image processing method, and storage medium
EP3648064A1 (en) Generation device and generation method, and playback device and playback method
WO2019049548A1 (ja) 画像処理装置
CN111862226B (zh) 用于车辆中的摄像机校准和图像预处理的硬件设计
CN114821544A (zh) 感知信息生成方法、装置、车辆、电子设备及存储介质
JP6316030B2 (ja) 撮像装置及びその制御方法
US20220222834A1 (en) Image processing system, image processing device, image processing method, and program
WO2020215214A1 (zh) 图像处理方法和装置
WO2019188392A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP7483627B2 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
WO2023210288A1 (ja) 情報処理装置、情報処理方法および情報処理システム
CN118056398A (zh) 俯瞰数据生成装置、俯瞰数据生成程序、俯瞰数据生成方法及机器人