JP7185434B2 - 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法 - Google Patents

複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法 Download PDF

Info

Publication number
JP7185434B2
JP7185434B2 JP2018141098A JP2018141098A JP7185434B2 JP 7185434 B2 JP7185434 B2 JP 7185434B2 JP 2018141098 A JP2018141098 A JP 2018141098A JP 2018141098 A JP2018141098 A JP 2018141098A JP 7185434 B2 JP7185434 B2 JP 7185434B2
Authority
JP
Japan
Prior art keywords
image
camera
external object
processor
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018141098A
Other languages
English (en)
Other versions
JP2019030007A (ja
Inventor
知 學 金
東 禹 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019030007A publication Critical patent/JP2019030007A/ja
Application granted granted Critical
Publication of JP7185434B2 publication Critical patent/JP7185434B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は、映像を撮影する電子装置に関し、特に、複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法に関する。
一般的に、電子装置は外部オブジェクトを撮影してイメージ又は動画を生成及び記憶するようにカメラ機能を提供している。
近年、電子装置は、近距離の外部オブジェクトだけではなく遠距離の外部オブジェクトに対してもデジタルズームを介して高画質の写真又は映像を取得することができる複数のカメラ(例えば、デュアルカメラ)を備えることができる。
複数のカメラそれぞれは画角が相違する可能性がある。
近年、電子装置は映像を拡大して撮影しようとする場合、画角が相違する複数のカメラから取得されたイメージを合成してズームを具現する技術が開発されてきている。
しかし、前述の画角が相違する複数のカメラから取得されたイメージを合成してズームを具現する方法を用いる場合、中間画角ズームでのイメージ画質が低下するという問題がある。
特開2004-297516号公報
本発明は上記従来の映像を撮影する電子装置における問題点に鑑みてなされたものであって、本発明の目的は、複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法を提供することにある。
本発明の多様な実施形態によれば、電子装置は画角が相違する複数のカメラのうちの第1カメラから取得された外部オブジェクトに対するイメージと、第2カメラから取得された第2カメラレンズ部の移動により設定された角度に対応する外部オブジェクトに対する複数のイメージを合成し、前記外部オブジェクトに対するイメージを生成することができる。
上記目的を達成するためになされた本発明による電子装置は、電子装置であって、第1カメラと、レンズ部と、前記レンズ部の角度を調節して前記レンズ部の光軸の方向を変更することができる駆動部と、を含む第2カメラと、プロセッサと、を有し、前記プロセッサは、外部オブジェクト(object)に対する撮影信号を受信し、前記受信した撮影信号に基づいて前記外部オブジェクトに対するイメージを撮影し、前記撮影する動作の一部として、前記第1カメラを用いて前記外部オブジェクトに対する第1イメージを取得し、前記第2カメラの前記レンズ部を第1方向に設定して前記第1方向に対応する前記外部オブジェクトの少なくとも一部に対する第2イメージを取得し、前記第2カメラの前記レンズ部を第2方向に設定して前記第2方向に対応する前記外部オブジェクトの少なくとも他の一部に対する第3イメージを取得し、前記第1イメージの少なくとも一部と前記第2イメージの少なくとも一部を合成し、前記第1イメージの少なくとも他の一部と前記第3イメージの少なくとも一部を合成して前記外部オブジェクトに対するイメージを生成し、前記第2カメラの前記レンズ部は、前記第2カメラのイメージセンサーのリードアウト時間の間、前記第1方向から前記第2方向に移動するように設定されることを特徴とする。
上記目的を達成するためになされた本発明による電子装置の映像処理方法は、複数のカメラを用いて映像を取得するための電子装置の映像処理方法であって、外部オブジェクトに対する撮影信号が受信されたことに応答し、第1カメラを用い、前記外部オブジェクトに対する第1イメージを取得する段階と、第2カメラを用い、前記第2カメラに含まれた駆動部を介して前記第2カメラのレンズ部を第1方向に設定して前記第1方向に対応する前記外部オブジェクトの少なくとも一部に対する第2イメージを取得し、前記第2カメラの前記レンズ部を第2方向に設定して前記第2方向に対応する前記外部オブジェクトの少なくとも他の一部に対する第3イメージを取得する段階と、前記第1イメージの少なくとも一部と前記第2イメージの少なくとも一部を合成し、前記第1イメージの少なくとも他の一部と前記第3イメージの少なくとも一部を合成して前記外部オブジェクトに対するイメージを生成する段階と、を有し、前記第2カメラの前記レンズ部は、前記第2カメラのイメージセンサーのリードアウト時間の間、前記第1方向から前記第2方向に移動するように設定されることを特徴とする。

本発明に係る複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法によれば、電子装置はイメージを拡大して撮影しようとする場合、画角が相違する複数のカメラのうちの第1カメラから取得された外部オブジェクトに対するイメージと第2カメラから取得された第2カメラレンズ部の移動によって設定された角度に対応する外部オブジェクトに対する複数のイメージを合成する動作を介して、中間画角ズームでも向上した画質のイメージを提供することができる、という効果がある。
本発明の一実施形態によるネットワーク環境内の複数のカメラを用いて映像を取得するための電子装置の構成を示すブロック図である。 多様な実施形態による複数のカメラを用いて映像を取得するためのカメラモジュールの概略構成を示すブロック図である。 本発明の一実施形態による複数のカメラを用いて映像を取得するための電子装置の概略構成を示すブロック図である。 本発明の一実施形態による複数のカメラを用いて映像を取得するためのカメラモジュールの概略構成を示すブロック図である。 本発明の一実施形態による映像処理方法を説明するためのフローチャートである。 本発明の一実施形態による映像処理方法を説明するためのフローチャートである。 本発明の一実施形態による外部オブジェクトの位置による第2カメラレンズ部の方向を調整する方法を説明するための図である。 本発明の多様な実施形態による外部オブジェクトに対するイメージを取得する速度を設定する方法を説明するための図である。 本発明の一実施形態による第2カメラを介して取得された複数のイメージを整合及びステッチングする方法を説明するための図である。 本発明の一実施形態による映像処理方法を説明するための図である。 本発明の一実施形態による映像処理方法を説明するためのフローチャートである。 本発明の一実施形態による映像処理方法を説明するための図である。
図1は、本発明の一実施形態によるネットワーク環境100内の複数のカメラを用いて映像を取得するための電子装置101の構成を示すブロック図である。
図1を参照すると、ネットワーク環境100において電子装置101は、第1ネットワーク198(例えば、近距離無線通信)を介して電子装置102と通信するか、又は第2ネットワーク199(例えば、遠距離無線通信)を介して電子装置104又はサーバー108と通信することができる。
一実施形態によれば、電子装置101は、サーバー108を介して電子装置104と通信することができる。
一実施形態によれば、電子装置101は、プロセッサ120、メモリー130、入力装置150、音響出力装置155、表示装置160、オーディオモジュール170、センサーモジュール176、インターフェース177、ハプティックモジュール179、カメラモジュール180、電力管理モジュール188、バッテリー189、通信モジュール190、加入者識別モジュール196、及びアンテナモジュール197を含む。
他の実施形態では、電子装置101において、これら構成要素のうちの少なくとも一つ(例えば、表示装置160又はカメラモジュール180)を省略したり、他の構成要素を追加することもできる。
また、他の実施形態では、例えば、表示装置160(例えば、ディスプレイ)にエンベッディングされたセンサーモジュール176(例えば、指紋センサー、虹彩センサー、又は照度センサー)の場合のように一部の構成要素が統合されて具現することもできる。
プロセッサ120は、例えば、ソフトウェア(例えば、プログラム140)を駆動してプロセッサ120に接続された電子装置101の少なくとも一つの他の構成要素(例えば、ハードウェア又はソフトウェア構成要素)を制御することができ、多様なデータ処理及び演算を行う。
プロセッサ120は、他の構成要素(例えば、センサーモジュール176又は通信モジュール190)から受信した命令又はデータを揮発性メモリー132にロードして処理し、結果データを非揮発性メモリー134に記憶する。
一実施形態によれば、プロセッサ120は、メインプロセッサ121(例えば、中央処理装置又はアプリケーションプロセッサ)、及びこれとは独立的に操作され、追加的又は概略的に、メインプロセッサ121より低電力を使用したり、又は指定された機能に特化された補助プロセッサ123(例えば、グラフィック処理装置、イメージシグナルプロセッサ、センサーハーブプロセッサ、又はコミュニケーションプロセッサ)を含む。
ここで、補助プロセッサ123は、メインプロセッサ121とは別個で、又はエンベッディングされて操作することができる。
このような場合、補助プロセッサ123は、例えば、メインプロセッサ121がインアクティブ(例えば、スリップ)状態にあるうちにメインプロセッサ121の代わり、又はメインプロセッサ121がアクティブ(例えば、アプリケーション実行)状態にあるうちにメインプロセッサ121と共に、電子装置101の構成要素のうちの少なくとも一つの構成要素(例えば、表示装置160、センサーモジュール176、又は通信モジュール190)に係る機能又は状態の少なくとも一部を制御することができる。
一実施形態によれば、補助プロセッサ123(例えば、イメージシグナルプロセッサ又はコミュニケーションプロセッサ)は、機能的に関連する他の構成要素(例えば、カメラモジュール180又は通信モジュール190)の一部構成要素として具現させることができる。
メモリー130は、電子装置101の少なくとも一つの構成要素(例えば、プロセッサ120又はセンサーモジュール176)によって用いられる多様なデータ、例えば、ソフトウェア(例えば、プログラム140)及び、これに関連する命令に対する入力データ又は出力データを記憶する。
メモリー130は、揮発性メモリー132又は非揮発性メモリー134を含むことができる。
プログラム140は、メモリー130に記憶されるソフトウェアであり、例えば、オペレーティングシステム142、ミドルウェア144、又はアプリケーション146を含む。
入力装置150は、電子装置101の構成要素(例えば、プロセッサ120)に用いられる命令又はデータを電子装置101の外部(例えば、ユーザ)から受信するための装置として、例えば、マイク、マウス、又はキーボードを含む。
音響出力装置155は、音響信号を電子装置101の外部で出力するための装置として、例えば、マルチメディア再生又は録音再生のように一般的な用途で用いられるスピーカーと電話受信専用で用いられるレシーバーを含む。
一実施形態によれば、レシーバーは、スピーカーと一体又は別途で形成することができる。
表示装置160は、電子装置101のユーザに情報を視覚的に提供するための装置として、例えば、ディスプレイ、ホログラム装置、又はプロジェクタ、及び当該装置を制御するための制御回路を含む。
一実施形態によれば、表示装置160は、タッチ回路(touch circuitry)又はタッチに対する圧力の強度を測定することができる圧力センサーを含むことができる。
オーディオモジュール170は、音と電気信号を双方向で変換させる。
一実施形態によれば、オーディオモジュール170は、入力装置150を介して音を取得したり、音響出力装置155、又は電子装置101と有線又は無線で接続された外部電子装置(例えば、電子装置102(例えば、スピーカー又はヘッドフォン))を介して音を出力する。
センサーモジュール176は、電子装置101の内部の動作状態(例えば、電力又は温度)、又は外部の環境状態に対応する電気信号又はデータ値を生成する。
センサーモジュール176は、例えば、ジェスチャーセンサー、ジャイロセンサー、気圧センサー、マグネチックセンサー、加速度センサー、グリップセンサー、近接センサー、カラーセンサー、IR(infrared)センサー、生体センサー、温度センサー、湿度センサー、又は照度センサーを含むことができる。
インターフェース177は、外部電子装置(例えば、電子装置102)と有線又は無線で接続することができる指定されたプロトコルをサポートする。
一実施形態によれば、インターフェース177は、HDMI(登録商標)(high definition multimedia interface)、USB(universal serial bus)インターフェース、SDカードインターフェース、又はオーディオインターフェースなどを含むことができる。
接続端子178は、電子装置101と外部電子装置(例えば、電子装置102)を物理的に接続させることができるコネクター、例えば、HDMI(登録商標)コネクター、USBコネクター、SDカードコネクター、又はオーディオコネクター(例えば、ヘッドフォンコネクター)などを含む。
ハプティックモジュール179は、電気的信号をユーザが触覚又は運動感覚を介して認知することができる機械的な刺激(例えば、振動又は動き)又は電気的な刺激に変換する。
ハプティックモジュール179は、例えば、モーター、圧電素子、又は電気刺激装置を含むことができる。
カメラモジュール180は、静止画像及び動画を撮影する。
一実施形態によれば、カメラモジュール180は、一つ以上のレンズ、イメージセンサー、イメージシグナルプロセッサ、又はフラッシュを含むことができる。
電力管理モジュール188は、電子装置101に供給される電力を管理するためのモジュールであり、例えば、PMIC(power management integrated circuit)の少なくとも一部として構成される。
バッテリー189は、電子装置101の少なくとも一つの構成要素に電力を供給するための装置として、例えば、再充電不可能な1次電池、再充電可能な2次電池、又は燃料電池を含むことができる。
通信モジュール190は、電子装置101と外部電子装置(例えば、電子装置102、電子装置104)、又はサーバー108)の間の有線又は無線通信チャンネルの確立、及び確立された通信チャンネルを通じる通信実行をサポートする。
通信モジュール190は、プロセッサ120(例えば、アプリケーションプロセッサ)と独立的に操作される、有線通信又は無線通信をサポートする一つ以上のコミュニケーションプロセッサを含むことができる。
一実施形態によれば、通信モジュール190は、無線通信モジュール192(例えば、セルラー通信モジュール、近距離無線通信モジュール、又はGNSS(global navigation satellite system)通信モジュール)又は有線通信モジュール194(例えば、LAN(local area network)通信モジュール、又は電力線通信モジュール)を含み、その中に該当する通信モジュールを用いて第1ネットワーク198(例えば、ブルートゥース(登録商標)、WiFidirect、又はIrDA(infrared data association)のような近距離通信ネットワーク)又は第2ネットワーク199(例えば、セルラネットワーク、インターネット、又はコンピューターネットワーク(例えば、LAN又はWAN)のような遠距離通信ネットワーク)を介して外部電子装置と通信する。
上述した多くの種類の通信モジュール190は、一つのチップで具現したり、又はそれぞれ別途のチップで具現することができる。
一実施形態によれば、無線通信モジュール192は、加入者識別モジュール196に記憶されたユーザ情報を用いて通信ネットワーク内で電子装置101を区別及び認証することができる。
アンテナモジュール197は、信号又は電力を外部に送信したり外部から受信するための一つ以上のアンテナを含む。
一実施形態によれば、通信モジュール190(例えば、無線通信モジュール192)は、通信方式に適合したアンテナを介して信号を外部電子装置に送信したり、外部電子装置から受信することができる。
上記構成要素の内の一部構成要素は、周辺機器との間の通信方式(例えば、バス、GPIO(general purpose input/output)、SPI(serial peripheral interface)、又はMIPI(mobile industry processor interface))を介して互いに接続されて信号(例えば、命令又はデータ)を相互間に交換することができる。
一実施形態によれば、命令又はデータは、第2ネットワーク199に接続されたサーバー108)を介して電子装置101と外部の電子装置104との間で送信又は受信する。
電子装置(102、104)それぞれは、電子装置101と同一又は他の種類の装置であっても良い。
一実施形態によれば、電子装置101で実行される動作の全部又は一部は、他の一つ又は複数の外部電子装置で実行することができる。
一実施形態によれば、電子装置101が、ある機能やサービスを自動で又はリクエストにより実行しなければならない場合に、電子装置101は、機能又はサービスを自身で実行させる代りに、又は追加的にそれと関連した少なくとも一部機能を外部電子装置にリクエストすることができる。
リクエストを受信した外部電子装置は、リクエストされた機能又は追加機能を行い、その結果を電子装置101へ伝達することができる。
電子装置101は、受信された結果をそのまま、又は追加的に処理してリクエストされた機能やサービスを提供する。
このために、例えば、クラウドコンピューティング、分散コンピューティング、又はクライアント-サーバーコンピューティング技術を用いることもできる。
図2は、本発明の一実施形態による複数のカメラを用いて映像を取得するためのカメラモジュール180の概略構成を示すブロック図(符号200)である。
図2を参照すると、カメラモジュール180は、レンズアセンブリ210、フラッシュ220、イメージセンサー230、イメージスタビライザー240、メモリー250(例えば、バッファーメモリー)、イメージシグナルプロセッサ260を含むことができる。
レンズアセンブリ210は、イメージ撮影の対象である被写体(オブジェクト:object)から放出される光を収集する。
レンズアセンブリ210は、一つ又はその以上のレンズを含むことができる。
一実施形態によれば、カメラモジュール180は、複数のレンズアセンブリ210を含む。
このような場合、カメラモジュール180は、例えば、デュアルカメラ、360度カメラ、又は球形カメラ(spherical camera)であれば良い。
複数のレンズアセンブリ210は、同一のレンズ属性(例えば、画角、焦点距離、自動焦点、fナンバー(f number)、又は光学ズームを持つか、又は少なくとも一つのレンズアセンブリは他のレンズアセンブリと少なくとも一つの異なるレンズ属性を持つことができる。
レンズアセンブリ210は、例えば、広角レンズ又は望遠レンズを含むことができる。
フラッシュ220は、被写体から放出される光を強化するために用いられる光源を放出する。
フラッシュ220は、一つ以上の発光ダイオード(例えば、RGB(red-green-blue)LED、white LED、infrared LED、又はultra violet LED)、又はxenon lampを含むことができる。
イメージセンサー230は、被写体からレンズアセンブリ210を介して伝達した光を電気的な信号に変換することによって、被写体に対応するイメージを取得する。
一実施形態によれば、イメージセンサー230は、例えば、RGBセンサー、BW(black and white)センサー、IRセンサー、又はUVセンサーのように属性が異なるイメージセンサーのうちから選択された一つのイメージセンサー、同一属性を持つ複数のイメージセンサー、又は他の属性を持つ複数のイメージセンサーを含むことができる。
イメージセンサー230に含まれたそれぞれのイメージセンサーは、例えば、CCD(charged coupled device)センサー又はCMOS(complementary metal oxide semiconductor)センサーで具現することができる。
イメージスタビライザー240は、カメラモジュール180又はこれを含む電子装置101の動きに反応し、撮影されるイメージに対する動きによる否定的な影響(例えば、イメージ振れ)を少なくとも一部補うためにレンズアセンブリ210に含まれた少なくとも一つのレンズ又はイメージセンサー230を特定の方向に動かすか、制御(例えば、リードアウト(read-out)タイミングを調整など)する。
一実施形態によれば、イメージスタビライザー240は、例えば、光学式イメージスタビライザーで具現することができ、カメラモジュール180の内部又は外部に配置されたジャイロセンサー(図示せず)又は加速度センサー(図示せず)を用いて動きを検出することができる。
メモリー250は、イメージセンサー230を介して取得されたイメージの少なくとも一部を次のイメージ処理作業のために少なくとも一時記憶する。
例えば、シャッターによるイメージ取得が遅延したり、又は複数のイメージが高速に取得される場合、取得された原本(original)イメージ(例えば、高い解像度のイメージ)はメモリー250に記憶され、それに対応する写本(thumbnail)イメージ(例えば、低い解像度のイメージ)は表示装置160を介してプレビューすることができる。
以後、指定された条件が満足されると(例えば、ユーザ入力又はシステム命令)メモリー250に記憶された原本イメージの少なくとも一部が、例えば、イメージシグナルプロセッサ260により取得されて処理される。
一実施形態によれば、メモリー250は、メモリー130の少なくとも一部でもあり、又はこれとは独立的に操作される別途のメモリーから構成することもできる。
イメージシグナルプロセッサ260は、イメージセンサー230を介して取得されたイメージ又はメモリー250に記憶されたイメージに対してイメージ処理(例えば、デプスマップ(depth map)生成、3次元モデリング、パノラマ生成、特徴点抽出、イメージ合成、又はイメージ補償(例えば、ノイズ減少、解像度調整、明るさ調整、ブラーリング(blurring)、シャープニング(sharpening)、又はソフテニング(softening))を実行する。
追加的又は概略的に、イメージシグナルプロセッサ260は、カメラモジュール180に含まれた構成要素のうちので少なくとも一つ(例えば、イメージセンサー230)に対する制御(例えば、露出時間制御、又はリードアウトタイミング制御など)を実行することができる。
イメージシグナルプロセッサ260によって処理されたイメージは、追加処理のためにメモリー250にさらに記憶されたり、カメラモジュール180の外部構成要素(例えば、メモリー130、表示装置160、電子装置102、電子装置104、又はサーバー108)で伝達され得る。
一実施形態によれば、イメージシグナルプロセッサ260は、プロセッサ120の少なくとも一部より構成したり、プロセッサ120と独立的に操作される別途のプロセッサで構成することができる。
別途のプロセッサで構成された場合、イメージシグナルプロセッサ260によって処理されたイメージは、プロセッサ120によってそのまま又は追加のイメージ処理を経た後、表示装置160を介して表示される。
一実施形態によれば、電子装置101は、それぞれ異なる属性又は機能を有する2つ以上のカメラモジュール180を含み得る。
このような場合、例えば、少なくとも一つのカメラモジュール180は、広角カメラ又は全面カメラであり、少なくとも一つの他のカメラモジュールは望遠カメラ又は後面カメラであり得る。
図3は、本発明の一実施形態による複数のカメラを用いて映像を取得するための電子装置の概略構成を示すブロック図である。
図3を参照すると、電子装置300(例えば、図1の電子装置101)は、無線通信回路310(例えば、図1の通信モジュール190)、メモリー320(例えば、図1のメモリー130)、タッチスクリーンディスプレイ330(例えば、図1の表示装置160)、カメラモジュール340(例えば、図1のカメラモジュール180)、及びプロセッサ350(例えば、図1のプロセッサ120)を含む。
本発明の一実施形態によれば、無線通信回路310(例えば、図1の通信モジュール190)は、電子装置300(例えば、図1の電子装置101)と外部電子装置(例えば、図1の電子装置102)、電子装置104又はサーバー(例えば、図1のサーバー108)との間の通信を接続する。
本発明の一実施形態によれば、メモリー320(例えば、図1のメモリー130)は、カメラモジュール340の動作プログラム及び本発明の実施形態によるプログラム、カメラモジュール340から撮影されるイメージを記憶する。
本発明の一実施形態によれば、タッチスクリーンディスプレイ330(例えば、図1の表示装置160)は、表示部331とタッチパネル333を含む一体型から構成することができる。
本発明の一実施形態によれば、タッチスクリーンディスプレイ330は、カメラモジュール340から受信した映像をプレビュー画面で表示することができる。
一実施形態によれば、タッチスクリーンディスプレイ330は、プロセッサ350の制御下で、第1カメラ341から取得した外部オブジェクト(被写体)に対する第1イメージの少なくとも一部と第2カメラ343から取得した第2カメラレンズ部の第1方向に対応する外部オブジェクトに対する第2イメージの少なくとも一部が合成され、第1イメージの少なくとも他の一部と第2カメラレンズ部の第2方向に対応する外部オブジェクトに対する第3イメージの少なくとも一部が合成された外部オブジェクトに対するイメージを表示することができる。
本発明の一実施形態によれば、カメラモジュール340(例えば、図1のカメラモジュール180)は、収集した映像をプレビュー画面として表示部331に伝達してユーザがカメラモジュール340を介して映し出される映像を確認する。
カメラモジュール340は、撮影をリクエストする入力に応答し、撮影をリクエストする入力が発生した時点に収集された映像を撮影してイメージデータを生成する。
一実施形態によれば、第1カメラ341を用いた撮影及び第2カメラ343を用いた撮影は同時に実行される。
一実施形態によれば、第1カメラ341は、第2カメラ343と比べてより広い範囲を示すイメージを撮影することができる。
例えば、第1カメラ341は、第2カメラ343と比べてより広い画角を提供することができる。
本発明の一実施形態によれば、プロセッサ350(例えば、図1のプロセッサ120)は、電子装置300の全般的な動作及び電子装置300の内部構成の間の信号流れを制御し、データ処理を実行し、バッテリーからの内部構成への電源供給を制御する。
本発明の一実施形態によれば、プロセッサ350は、カメラモジュール340から受信した外部オブジェクトを含むプレビュー画面が表示されているうちに外部オブジェクトに対する撮影信号を受信する。
プロセッサ350は、外部オブジェクトに対する撮影をリクエストする入力を受信したことに応答し、第1カメラ341から外部オブジェクトに対する第1イメージを取得する。
例えば、第1カメラは広角レンズを含むことができ、第1イメージは広角レンズを介して取得された広い画角を持つ外部オブジェクトに対するイメージであり得る。
一実施形態によれば、プロセッサ350は、第2カメラ343から駆動部によって調節された角度に対応する外部オブジェクトに対する複数のイメージを取得する。
例えば、プロセッサ350は、駆動部によって調節された第2カメラレンズ部の第1方向に対応する外部オブジェクトに対する第2イメージを取得する。
また、プロセッサ350は、第2カメラ343から駆動部によって調節された第2カメラレンズ部の第2方向に対応する外部オブジェクトに対する第3イメージを取得する。
一実施形態によれば、第2カメラ343は、望遠レンズを含むことができる。
取得された第2イメージ及び第3イメージは、望遠レンズを介して取得した第1カメラ341より狭い画角を持つ外部オブジェクトの第2カメラレンズ部の第1方向及び第2方向に対するイメージであり得る。
一実施形態によれば、プロセッサ350は、第1カメラ341から取得した第1イメージで第2カメラ343から取得した第2イメージの少なくとも一部又は第3イメージの少なくとも一部に対応する領域を決定する。
プロセッサ350は、第2イメージの少なくとも一部又は第3イメージの少なくとも一部の解像度を調整する。
プロセッサ350は、決定された第2イメージの少なくとも一部又は第3イメージの少なくとも一部に対応する第1イメージの領域に解像度が調整された第2イメージの少なくとも一部又は第3イメージの少なくとも一部を合成して外部オブジェクトに対するイメージを生成する。
一実施形態によれば、プロセッサ350は、外部オブジェクトを含むプレビュー画面でROI(region of interest)を設定する。
例えば、ROIは、自動で認識されたり、又はユーザにより選択される。
一実施形態によれば、ROIが設定された場合、前述の第2イメージ及び第3イメージを取得する動作は、駆動部によって調節された第2カメラレンズ部の第1方向及び第2方向に対応するROIに対するイメージであり得る。
また、ROIが設定された場合、前述の第1イメージの領域で第2イメージの少なくとも一部又は第3イメージの少なくとも一部を合成する動作は、第1イメージの領域でROIに対する第2イメージの少なくとも一部又は第3イメージの少なくとも一部を合成する動作であり得る。
図4は、本発明の一実施形態による複数のカメラを用いて映像を取得するためのカメラモジュールの概略構成を示すブロック図である。
図4を参照すると、プロセッサ(例えば、図2のイメージシグナルプロセッサ260又は図3のプロセッサ350)は、外部オブジェクトの撮影をリクエストする入力に応答し、第1カメラ410(例えば、図3の第1カメラ341)から外部オブジェクトに対するイメージを取得する。
例えば、第1カメラ410は、レンズ411(例えば、広角レンズ)を介して受光センサー413)に受信される光源の量に基づいて外部オブジェクトに対するイメージを取得する。
一実施形態によれば、プロセッサは、外部オブジェクトの撮影をリクエストする入力に応答し、第2カメラ420(例えば、図3の第2カメラ343)から第2カメラレンズ部421(例えば、望遠レンズ)の移動によって設定された角度に対応する外部オブジェクトに対するイメージを取得する。
一実施形態によれば、角度計算部425は、入力される外部オブジェクトの位置とズームレベル423に基づいて第2カメラ420の位置を計算する。
角度計算部425は、計算された第2カメラ420の位置を操作部429に伝達する。
一実施形態によれば、時間計算部427は、イメージセンサー(例えば、図2のイメージセンサー230)のリードアウト(read-out)時間の間に第2カメラレンズ部421が移動するように時間を計算する。
例えば、第2カメラレンズ部421が移動する動作は、第2カメラレンズ部421の光軸の方向が変更されるように角度を調節する動作であり得る。
時間計算部427は、計算された第2カメラレンズ部421の移動時間を操作部429に伝達する。
一実施形態によれば、操作部429は、位置センサー431から受信した第2カメラ420の角度での振れ位置を補正し、これに基づいて駆動部433を制御する。
また、操作部429は、時間計算部427から受信した第2カメラレンズ部421の移動時間に基づいて第2カメラレンズ部421を移動させるように駆動部433を制御する。
一実施形態によれば、駆動部433は、操作部429の制御下で第2カメラレンズ部421の方向及び位置を調整する。
例えば、駆動部433は、第2カメラレンズ部421を移動、例えば、上下左右方向に移動させる。
第2カメラ420は、第2カメラレンズ部421(例えば、望遠レンズ)を介して受光センサー435で受信される光源の量に基づいて駆動部433によって移動された第2カメラレンズ部421の上下左右方向のそれぞれに対応する外部オブジェクトに対するイメージを取得する。
一実施形態によれば、駆動部433は、調整された第2カメラレンズ部421の方向及び位置に基づいて取得された外部オブジェクトに対するイメージ437をメモリー441(例えば、図2のメモリー250)に記憶する。
外部オブジェクトに対するイメージ437は、調整された第2カメラレンズ部421の方向及び位置に対応する外部オブジェクトに対する複数のイメージを含む。
一実施形態によれば、駆動部433は、光学式イメージスタビライザー(optical image stabilizer:OIS)(例えば、図2のイメージスタビライザー240)を含むことができる。
例えば、プロセッサは、光学式イメージスタビライザーを少なくとも用いて第2カメラレンズ部421の角度を調節して第2カメラレンズ部421の光軸の方向を変更する。
一実施形態によれば、イメージ位置計算部443は、イメージ437の位置を計算する。
例えば、イメージ位置計算部443は、第1カメラ410から取得したイメージの領域で第2カメラ420から取得したイメージ437の位置を決定する。
例えば、図3で説明したように、第1カメラ410から取得した外部オブジェクトに対するイメージは、外部オブジェクトを含む広角映像であり得、第2カメラ420から取得した外部オブジェクトに対するイメージは、外部オブジェクトをズームした望遠映像であり得る。
イメージ位置計算部443は、外部オブジェクトを含む広角映像での外部オブジェクトをズームした望遠映像の位置を決定する。
一実施形態によれば、イメージ整合部445は、第2カメラ420から取得したイメージ437のサイズを縮小(scale down)し、イメージ位置計算部443によって決定された位置に基づいて整合する。
一実施形態によれば、イメージステッチング部(stitching)447は、整合されたイメージを接合して一つのイメージに生成する。
一実施形態によれば、イメージ合成部449は、第1カメラ410から取得したイメージとイメージステッチング部447によって接合されたイメージを合成する。
一実施形態によれば、フィルターリング部451は、イメージ合成部449によって合成されたイメージをフィルターリングを介して境界部分などの不自然な部分及びノイズを除去し、外部オブジェクトの動き又は手ぶれによるブラー(blur)を補正する。
図5は、本発明の一実施形態による映像処理方法を説明するためのフローチャートである。
図5を参照すると、プロセッサ(例えば、図2のイメージシグナルプロセッサ260又は図3のプロセッサ350)は、カメラモジュール(例えば、図3のカメラモジュール340)から受信した外部オブジェクトを含む映像をプレビュー画面として表示する。
一実施形態によれば、プロセッサは、S501段階で、外部オブジェクトに対する撮影信号を受信する。
一実施形態によれば、プロセッサは、S501段階の外部オブジェクトに対する撮影をリクエストする入力を受信し、ズームレベルの入力をさらに受信する。
一実施形態によれば、プロセッサは、受信した撮影信号に応答し、外部オブジェクトに対するイメージを撮影する。
一実施形態によれば、プロセッサは、S503段階で、第1カメラ(例えば、図4の第1カメラ410)を用いて外部オブジェクトに対する第1イメージを取得する。
一実施形態によれば、第1カメラは広角レンズを含むことができ、広角レンズを介して広い画角を持つ外部オブジェクトに対する第1イメージを取得する。
一実施形態によれば、プロセッサは、S505段階で、第2カメラのレンズ部(例えば、図4の第2カメラレンズ部421)を駆動部(例えば、図4の駆動部433)を介して第1方向に設定して外部オブジェクトに対する第2イメージを取得し、第2カメラのレンズ部を駆動部を介して第2方向に設定して外部オブジェクトに対する第3イメージを取得する。
一実施形態によれば、駆動部は、イメージスタビライザー(例えば、図2のイメージスタビライザー240)を含むことができる。
プロセッサは、イメージスタビライザーを用いて第2カメラレンズ部の角度を調節することができる。
一実施形態によれば、第2カメラ(例えば、図4の第2カメラ420)は、望遠レンズを含む。
プロセッサは、望遠レンズを介して第1カメラより狭い画角を持つ外部オブジェクトに対するイメージを取得する。
例えば、プロセッサは、第2カメラのレンズ部の第1方向に対応する外部オブジェクトに対する第2イメージ及び第2カメラのレンズ部の第2方向に対応する外部オブジェクトに対する第3イメージを取得する。
一実施形態によれば、受信した撮影信号に応答して、S503段階の第1カメラから第1イメージを取得する動作、及びS505段階の第2カメラから第2イメージ及び第3イメージを取得する動作は、同時に実行する。
上述のS505段階は、後述する図7及び図8で、詳しく説明する。
一実施形態によれば、プロセッサは、S507段階で、第1イメージの少なくとも一部と、第2イメージの一部を合成して第1イメージの少なくとも他の一部と第3イメージの一部を合成し、外部オブジェクトに対するイメージを生成する。
上述のS507段階は、後述する図6、図9、及び図10で、詳しく説明する。
図6は、本発明の一実施形態による映像処理方法を説明するためのフローチャートである
図6は、上述の図5でのS507段階の第1カメラ(例えば、図4の第1カメラ410)から取得したイメージと第2カメラ(例えば、図4の第2カメラ420)から取得したイメージを合成する動作を詳しく説明するためのフローチャートである。
図6を参照すると、プロセッサ(例えば、図2のイメージシグナルプロセッサ260又は図3のプロセッサ350)は、S601段階で、第1カメラを用いて取得した第1イメージで第2カメラを用いて取得した第2イメージの少なくとも一部又は第3イメージの少なくとも一部に対応する領域を決定する。
一実施形態によれば、プロセッサは、S603段階で、第2イメージの少なくとも一部又は第3イメージの少なくとも一部の解像度を調整する。
一実施形態によれば、プロセッサは、S605段階で、S601段階で決定された第2イメージの少なくとも一部又は第3イメージの少なくとも一部に対応する第1イメージの領域にS603段階で解像度が調整された第2イメージの少なくとも一部又は第3イメージの少なくとも一部を合成する。
一実施形態によれば、プロセッサは、第1イメージのサイズを拡大(scale up)し、第2イメージ及び第3イメージのサイズを縮小することができる。
プロセッサは、拡大された第1イメージの少なくとも一部と縮小された第2イメージの少なくとも一部を合成し、拡大された第1イメージの少なくとも他の一部と縮小された第3イメージの少なくとも一部を合成することができる。
図7は、本発明の一実施形態による外部オブジェクトの位置による第2カメラレンズ部の方向を調整する方法を説明するための図である。
図7を参照すると、符号<710>に示すようにプロセッサ(例えば、図2のイメージシグナルプロセッサ260又は図3のプロセッサ350)は、第1カメラ(例えば、図4の第1カメラ410)から外部オブジェクト715に対する第1イメージ711を取得する。
プロセッサは、第1イメージ711でズームレベルと外部オブジェクト715の位置(例えば、第1カメラと外部オブジェクト715)の間の距離情報)に基づいて第2カメラ(例えば、図4の第2カメラ420)から取得した少なくとも一つのイメージ、例えば、第2イメージ713のピクセル(pixel)移動値を計算する。
例えば、ピクセル移動値は、外部オブジェクト715の同一部分に対応する第1イメージ711及び第2イメージ713内のピクセルの間の距離を示すことができる。
一実施形態によれば、プロセッサは、ピクセル移動値に基づいて第2カメラレンズ部(例えば、図4の第2カメラレンズ部421)の角度を計算する。
プロセッサは、計算された角度に基づいて符号<720>に示すように第2カメラ721レンズ部の第1角度723を符号<730>に示すように第2角度731で調節する。
一実施形態によれば、プロセッサは、計算された第2カメラレンズ部の角度で位置センサー(例えば、図4の位置センサー431)から受信した振れ(例えば、手ぶれ)位置角を補正する。
例えば、プロセッサは、撮影される外部オブジェクトに対する動きを少なくとも一部補うためにイメージセンサーを特定方向に動かすか、リードアウトタイミングを調整することができる。
図8は、本発明の一実施形態による外部オブジェクトに対するイメージを取得する速度を設定する方法を説明するための図である。
本発明の一実施形態によれば、プロセッサ(例えば、図2のイメージシグナルプロセッサ260又は図3のプロセッサ350)は、外部オブジェクトの撮影をリクエストする信号に応答し、第1カメラ(例えば、図4の第1カメラ410)から外部オブジェクトに対する第1イメージを取得する。
また、プロセッサは、外部オブジェクトの撮影をリクエストする信号に応答し、第2カメラ(例えば、図4の第2カメラ420)から外部オブジェクトに対する複数のイメージを取得する。
例えば、プロセッサは、第2カメラの駆動部(例えば、図4の駆動部433)によって調節された第2カメラレンズ部(例えば、図4の第2カメラレンズ部421)の角度に対応する外部オブジェクトに対する複数のイメージを第2カメラから取得する。
一実施形態によれば、プロセッサは、外部オブジェクトの撮影をリクエストする信号に応答し、第1カメラから外部オブジェクトに対する一つのイメージを取得する間に第2カメラから調節された第2カメラレンズ部の角度に対応する外部オブジェクトに対する複数のイメージを取得する。
一実施形態によれば、プロセッサは、イメージセンサー(例えば、図2のイメージセンサー230)のリードアウト時間が早い時間内に行われるように提供することができ、露出時間とイメージセンサーのリードアウト時間の間に第2カメラレンズ部の移動を実行することができる。
例えば、図8を参照すると、符号<810>は、第1カメラから外部オブジェクトに対するイメージを取得する動作を説明するための図であり、符号<820>は、第2カメラから第2カメラレンズ部の移動によって設定された角度に基づいて外部オブジェクトに対する複数のイメージを取得する動作を説明するための図である。
一実施形態によれば、符号<810>に示すようにプロセッサは、外部オブジェクトの撮影をリクエストする信号に応答し、露出時間の間(符号811)の第1カメラから外部オブジェクトに対する第1イメージを取得する。
例えば、第1イメージは、外部オブジェクトを含む広角映像であり得る。
一実施形態によれば、符号<820>に示すようにプロセッサは、外部オブジェクトの撮影をリクエストする信号に応答し、第2カメラレンズ部を移動(符号821)させて第1角度で制御する。
プロセッサは、第1露出時間の間(符号823)の第2カメラから第1角度に対応する外部オブジェクトに対する第2イメージを取得する。
プロセッサは、第2カメラレンズ部を移動(符号825)させて第2角度で制御する。
プロセッサは、第2露出時間の間(符号827)の第2カメラから第2角度に対応する外部オブジェクトに対する第3イメージを取得する。
プロセッサは、第2カメラレンズ部を移動(符号829)させて第3角度で制御する。
プロセッサは、第3露出時間の間(符号831)の第2カメラから第3角度に対応する外部オブジェクトに対する第4イメージを取得する。
プロセッサは、第2カメラレンズ部を移動(符号833)させて第4角度で制御する。
プロセッサは、第4露出時間の間(符号835)の第2カメラから第4角度に対応する外部オブジェクトに対する第5イメージを取得する。
例えば、第2イメージ乃至第5イメージは、第1角度乃至第4角度に対応する外部オブジェクトをズームした望遠映像であり得る。
一実施形態によれば、本発明は、符号<810>に示すように第1カメラから外部オブジェクトに対する一つのイメージ(例えば、第1イメージ)を取得する時間t1(符号841)間、符号<820>に示すように第2カメラから第2カメラレンズ部の移動によって設定された角度に対応する外部オブジェクトに対する複数のイメージ(例えば、第2イメージ乃至第5イメージ)を取得する。
一実施形態によれば、プロセッサは、第1カメラから第1イメージを取得する時間t1(符号841)間で第2カメラから第2イメージ乃至第5イメージを取得するように、第2イメージ乃至第5イメージを取得する時間を短縮させることができる。
例えば、プロセッサは、第2イメージ乃至第5イメージを取得する露出時間(例えば、符号823、827、831、835)を予め定義された露出時間より短く調節することができる。
一実施形態によれば、プロセッサは、第2カメラから第2イメージ乃至第5イメージを取得する露出時間を調節することによって、第1カメラから第1イメージを取得する時間と第2カメラから第2イメージ乃至第5イメージを取得する時間の間に差が大きくなることを防止することができる。
さらに、第2カメラから第2イメージ乃至第5イメージを取得する露出時間を調節することによって第1カメラから第1イメージを取得する時間の間で第2カメラから第2イメージ乃至第5イメージを取得することができ、時間遅延(time delay)によるイメージの画質が劣化されることを防止することができる。
一実施形態によれば、プロセッサは、第2カメラから第2イメージ乃至第5イメージが取得されるそれぞれの露出時間(例えば、符号823、827、831、835)に第1カメラから外部オブジェクトに対する連続撮影で4個のイメージを取得するように第1カメラを制御することもできる。
一実施形態によれば、プロセッサは、第1カメラから連続撮影された外部オブジェクトに対する4個のイメージに対してマルチフレームノイズリダクション(multi frame noise reduction)を実行することができる。
これにより、プロセッサは、ノイズが減少された外部オブジェクトに対するイメージを取得することができる。
一実施形態によれば、プロセッサは、第1カメラから取得した外部オブジェクトに対する4個のイメージ(又は、マルチフレームノイズリダクション実行で合成された一つのイメージ)と第2カメラから取得した第2カメラレンズ部の角度に対応する外部オブジェクトに対する第2イメージ乃至第5イメージを合成することができる。
一実施形態によれば、プロセッサは、第2カメラから第2イメージ乃至第5イメージが取得されるそれぞれの露出時間(例えば、符号823、827、831、835)に第1カメラから外部オブジェクトに対する4個のイメージを取得するように第1カメラを制御することによって、第1カメラからイメージを取得する時間と第2カメラからイメージを取得する時間の間に差が大きくなることを防止することができる。
図9は、本発明の一実施形態による第2カメラを介して取得された複数のイメージを整合及びステッチングする方法を説明するための図である。
図9を参照すると、符号<910>に示すようにプロセッサは、第2カメラを介して第2カメラレンズ部の移動によって設定された角度、例えば、第1角度乃至第4角度に対応する外部オブジェクトに対する第1イメージ乃至第4イメージ(911、913、915、917)を取得する。
一実施形態によれば、プロセッサは、第1カメラ(例えば、図4の第1カメラ410)から取得した外部オブジェクトに対するイメージの領域で第2カメラから取得した第1イメージ乃至第4イメージ(911、913、915、917)に対する位置を決定する。
プロセッサは、第1カメラから取得したイメージ領域でのx、y座標に基づいて第2カメラから取得した第1イメージ乃至第4イメージ(911、913、915、917)との差を算出する。
算出された差が小さいほど第1カメラから取得したイメージでの第2カメラから取得した第1イメージ乃至第4イメージ(911、913、915、917)の位置が正確であり得る。
例えば、符号<920>に示すように、プロセッサは第1カメラから取得したイメージ領域でx、y座標の移動によって符号921のように第2カメラから取得した第1イメージ911の位置を決定する。
前述の方法でプロセッサは、第1カメラから取得したイメージ領域での第2イメージ乃至第4イメージ(913、915、917)に対する位置を、符号<930>に示すように符号(933、935、937)として決定する。
一実施形態によれば、プロセッサは、第1カメラから取得したイメージで第2カメラから取得した第1イメージ乃至第4イメージに対する位置(座標)が決定(921、933、935、937)されると、第1イメージ乃至第4イメージ(921、933、935、937)が重なる領域と空いている領域に対するイメージを処理する動作、例えば、整合する動作を実行する。
例えば、符号<930>に示すように、プロセッサは、第1イメージ乃至第4イメージ(921、933、935、937)が重なる領域(例えば、左上側方向から右下側方向への斜線及び右上側方向から左下側方向への斜線領域)を有する場合、重なる領域を有する複数のイメージのうちのいずれか1つイメージを除いた残りイメージで重なる領域を切り出すイメージ処理動作を行う。
プロセッサは、第1カメラから取得されたイメージ939での第1イメージ乃至第4イメージ(921、933、935、937)が存在しない領域、すなわち、空いている領域(例えば、左上側方向から右下側方向への斜線領域)に対してイメージ939で補正するイメージ処理動作を行う。
一実施形態によれば、プロセッサは、第1イメージ乃至第4イメージ(921、933、935、937)を整合した後、符号<940>に示すように整合された第1イメージ乃至第4イメージ(921、933、935、937)を接合するステッチング動作を行って、一つのイメージを生成する。
一実施形態によれば、プロセッサは、第1カメラから取得したイメージ939とステッチング動作によって接合した符号<940>のステッチドイメージを合成する。
例えば、プロセッサは、イメージ939の少なくとも一部(例えば、イメージ939の第1領域)と第1イメージ921の少なくとも一部を合成、イメージ939の少なくとも他の一部(例えば、イメージ939の第2領域)と第2イメージ933の少なくとも一部を合成、イメージ939の少なくとも他の一部(例えば、イメージ939の第3領域)と第3イメージ935の少なくとも一部を合成、イメージ939の少なくとも他の一部(例えば、イメージ939の第4領域)と第4イメージ937の少なくとも一部を合成する。
一実施形態によれば、プロセッサは、合成されたイメージで境界部分などの不自然な部分をフィルターリング工程を介してアーチファクト(artifact)を除去する。
図10は、本発明の一実施形態による映像処理方法を説明するための図である
図10を参照すると、符号<1010>に示すようにプロセッサ(例えば、図2のイメージシグナルプロセッサ260又は図3のプロセッサ350)は、第2カメラ(例えば、図4の第2カメラ420)から第2カメラレンズ部(例えば、図4の第2カメラレンズ部421)の移動によって設定された角度に対応する外部オブジェクトに対する複数のイメージ(1011、1013、1015、1017、1019)を取得する。
例えば、複数のイメージ(1011、1013、1015、1017、1019)は、角度に対応する外部オブジェクトをズームした望遠映像であり得る。
一実施形態によれば、プロセッサは、取得した複数のイメージ(1011、1013、1015、1017、1019)を接合するステッチング動作を実行して一つのイメージ1020を生成する。
一実施形態によれば、プロセッサは、生成したイメージ1020と第1カメラ(例えば、図4の第1カメラ410)から取得した外部オブジェクトに対するイメージ1030を合成して外部オブジェクトに対するイメージ1040を生成する。
前述のステッチング動作及び合成する動作に関連して、図9で説明したので詳細な説明は略する。
前述したように、本発明は、イメージを拡大して撮影しようとする場合、中間画角のカメラを使用せず第1カメラから取得した広角イメージと第2カメラから取得した第2カメラレンズ部の移動によって設定された角度に対応する複数の望遠イメージを合成する動作によって、中間画角のカメラを介して取得したイメージと同一の画質のズームを具現することができる。
後述する図11及び図12は、カメラモジュール(例えば、図3のカメラモジュール340)から取得されるイメージの全体領域ではない設定されたROI(region of interest)に対応する領域に対して向上した画質を具現することができる方法を説明するためのフローチャート及び図である。
図11は、本発明の一実施形態による映像処理方法を説明するためのフローチャートである。
図11を参照すると、プロセッサ(例えば、図2のイメージシグナルプロセッサ260又は図3のプロセッサ350)は、カメラモジュールから受信した外部オブジェクトを含む映像をプレビュー画面として表示する。
一実施形態によれば、プロセッサは、S1101段階で、外部オブジェクトを含むプレビュー画面でROIを設定する。
例えば、外部オブジェクトが人の場合、顔又は手を認識してROIが自動で設定され得る。
又は、プロセッサは、プレビュー画面でROIを設定するためのユーザ入力に応答し、ROIを設定することができる。
一実施形態によれば、プロセッサは、S1103段階で、外部オブジェクトに対する撮影信号を受信する。
一実施形態によれば、プロセッサは、S1103段階の外部オブジェクトに対する撮影をリクエストする入力を受信し、ズームレベルの入力をさらに受信することができる。
一実施形態によれば、プロセッサは、S1107段階で、受信した撮影信号に応答して第1カメラ(例えば、図4の第1カメラ410)を用いて外部オブジェクトに対する第1イメージを取得する。
一実施形態によれば、プロセッサは、S1109段階で、第2カメラ(例えば、図4の第2カメラ420)から駆動部(例えば、図4の駆動部433)によって調節された第2カメラレンズ部(例えば、図4の第2カメラレンズ部421)の第1方向に対応する設定されたROIに対する第2イメージを取得し、第2カメラのレンズ部の第2方向に対応する設定されたROIに対する第3イメージを取得する。
一実施形態によれば、S1107段階の第1カメラから第1イメージを取得する動作及びS1109段階の第2カメラから第2イメージ及び第3イメージを取得する動作は同時に実行することができる。
一実施形態によれば、プロセッサは、S1111段階で、第1カメラを用いて取得した第1イメージで第2カメラを用いて取得した第2イメージの少なくとも一部又は第3イメージの少なくとも一部に対応する領域を決定する。
一実施形態によれば、プロセッサは、S1113段階で、第2イメージの少なくとも一部又は第3イメージの少なくとも一部の解像度を調整する。
プロセッサは、S1115段階で、S1111段階で第1イメージで決定された第2イメージの少なくとも一部又は第3イメージの少なくとも一部に対応する領域に、S1113段階で解像度が調整された第2イメージの少なくとも一部又は第3イメージの少なくとも一部を合成して外部オブジェクトに対するイメージを生成する。
図12は、本発明の一実施形態による映像処理方法を説明するための図である。
図12を参照すると、プロセッサ(例えば、図2のイメージシグナルプロセッサ260又は図3のプロセッサ350)は、外部オブジェクトを含むプレビュー画面1201でROIを設定する。
ROIは自動で認識したり、又はユーザによって選択することができる。
図12で、ROIは、特定オブジェクト1211と仮定して説明する。
例えば、プロセッサは、設定されたROI(特定オブジェクト1211)に対するイメージを取得するために第2カメラ(例えば、図4の第2カメラ420)の駆動部(例えば、図4の駆動部433)を介して第2カメラレンズ部(例えば、図4の第2カメラレンズ部421)の第1角度1213を第2角度1215に調節する。
プロセッサは、第2カメラから駆動部によって調節された第2角度1215に対応するROIに対する少なくても一つのイメージを取得する。
プロセッサは、ROIに対する少なくても一つのイメージと第1カメラ(例えば、図4の第1カメラ410)から取得した外部オブジェクトに対するイメージを合成する。
前述したように、本発明は、イメージを拡大して撮影しようとする場合、第1カメラから取得された広角イメージと第2カメラから取得された第2カメラレンズ部の移動によって設定された角度に対応するROIに対する少なくても一つの望遠イメージを合成する動作を介してROIに対して向上した画質のズームを具現することができる。
本明細書で開示した多様な実施形態による電子装置は、多様な形態の装置となることができる。
電子装置は、例えば、ポータブル通信装置(例えば、スマートフォン)、コンピューター装置、ポータブルマルチメディア装置、ポータブル医療機器、カメラ、ウェアラブル装置、又は家電装置の内の少なくとも一つを含むことができる。
本明細書の実施形態による電子装置は前述した機器で限定されない。
本明細書の実施形態及びここに用いられた用語は、本明細書に記載した技術を特定の実施形態に対して限定しようとするものではなく、当該実施形態の多様な変更、均等物、及び/又は代替物を含むことで理解されなければならない。
図面の説明と関連して類似の構成要素に対しては類似の参照符号が用いる。
単数の表現は文脈上、明白に意図しない限り、複数の表現を含むことができる。
本明細書において、“A又はB”、“A及び/又はBのうちの少なくとも一つ”、“A、B又はC”又は“A、B及び/又はCのうちの少なくとも一つ”などの表現は、共に羅列された項目のすべての可能な組み合わせを含むことができる。
“第1”、“第2”、“一番目”又は“二番目”などの表現は当該構成要素を、順序又は重要度に構わずに修飾することができ、一構成要素を他の構成要素と区分するために用いられるだけ当該構成要素を限定しない。
どんな(例えば、第1)構成要素が異なる(例えば、第2)構成要素に“(機能的又は通信的に)接続し”たり“接続して”いると言及された時には、前記どんな構成要素が前記他の構成要素に直接的に接続したり、他の構成要素(例えば、第3構成要素)を介して接続することができる。
本明細書で用いられる用語“モジュール”は、ハードウェア、ソフトウェア又はファームウエアから構成されたユニットを含み、例えば、ロジック、論理ブロック、部品、又は回路などの用語と相互互換的に用いられることができる。
モジュールは、一体から構成された部品又は一つ又はその以上の機能を実行する最小単位又はその一部となることができる。例えば、モジュールはASIC(application-specific integrated circuit)から構成されることができる。
本明細書の多様な実施形態は、機器(machine)(例えば、コンピュータ)で読み取り可能な記憶媒体(machine-readable storage media)(例えば、内装メモリー136)又は外装メモリー138)に記憶された命令語を含むソフトウェア(例えば、プログラム140)で具現することができる。
機器は、記憶媒体から記憶された命令語を呼び出し、呼び出しされた命令語によって動作が可能な装置として、開示した実施形態による電子装置(例えば、電子装置101)を含むことができる。
命令がプロセッサ(例えば、プロセッサ120)によって実行される場合、プロセッサが直接、又はプロセッサの制御下に他の構成要素を用いて命令に該当する機能を行うことができる。
命令は、コンパイラー又はインタプリターによって生成又は実行されるコードを含むことができる。機器で読み取り可能な記憶媒体は、非一時的(non-transitory)記憶媒体の形態で提供されることができる。ここで、‘非一時的’は記憶媒体が信号(signal)を含ませず実在(tangible)するということを意味するだけ、データが記憶媒体に半永久的又は臨時的に記憶されることを区分しない。
一実施形態によれば、本明細書に開示した多様な実施形態による方法は、コンピュータープログラム製品(computer program product)に含まれて提供することができる。
コンピュータープログラム製品は、商品として販売者及び購買者の間に取り引きされることができる。
コンピュータープログラム製品は、機器で読み取り可能な記憶媒体(例えば、compact disc read only memory(CD-ROM))の形態で、又はアプリケーションストア(例えば、プレイストア(登録商標))を介してオンラインで配布することができる。
オンライン配布の場合に、コンピュータープログラム製品の少なくとも一部は製造社のサーバー、アプリケーションストアのサーバー、又は中継サーバーのメモリーのような記憶媒体に少なくとも一時記憶されたり、臨時的に生成することができる。
本発明の実施形態による構成要素(例えば、モジュール又はプログラム)それぞれは、単数又は複数の個体から構成することができ、前述の当該サブ構成要素のうちの一部サブ構成要素を省略したり、又は他のサブ構成要素を多様な実施形態にさらに含ませることができる。
概略的又は追加的に、一部構成要素(例えば、モジュール又はプログラム)は、一つの個体に統合され、統合される以前のそれぞれの当該構成要素により行われる機能を同一又は類似に行うことができる。
本発明の実施形態による、モジュール、プログラム又は他の構成要素によって行われる動作は、順次、並列的、繰り返し的、又はヒューリスティックするように実行したり、少なくとも一部動作が他の手順で実行したり、省略したり、又は他の動作が追加することができる。
尚、本発明は、上述の実施形態に限られるものではない。本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
101、102、104 電子装置
108 サーバー
120 プロセッサ
121 メインプロセッサ
123 補助プロセッサ
130、250、441 メモリー
132 揮発性メモリー
134 非揮発性メモリー
136 内装メモリー
138 外装メモリー
140 プログラム
142 オペレーティングシステム
144 ミドルウェア
146 アプリケーション
150 入力装置
155 音響出力装置
160 表示装置
170 オーディオモジュール
176 センサーモジュール
177 インターフェース
178 接続端子
179 ハプティックモジュール
180、340 カメラモジュール
188 電力管理モジュール
189 バッテリー
190 通信モジュール
192 無線通信モジュール
194 有線通信モジュール
196 加入者識別モジュール
197 アンテナモジュール
198 第1ネットワーク
199 第2ネットワーク
210 レンズアセンブリ
220 フラッシュ
230 イメージセンサー
240 イメージスタビライザー
260 イメージシグナルプロセッサ
310 無線通信回路
320 メモリー
330 タッチスクリーンディスプレイ
331 表示部
333 タッチパネル
341、410 第1カメラ
343、420 第2カメラ
350 プロセッサ
411 レンズ
413、435 受光センサー
421 第2カメラレンズ部
423 入力される外部オブジェクトの位置とズームレベル
425 角度計算部
427 時間計算部
429 操作部
431 位置センサー
433 駆動部
437 イメージ
443 イメージ位置計算部
445 イメージ整合部
447 イメージステッチング部
449 イメージ合成部
451 フィルターリング部

Claims (15)

  1. 電子装置であって、
    第1カメラと、
    レンズ部と、前記レンズ部の角度を調節して前記レンズ部の光軸の方向を変更することができる駆動部と、を含む第2カメラと、
    プロセッサと、を有し、
    前記プロセッサは、外部オブジェクト(object)に対する撮影信号を受信し、
    前記受信した撮影信号に基づいて前記外部オブジェクトに対するイメージを撮影し、
    前記撮影する動作の一部として、前記第1カメラを用いて前記外部オブジェクトに対する第1イメージを取得し、前記第2カメラの前記レンズ部を第1方向に設定して前記第1方向に対応する前記外部オブジェクトの少なくとも一部に対する第2イメージを取得し、前記第2カメラの前記レンズ部を第2方向に設定して前記第2方向に対応する前記外部オブジェクトの少なくとも他の一部に対する第3イメージを取得し、
    前記第1イメージの少なくとも一部と前記第2イメージの少なくとも一部を合成し、前記第1イメージの少なくとも他の一部と前記第3イメージの少なくとも一部を合成して前記外部オブジェクトに対するイメージを生成し、
    前記第2カメラの前記レンズ部は、前記第2カメラのイメージセンサーのリードアウト時間の間、前記第1方向から前記第2方向に移動するように設定されることを特徴とする電子装置。
  2. 前記第2カメラの画角特性は、前記第1カメラの画角特性より狭いことを特徴とする請求項1記載の電子装置。
  3. 前記プロセッサは、前記イメージを生成する動作の一部として、前記第1イメージで、前記第2イメージの少なくとも一部又は前記第3イメージの少なくとも一部に対応する領域を決定し、
    前記第2イメージの少なくとも一部又は前記第3イメージの少なくとも一部の解像度を調整し、
    前記決定された領域に前記解像度が調整された前記第2イメージの少なくとも一部又は前記第3イメージの少なくとも一部を合成するように設定されることを特徴とする請求項1記載の電子装置。
  4. 前記プロセッサは、前記第1イメージのサイズを拡大し、前記第2イメージ又は前記第3イメージのサイズを縮小し、
    前記縮小された第2イメージの少なくとも一部又は第3イメージの少なくとも一部を整合し、
    前記整合された第2イメージの少なくとも一部又は第3イメージの少なくとも一部をステッチング(stitching)して第4イメージを生成し、
    前記第4イメージと前記第1イメージの少なくとも一部を合成するように設定されることを特徴とする請求項3記載の電子装置。
  5. 前記プロセッサは、予め設定された時間の間、前記第1カメラを用いて前記第1イメージを取得し、前記第2カメラを用いて前記第2イメージ及び前記第3イメージを取得するように設定されることを特徴とする請求項1記載の電子装置。
  6. 前記プロセッサは、前記第2カメラを用いて前記第2イメージ及び前記第3イメージを取得する露出時間を予め定義された露出時間より短く調節して前記予め設定された時間の間に前記第1イメージ乃至前記第3イメージを取得するように前記第1カメラ及び前記第2カメラを制御するか
    前記第2カメラを用いて第2イメージ及び第3イメージを取得するそれぞれの露出時間に前記第1カメラを用いて前記外部オブジェクトに対するイメージを取得するように設定されることを特徴とする請求項5記載の電子装置。
  7. 前記駆動部は、イメージスタビライザーを含み、
    前記プロセッサは、前記イメージスタビライザーを少なくとも用い、前記第2カメラを前記第1方向又は前記第2方向に調整するように設定されることを特徴とする請求項1記載の電子装置。
  8. 前記プロセッサは、前記第1イメージに基づいて前記第1カメラと前記外部オブジェクトとの距離情報を取得し、前記取得された距離情報に基づいて前記第2カメラの前記レンズ部の角度を調節するように前記駆動部を制御するように設定されることを特徴とする請求項1記載の電子装置。
  9. 前記プロセッサは、ROI(region of interest)を設定するための入力を受信し、前記受信した入力により設定されたROIに少なくとも基づいて前記第2カメラを制御し、
    前記駆動部によって調節された第2カメラのレンズ部の前記第1方向及び前記第2方向に対応する前記設定されたROIに対する第2イメージ及び第3イメージを取得するように設定されることを特徴とする請求項1記載の電子装置。
  10. 複数のカメラを用いて映像を取得するための電子装置の映像処理方法であって、
    外部オブジェクトに対する撮影信号が受信されたことに応答し、第1カメラを用い、前記外部オブジェクトに対する第1イメージを取得する段階と、
    第2カメラを用い、前記第2カメラに含まれた駆動部を介して前記第2カメラのレンズ部を第1方向に設定して前記第1方向に対応する前記外部オブジェクトの少なくとも一部に対する第2イメージを取得し、前記第2カメラの前記レンズ部を第2方向に設定して前記第2方向に対応する前記外部オブジェクトの少なくとも他の一部に対する第3イメージを取得する段階と、
    前記第1イメージの少なくとも一部と前記第2イメージの少なくとも一部を合成し、前記第1イメージの少なくとも他の一部と前記第3イメージの少なくとも一部を合成して前記外部オブジェクトに対するイメージを生成する段階と、を有し、
    前記第2カメラの前記レンズ部は、前記第2カメラのイメージセンサーのリードアウト時間の間、前記第1方向から前記第2方向に移動するように設定されることを特徴とする電子装置の映像処理方法。
  11. 前記外部オブジェクトに対するイメージを生成する段階は、前記第1イメージで、前記第2イメージの少なくとも一部又は前記第3イメージの少なくとも一部に対応する領域を決定する段階と、
    前記第2イメージの少なくとも一部又は前記第3イメージの少なくとも一部の解像度を調整する段階と、
    前記決定された領域に前記解像度が調整された前記第2イメージの少なくとも一部又は前記第3イメージの少なくとも一部を合成する段階と、を含むことを特徴とする請求項10記載の電子装置の映像処理方法。
  12. 前記解像度を調整する段階は、前記第1イメージのサイズを拡大し、前記第2イメージ又は前記第3イメージのサイズを縮小する段階と、
    前記縮小された第2イメージの少なくとも一部又は第3イメージの少なくとも一部を整合する段階と、
    前記整合された第2イメージの少なくとも一部又は第3イメージの少なくとも一部をステッチング(stitching)して第4イメージを生成する段階と、
    前記第4イメージと前記第1イメージの少なくとも一部を合成する段階と、を含むことを特徴とする請求項11記載の電子装置の映像処理方法。
  13. 前記第3イメージを取得する段階は、予め設定された時間の間、前記第1カメラを用いて前記第1イメージを取得し、前記第2カメラを用いて前記第2イメージ及び前記第3イメージを取得する段階を含み、
    前記第2イメージ及び前記第3イメージを段階する段階は、前記第2カメラを用いて前記第2イメージ及び前記第3イメージを取得する露出時間を予め定義された露出時間より短く調節し、前記予め設定された時間の間の前記第1イメージ乃至前記第3イメージを取得するように前記第1カメラ及び前記第2カメラを制御する段階と、
    前記第2カメラを用いて第2イメージ及び第3イメージを取得するそれぞれの露出時間に前記第1カメラを用いて前記外部オブジェクトに対するイメージを取得する段階の内の少なくとも一つを含むことを特徴とする請求項10に記載の電子装置の映像処理方法。
  14. 前記取得された第1イメージに基づいて前記第1カメラと前記外部オブジェクトとの距離情報を取得する段階をさらに有し、
    前記第3イメージを取得する動作は、前記取得された距離情報に基づいて前記駆動部を介して前記第2カメラのレンズ部を前記第1方向に設定して前記外部オブジェクトに対する第2イメージを取得し、前記第2カメラの前記レンズ部を前記第2方向に設定して前記外部オブジェクトに対する第3イメージを取得する段階を含むことを特徴とする請求項10記載の電子装置の映像処理方法。
  15. ROI(region of interest)を設定するための入力を受信する段階と、
    前記受信した入力により設定されたROIに少なくとも基づいて前記第2カメラを制御する段階をさらに有し、
    前記第3イメージを取得する動作は、前記駆動部によって調節された第2カメラのレンズ部の前記第1方向及び前記第2方向に対応する前記設定されたROIに対する第2イメージ及び第3イメージを取得する段階を含むことを特徴とする請求項10記載の電子装置の映像処理方法。
JP2018141098A 2017-07-27 2018-07-27 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法 Active JP7185434B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0095468 2017-07-27
KR1020170095468A KR102328539B1 (ko) 2017-07-27 2017-07-27 복수의 카메라를 이용하여 영상을 획득하기 위한 전자 장치 및 이를 이용한 영상 처리 방법

Publications (2)

Publication Number Publication Date
JP2019030007A JP2019030007A (ja) 2019-02-21
JP7185434B2 true JP7185434B2 (ja) 2022-12-07

Family

ID=63207501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141098A Active JP7185434B2 (ja) 2017-07-27 2018-07-27 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法

Country Status (5)

Country Link
US (1) US10956774B2 (ja)
EP (1) EP3435655B1 (ja)
JP (1) JP7185434B2 (ja)
KR (1) KR102328539B1 (ja)
CN (1) CN109309796B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200101180A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 이미지 안정화를 위한 전자 장치 및 그의 동작 방법
KR20200117695A (ko) 2019-04-05 2020-10-14 삼성전자주식회사 외부 전자 장치를 이용하여 카메라를 제어하는 전자 장치 및 방법
US11886642B2 (en) * 2019-04-24 2024-01-30 Hubbell Incorporated System and method for integrated surveillance and communication into lighting equipment
CN110278360B (zh) * 2019-06-28 2021-03-23 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
US11606504B2 (en) 2019-09-10 2023-03-14 Samsung Electronics Co., Ltd. Method and electronic device for capturing ROI
CN111556219A (zh) * 2020-01-21 2020-08-18 神盾股份有限公司 图像扫描装置及图像扫描方法
CN111405087B (zh) * 2020-03-05 2022-12-09 维沃移动通信有限公司 一种电子产品及其摄像方法
CN114095641A (zh) * 2020-07-21 2022-02-25 珠海格力电器股份有限公司 一种图像的显示方法和装置
CN113973171B (zh) * 2020-07-23 2023-10-10 宁波舜宇光电信息有限公司 多摄摄像模组、摄像***、电子设备和成像方法
CN114697658A (zh) * 2020-12-31 2022-07-01 华为技术有限公司 编解码方法、电子设备、通信***以及存储介质
CN117880628A (zh) * 2021-08-11 2024-04-12 荣耀终端有限公司 拍摄方法及其相关设备
KR102350853B1 (ko) * 2021-10-18 2022-01-13 주식회사 스튜디오레논 투명 디스플레이 장치를 이용한 영상 표시 시스템 및 이를 이용한 영상 표시 방법
KR20230071408A (ko) * 2021-11-16 2023-05-23 삼성전자주식회사 프리뷰 이미지를 제공하는 방법 및 그 전자 장치
CN116170693B (zh) * 2023-04-25 2023-07-21 山西乐宸科技有限公司 一种安防监控***控制方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134375A (ja) 2001-10-26 2003-05-09 Matsushita Electric Works Ltd 画像撮影システム
JP2005303694A (ja) 2004-04-13 2005-10-27 Konica Minolta Holdings Inc 複眼撮像装置
WO2012001755A1 (ja) 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、情報処理装置および情報処理方法
WO2015016002A1 (ja) 2013-08-01 2015-02-05 富士フイルム株式会社 撮像モジュール及び電子機器

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5962841A (ja) 1982-10-01 1984-04-10 Minolta Camera Co Ltd フレ−ミング用ミラ−を有する薄型偏平形状カメラ
US4560261A (en) 1982-05-07 1985-12-24 Minolta Camera Kabushiki Kaisha Flat camera with self photograph framing mirror
JP2000059606A (ja) 1998-08-12 2000-02-25 Minolta Co Ltd 高精細画像作成システム
US6727954B1 (en) 1998-08-12 2004-04-27 Minolta Co., Ltd. Electronic camera and image processing system
JP4587166B2 (ja) * 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法
CN101127829A (zh) 2006-08-15 2008-02-20 沈洪 多场景摄像装置
US8199212B2 (en) 2008-05-03 2012-06-12 Olympus Imaging Corp. Image recording and playback device, and image recording and playback method
JP2009272840A (ja) 2008-05-03 2009-11-19 Olympus Imaging Corp 画像記録再生装置、画像記録再生方法、画像処理装置、および画像処理方法
JP4513905B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 信号処理装置、信号処理方法、プログラム及び記録媒体
US20120075489A1 (en) 2010-09-24 2012-03-29 Nishihara H Keith Zoom camera image blending technique
JP2012133185A (ja) * 2010-12-22 2012-07-12 Olympus Corp 撮像装置
JP5843751B2 (ja) * 2012-12-27 2016-01-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
EP2979445A4 (en) 2013-03-27 2016-08-10 Bae Sys Inf & Elect Sys Integ ELECTROOPTICAL FUSION ZOOM CAMERA WITH SEVERAL VIEW FIELDS AND MULTIPLE SENSORS
US20150131924A1 (en) * 2013-11-13 2015-05-14 Microsoft Corporation Creation of Rectangular Images from Input Images
US20180157885A1 (en) * 2014-04-23 2018-06-07 Suleyman Ataullah Gurzumar Digital image capturing method and electronic device for digital image capturing
KR102157675B1 (ko) * 2014-07-25 2020-09-18 삼성전자주식회사 촬영 장치 및 그 촬영 방법
JP6600163B2 (ja) * 2014-08-19 2019-10-30 キヤノン株式会社 像振れ補正装置及びその制御方法
US9426362B2 (en) 2015-01-16 2016-08-23 Mems Drive, Inc. Three-axis OIS for super-resolution imaging
CN106161922B (zh) * 2015-04-22 2019-05-14 北京智谷睿拓技术服务有限公司 图像采集控制方法和装置
US10291842B2 (en) * 2015-06-23 2019-05-14 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of operating the same
WO2017010440A1 (ja) * 2015-07-10 2017-01-19 株式会社ニコン 撮像装置、撮像光学系、撮像装置の製造方法および撮像方法
WO2017092804A1 (en) * 2015-12-02 2017-06-08 Telefonaktiebolaget Lm Ericsson (Publ) Electronic device and method for controlling cameras thereof
US9674504B1 (en) * 2015-12-22 2017-06-06 Aquifi, Inc. Depth perceptive trinocular camera system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134375A (ja) 2001-10-26 2003-05-09 Matsushita Electric Works Ltd 画像撮影システム
JP2005303694A (ja) 2004-04-13 2005-10-27 Konica Minolta Holdings Inc 複眼撮像装置
WO2012001755A1 (ja) 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、情報処理装置および情報処理方法
WO2015016002A1 (ja) 2013-08-01 2015-02-05 富士フイルム株式会社 撮像モジュール及び電子機器

Also Published As

Publication number Publication date
US10956774B2 (en) 2021-03-23
EP3435655A1 (en) 2019-01-30
CN109309796B (zh) 2021-07-27
KR20190012465A (ko) 2019-02-11
KR102328539B1 (ko) 2021-11-18
JP2019030007A (ja) 2019-02-21
CN109309796A (zh) 2019-02-05
US20190034756A1 (en) 2019-01-31
EP3435655B1 (en) 2023-02-22

Similar Documents

Publication Publication Date Title
JP7185434B2 (ja) 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法
KR102338576B1 (ko) 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
KR102385360B1 (ko) 이미지 보정을 수행하는 전자 장치 및 그 동작 방법
US11461910B2 (en) Electronic device for blurring image obtained by combining plural images based on depth information and method for driving the electronic device
KR102318013B1 (ko) 복수의 이미지들을 합성하는 전자장치 및 방법
KR102386385B1 (ko) 전자 장치 및 전자 장치의 이미지 압축 방법
US11582391B2 (en) Electronic device capable of controlling image display effect, and method for displaying image
KR102383134B1 (ko) 우선 순위에 기반하여 이미지를 처리하는 전자 장치 및 그 동작 방법
CN109413399B (zh) 使用深度图合成对象的装置及其方法
KR102382871B1 (ko) 렌즈의 포커스를 제어하기 위한 전자 장치 및 전자 장치 제어 방법
US11509815B2 (en) Electronic device and method for processing image having human object and providing indicator indicating a ratio for the human object
US11626447B2 (en) Electronic device comprising image sensor for identifying an operation setting and an external environmental condition and method of operation thereof
KR102330264B1 (ko) 움직임 정보에 기반하여 동영상을 재생하기 위한 장치 및 그의 동작 방법
KR102650217B1 (ko) 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
US10911687B2 (en) Electronic device and method for controlling display of images
EP3675477B1 (en) Electronic device for providing function by using rgb image and ir image acquired through one image sensor
CN114096984A (zh) 从通过拼接部分图像而创建的全向图像中去除图像捕获装置
KR102457559B1 (ko) 이미지에 포함된 오브젝트에 기반하여 이미지를 보정하기 위한 전자 장치 및 방법
KR102301940B1 (ko) 이미지 합성 방법 및 장치
CN108476290B (zh) 用于提供全景图像的电子装置及其控制方法
KR20190065736A (ko) 3d 이미지를 생성하기 위한 전자 장치 및 방법
RU2782312C1 (ru) Способ обработки изображения и устройство отображения, устанавливаемое на голове
KR20210140945A (ko) 멀티 카메라를 이용하여 화질 개선하는 전자 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221125

R150 Certificate of patent or registration of utility model

Ref document number: 7185434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150