JP7311418B2 - 焦点合わせの方法、端末、およびコンピュータ可読記憶媒体 - Google Patents

焦点合わせの方法、端末、およびコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP7311418B2
JP7311418B2 JP2019544741A JP2019544741A JP7311418B2 JP 7311418 B2 JP7311418 B2 JP 7311418B2 JP 2019544741 A JP2019544741 A JP 2019544741A JP 2019544741 A JP2019544741 A JP 2019544741A JP 7311418 B2 JP7311418 B2 JP 7311418B2
Authority
JP
Japan
Prior art keywords
interest
region
face
focusing
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019544741A
Other languages
English (en)
Other versions
JP2020511685A (ja
Inventor
リ、シャオペン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020511685A publication Critical patent/JP2020511685A/ja
Application granted granted Critical
Publication of JP7311418B2 publication Critical patent/JP7311418B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本開示は、焦点合わせ技術の分野に関し、詳細には、焦点合わせの方法、端末、およびコンピュータ可読記憶媒体に関する。
スマート端末の急速な発展に伴い、スマート端末の撮影機能は、特に人々を撮影するためにますます頻繁に使用されるようになってきている。ショッピングモール、アトラクション、および関心のある場所は、集合写真または自撮り写真を撮っている人をよく見ることができる。現在の業界では、端末内のカメラは、通常、顔領域の検出に基づいて焦点合わせがトリガされる技術である、フェイスフォーカス機能をサポートする。すなわち、顔を最も鮮明な焦点として焦点合わせおよび撮影が実現される。
顔を撮影するとき、取得される顔の関心領域(ROI)が安定した後に、自動焦点(AF)モードが、通常、撮影を完了するためにトリガされる。しかしながら、撮影中の被写体の動きは、取得される写真をぼかす可能性がある。
本開示の実施形態は、高速かつ正確な焦点合わせで動く顔を鮮明に撮影できることを保証することが可能な焦点合わせの方法、端末、およびコンピュータ可読記憶媒体を提供する。
一態様によれば、焦点合わせの方法が提供される。方法は、撮影プレビューモードで画像内の顔の関心領域を取得するステップと、第1の焦点合わせモードで顔の関心領域に焦点を合わせるステップと、第1の焦点合わせモードにおける顔の関心領域が安定しているかどうかを判定するステップと、第1の焦点合わせモードにおける顔の関心領域が安定しているという判定に応答して、顔の関心領域に再び焦点を合わせるために第2の焦点合わせモードをトリガするステップであって、第1の焦点合わせモードが第2の焦点合わせモードとは異なる、ステップとを含む。
別の態様によれば、端末が提供される。端末は、撮像デバイス、表示デバイス、メモリ、プロセッサ、およびコンピュータプログラムを含む。コンピュータプログラムはメモリに記憶され、1つまたは複数の動作を実施するためにプロセッサによって実行されるように構成される。1つまたは複数の動作は、撮影プレビューモードで画像内の顔の関心領域を取得することと、第1の焦点合わせモードで顔の関心領域に焦点を合わせることと、第1の焦点合わせモードにおける顔の関心領域が安定しているかどうかを判定することと、第1の焦点合わせモードにおける顔の関心領域が安定しているという判定に応答して、顔の関心領域に再び焦点を合わせるために第2の焦点合わせモードをトリガすることであって、第1の焦点合わせモードが第2の焦点合わせモードとは異なる、トリガすることとを含む。
さらに、コンピュータプログラムを記憶しているコンピュータ可読記憶媒体が提供される。コンピュータプログラムは、1つまたは複数の動作を実施するためにプロセッサによって実行されるように構成される。1つまたは複数の動作は、撮影プレビューモードで画像内の顔の関心領域を取得することと、第1の焦点合わせモードで顔の関心領域に焦点を合わせることと、第1の焦点合わせモードにおける顔の関心領域が安定しているかどうかを判定することと、第1の焦点合わせモードにおける顔の関心領域が安定しているという判定に応答して、顔の関心領域に再び焦点を合わせるために第2の焦点合わせモードをトリガすることであって、第1の焦点合わせモードが第2の焦点合わせモードとは異なる、トリガすることとを含む。
本技術の他の特徴は、以下の発明を実施するための形態に含まれる情報を考慮することから明らかになる。
本開示の技術スキームをよりよく示すために、本明細書で使用される添付図面の簡単な説明が以下に与えられる。明らかに、以下に列挙される図面は単なる実施形態であり、当業者は、創造的な活動なしにこれらの例示的な図面に基づいて他の図面も得ることができることに留意されたい。
一実施形態における端末の内部構造の概略図である。 一実施形態における焦点合わせの方法の流れ図である。 一実施形態における人物の顔の関心領域を示す図である。 別の実施形態における焦点合わせの方法の流れ図である。 一実施形態における焦点合わせデバイスの構造ブロック図である。 一実施形態において、コンピュータプログラムを実行するときに端末プロセッサによって実施されるステップの流れ図である。 一実施形態において、コンピュータ可読記憶媒体に記憶されたコンピュータプログラム(命令)がプロセッサによって実行されるときに実施される動作の流れ図である。
本開示の目的、技術的解決策、および利点をより明確にするために、添付図面および実施形態を参照して本開示がさらに詳細に記載される。本明細書に記載された具体的な実施形態は、本開示を説明するためにのみ使用され、同じものに限定されるものではないことを理解されたい。
添付の図面を参照して、本開示の様々な実施形態における端末が次に記載される。以下の説明では、要素を表すための「モジュール」または「ユニット」などの語句は、説明を容易にするために使用されるにすぎず、特定の意味を有するものではない。したがって、「モジュール」および「ユニット」は混在して使用することができる。
一実施形態で提供される焦点合わせデバイスは、コンピュータまたはモバイル端末を含む、撮影することが可能な端末などの端末に適用されてもよい。
端末は様々な形態で実装することができる。たとえば、本開示に記載される端末は、携帯電話、スマートフォン、ノートブックコンピュータ、携帯情報端末(PDA)、タブレット(PAD)、携帯型マルチメディアプレーヤ(PMP)、ナビゲーションデバイスなどのモバイル端末、およびデジタルテレビ、デスクトップコンピュータなどの固定デバイスを含んでもよい。以下では、端末がモバイル端末であると仮定する。しかしながら、特に移動の目的で使用される要素を除いて、本実施形態による構成は固定タイプの端末にも適用できることを当業者なら理解されよう。図1は、一実施形態における端末の内部構造の概略図である。図1に示されたように、端末は、システムバスを介して接続された撮像デバイス110、プロセッサ120、メモリ130、内部メモリ140、ネットワークインターフェース150、スピーカ160、表示デバイス170、および入力デバイス180を含む。端末のメモリ130は、オペレーティングシステムおよびコンピュータ可読命令を記憶する。コンピュータ可読命令は、焦点合わせの方法を実施するためにプロセッサ120によって実行される。プロセッサ120は、計算機能および制御機能を提供して端末全体の動作をサポートするために使用される。端末内の内部メモリ140は、メモリ130内のコンピュータ可読命令を実行するための環境を提供する。ネットワークインターフェース150は、サーバとのネットワーク通信に使用される。端末の表示スクリーン170は、液晶ディスプレイまたは電子インクディスプレイであってもよく、入力デバイス180は、表示スクリーンを覆うタッチ層、ボタン、トラックボール、または端末筐体に設けられたタッチパッドであってもよく、外付けキーボード、タッチパッド、またはマウスであってもよい。当業者は、図1に示された構造が本開示の解決策に関連する部分的な構造の単なるブロック図であり、本出願の解決策が適用される端末に対する制限を構成しないことを理解することができる。具体的な端末は、図に示された構成要素よりも多いかもしくは少ない構成要素、またはいくつかの構成要素の組合せ、または様々な構成要素の配置を含んでもよい。
図2は、一実施形態における焦点合わせの方法のフローチャートである。本実施形態では、焦点合わせの方法が提供される。210において、画像内の顔の関心領域が撮影プレビューモードで取得される。
本開示のこの実施形態で提供される焦点合わせの方法は、端末上で撮影が行われるシーンにおいて実施されることに留意されたい。ユーザが写真を撮りたいとき、端末の撮像デバイス110を起動することができる。撮像デバイス110は、フロントカメラ、リアカメラ、デュアルカメラなどであってもよい。撮影プレビューモードに入るために端末の撮像デバイス110が起動される。画像内の顔が事前設定された顔認識アルゴリズムによって検出され、画像内の顔の位置情報が取得される。通常、画像内の顔は顔枠によって囲むことができ、その顔枠の境界パラメータ情報が顔位置情報と見なされる。顔枠は、ボックス、丸みを帯びたボックス、または他の幾何学的な閉じたボックスであり得る。
具体的には、顔枠がボックスである場合、顔位置情報は、顔枠の始点の水平および垂直の座標情報、顔枠の長さ情報、ならびに顔枠の幅情報を含む。
検出された顔の位置情報によれば、取得された顔の位置情報は、事前設定されたオートフォーカスアルゴリズム(AF)により、焦点合わせプロセスに必要な顔の関心領域(ROI)の情報に変換されてもよい。顔の関心領域は、機械視覚および画像処理の分野では、処理画像からボックス、円、楕円、不規則な多角形などを含む様々な形状で輪郭を描かれた処理されるべき領域である。Halcon、OpenCV、Matlabなどの機械視覚ソフトウェアでは、顔の関心領域を取得し、画像処理の次のステップを実行するために、様々な演算子および関数が一般的に使用される。一般に、上記の変換プロセスは、顔の関心領域を形成するように顔枠を拡大および/または伸張することである。
具体的には、本開示の実施形態では、顔の関心領域は、処理画像から輪郭を描かれたボックス内で処理されるべき領域である。顔の関心領域の位置情報は、ボックスの境界座標パラメータ情報である。図3を参照すると、境界座標パラメータ情報は、ボックスのある頂点の水平および垂直の座標情報O(x,y)、ボックスの長さ情報L、および幅情報Wを含む。
220において、方法は、第1の焦点合わせモードで顔の関心領域に焦点を合わせることに進む。
たとえば、第1の焦点合わせモードは、PDAFモードと略される位相検出オートフォーカスモードであってもよい。各フレーム内の顔の関心領域は、PDAFモードで焦点を合わせることができる。PDAFモードの原理は、感光素子上の位相検出に特化したいくつかの遮蔽されたピクセルを確保し、ピクセル間の距離およびその変化に従って焦点合わせのオフセット値を決定することであり、それにより、正確な焦点合わせが実現される。PDAFモードでは、オフセット値のみが検出され、「正確な焦点」または「不正確な焦点」の信号のみが提供される。焦点合わせシステムは、それにより、信号のピーク位置に従ってオフセットの方向を知ることができる。
具体的には、本実施形態では、PDAFモードは、オートフォーカスセンサとピクセルセンサを直接集積すること、すなわち、ピクセルセンサから左右一対のピクセル点を取り出して、シーン内の被写体の光量などの情報をそれぞれ検出することに関連する。左右の関連値を比較することにより、レンズモータが焦点合わせを完了するために対応する位置に一度でレンズを近づける前に、正確な焦点をすぐに見つけることが可能である。
PDAFはレンズの繰返しの動きを必要とせず、したがって、焦点合わせストロークはかなり短くなることができ、焦点合わせプロセスは巧妙かつ速い。PDAFのこれらの特性によって、顔が安定するのを待つ必要がなく、それにより、顔のリアルタイム追跡を実現することができる。
230において、方法は、第1の焦点合わせモードにおける顔の関心領域が安定しているかどうかを判定することに進む。
240において、第1の焦点合わせモードにおける顔の関心領域が安定しているという判定に応答して、顔の関心領域に再び焦点を合わせるために第2の焦点合わせモードがトリガされる。第1の焦点合わせモードは第2の焦点合わせモードとは異なる。
第1の焦点合わせモードにおける顔の関心領域が安定しているかどうかを判定することにより、第1の焦点合わせモードにおける顔の関心領域が安定しているという判定に応答して、顔の関心領域に再び焦点を合わせるために、補助焦点合わせモードであり得る第2の焦点合わせモードがトリガされる。このようにして、粗い焦点合わせモードであるPDAFによって実質的な焦点領域を迅速に決定することが可能であり、顔の関心領域が安定した後、最も正確な焦点位置を決定するために、補助焦点合わせモードで細かい焦点合わせが実行される。すなわち、PDAFモードおよび補助焦点合わせモードの組み合わされた焦点合わせにより、焦点合わせ時間を大幅に短縮することができ、顔の関心領域への自動焦点合わせを迅速かつ正確に実現することができる。
上記の焦点合わせの方法では、画像内で検出された位置情報に従って焦点合わせプロセスにおける顔の関心領域が決定され、顔の関心領域が決定されるとPDAFモードで焦点合わせが実行される。すなわち、顔が撮影プレビューモードで表示されている限り、顔はどのように動いても常に鮮明である。同時に、PDAFモードにおける顔の関心領域が安定しているとき、顔の関心領域に再び焦点を合わせるために、補助焦点合わせモードがトリガされる。PDAFモードおよび補助焦点合わせモードの組み合わされた焦点合わせにより、焦点合わせ時間を大幅に短縮することができ、顔の関心領域への自動焦点合わせを迅速かつ正確に実現することができる。
一実施形態では、顔の関心領域の安定性を判定するための基準は、連続するN個のフレーム内の第1の焦点合わせモードにおける顔の関心領域の位置情報を取得することと、顔の関心領域の位置情報が変化しているかどうかを判定することとを含む。
具体的には、Nは3~5の範囲、すなわち3≦N≦5である。
N=3のとき、まず、第1のフレーム内の顔の関心領域の位置情報が検出され記憶される。次いで、第2のフレーム内の顔の関心領域の位置情報が取得され、第2のフレーム内の顔の関心領域の位置情報が、第1のフレーム内の顔の関心領域の位置情報に対して変化しているかどうかが判定される。第2のフレーム内の顔の関心領域の位置情報が変化している場合、それは、顔の関心領域が安定していないことを示す。変化が起きていない場合、第3のフレーム内の顔の関心領域の位置情報が取得され、第3のフレーム内の顔の関心領域の位置情報が、第1のフレーム内の顔の関心領域の位置情報に対して変化しているかどうかが判定される。第3のフレーム内の顔の関心領域の位置情報が変化している場合、それは、顔の関心領域が安定していないことを示す。変化が起きてない場合、それは、顔の関心領域が安定していることを示す。
場合によっては、N=4またはN=5のとき、連続するN個のフレーム内の顔の関心領域の安定性を判定するために、上記の方法をまた使用することができる。
一実施形態では、連続するN個のフレーム内の顔の関心領域の位置情報が変化しているかどうかを判定することは、連続するN個のフレームの顔の関心領域の境界座標パラメータ情報を取得し、それが変化しているかどうかを判定することを含む。具体的には、顔の関心領域は閉じたボックスであり、境界座標パラメータ情報は、ボックスのある頂点の水平および垂直の座標情報(O)、ボックスの長さ情報、および幅情報である。連続するN個のフレーム内の顔の関心領域の境界座標パラメータ情報内のパラメータのうちのいずれか1つが変化している場合、顔の関心領域は安定していないと考えられる。境界座標パラメータ情報内のすべてのパラメータが変化していない場合、顔の関心領域は安定していると考えられる。
一実施形態では、図4を参照すると、焦点合わせの方法が詳細に示される。440において、顔の関心領域が安定していないことが検出されると、第1の焦点合わせモードにおける顔の関心領域が安定するまで、第1の焦点合わせモードにおける顔の関心領域は、連続的にPDAFモードで焦点が合わされる。
ブロック410、420、430、および440は、図2の210、220、230、および240と一対一に対応し、詳細は本明細書では再び記載されない。
450における方法は以下のように理解されてもよい:第2のフレーム内の顔の関心領域の位置情報が第1のフレーム内の顔の関心領域の位置情報と一致しないとき、第2のフレーム内の顔の関心領域はPDAFモードで焦点が合わされる。第3のフレーム内の顔の関心領域の位置情報が第2のフレーム内の顔の関心領域の位置情報と一致しない場合、4番目から5番目のフレーム内の顔の関心領域の位置情報が第3のフレーム内の顔の関心領域の位置情報と一致するまで、第3のフレームモードにおける顔の関心領域は、PDAFモードで焦点が合わされる。
一実施形態では、補助焦点合わせモードはコントラスト焦点合わせモードである。
コントラスト焦点技術では、撮像デバイス110が焦点合わせを開始すると、駆動されたレンズが徐々に移動する。焦点領域の焦点値(FV)は、事前設定されたアルゴリズムに従ってレンズ移動プロセス中にリアルタイムで計算される。焦点値が徐々に大きくなり、焦点合わせにおいて(焦点領域の鮮明度が最も高い)フレームの焦点領域の最大値に達することがわかる。焦点値は、画像の鮮明度を表し、撮像デバイス110によって出力された画像を処理することによって取得される。一般に、焦点領域のコントラストが高いほど、画像の焦点値は大きくなる。したがって、コントラスト焦点合わせモードは、画像の最大焦点値に対応する焦点位置を見つけることによって焦点合わせを実現する。
具体的には、コントラスト焦点合わせモードでは、粗い走査は第1のステップ長においてより広い範囲の探索を実行する。モータの総ストロークが1000であると仮定すると、粗い走査プロセスにおいて、モータは第1のステップ長(80)で探索を開始し、モータが80の距離だけ移動するたびに焦点値が計算される。モータの移動中、焦点値が減少傾向にある位置(A)にモータが移動するまで、焦点値は徐々に増大する。この時点で、粗い走査プロセスは終了し、細かい走査が開始される。細かい走査は、粗い走査が終了したポイント(A)から第2のステップ長(30)で後方への探索を開始する。細かい走査のプロセスにおいて、モータが30の距離だけ移動するたびに焦点値が計算される。モータの移動中、焦点値が減少傾向にある特定の位置(B)にモータが移動するまで、焦点値は徐々に増大する。この時点で、細かい走査プロセスは終了する。モータの駆動距離、ならびに細かい走査のプロセスにおける位置A、位置B、およびAまたはBと一致しない位置Qにおける対応する焦点値が、それぞれ取得される。3つの位置に従って単純な二次関数が適合する。焦点合わせ時のフレームの焦点領域の最大焦点値である二次関数の頂点座標が取得される。それに応じて、駆動モータが2次関数の頂点の横座標に移動し、焦点合わせを実現することができる。
場合によっては、補助焦点合わせモードはレーザ焦点合わせモードであってもよい。
リアカメラに隣接して設置された赤外線レーザセンサにより、端末は、撮影される被写体に低出力のレーザビームを照射することができる。レーザビームが障害物、すなわち焦点対象に遭遇すると、それは戻ってきてセンサによって受け取られる。次いで、その移動時間に基づいて、センサと撮影される被写体との間の距離を計算することができる。レンズ間モータは、次いで、焦点合わせを完了するために対応する位置にレンズを直接近づけることができる。
加えて、本開示の一実施形態は焦点合わせデバイスをさらに提供する。図5を参照すると、焦点合わせデバイスは、取得モジュール510、第1の焦点合わせモジュール520、および第2の焦点モジュール530を含む。取得モジュール510は、撮影プレビューモードで画像内の顔の関心領域を取得するように構成される。第1の焦点合わせモジュール520は、第1の焦点合わせモードで顔の関心領域に焦点を合わせるように構成される。第2の焦点モジュール530は、第1の焦点合わせモードにおける顔の関心領域が安定しているかどうかを判定し、顔の関心領域が安定しているという判定に応答して、顔の関心領域に再び焦点を合わせるために第2の焦点合わせモードをトリガするように構成される。第1の焦点合わせモードは第2の焦点合わせモードとは異なる。一実施形態では、第1の焦点合わせモードは位相検出オートフォーカス(PDAF)モードであり、第2の焦点合わせモードは補助焦点合わせモードである。
焦点合わせデバイスにおいて、取得モジュール510は、画像内で検出された位置情報に従って、焦点合わせプロセスにおける顔の関心領域を取得することができる。顔の関心領域が決定されると、第1の焦点合わせモジュール520は、PDAFモードで焦点合わせプロセスを実行することができる。すなわち、顔が撮影プレビューモードで表示されている限り、顔はどのように動いても常に鮮明である。一方、顔の関心領域が安定しているとき、第2の焦点モジュール530は、顔の関心領域に再び焦点を合わせるために、補助焦点合わせモードをトリガする。PDAFモードおよび補助焦点合わせモードの組み合わされた焦点合わせにより、焦点合わせ時間を大幅に短縮することができ、顔の関心領域への自動焦点合わせを迅速かつ正確に実現することができる。
一実施形態では、第2の焦点合わせモジュール530は、検出ユニット531、判定ユニット533、制御ユニット535、および焦点合わせユニット537を含む。検出ユニット531は、連続するN個のフレーム内の顔の関心領域の位置情報を検出するように構成される。判定ユニット533は、連続するN個のフレーム内の顔の関心領域の位置情報が変化しているかどうかを判定するように構成される。制御ユニット535は、判定ユニット533の判定結果に従って、顔の関心領域が安定しているか否かを判定し、顔の関心領域が安定しているときは第1の焦点信号を生成し、顔の関心領域が安定していないときは第2の焦点信号を生成するように構成される。焦点合わせユニット537は、第2の焦点信号を受信し、顔の関心領域に再び焦点を合わせるために補助焦点合わせモードをトリガするように構成される。
具体的には、Nは3~5の範囲、すなわち3≦N≦5である。
N=3のとき、まず、第1のフレーム内の顔の関心領域の位置情報が検出され記憶される。次いで、第2のフレーム内の顔の関心領域の位置情報が検出され、第2のフレーム内の顔の関心領域の位置情報が、第1のフレーム内の顔の関心領域の位置情報に対して変化しているかどうかが判定される。第2のフレーム内の顔の関心領域の位置情報が変化している場合、それは、顔の関心領域が安定していないことを示す。変化が起きていない場合、第3のフレーム内の顔の関心領域の位置情報が検出され、第3のフレーム内の顔の関心領域の位置情報が、第1のフレーム内の顔の関心領域の位置情報に対して変化しているかどうかが判定される。位置情報が変化している場合、それは、顔の関心領域が安定していないことを示す。変化が起きてない場合、それは、顔の関心領域が安定していることを示す。
場合によっては、N=4またはN=5のとき、連続するN個のフレーム内の顔の関心領域の安定性を判定するために、上記のデバイスをまた使用することができる。
制御ユニット535は、判定ユニット533の判定結果に従って顔の関心領域の安定性を判定し、顔の関心領域が安定していないときに第2の焦点信号を生成することができる。焦点合わせユニット537は、第2の焦点信号を受信し、顔の関心領域に再び焦点を合わせるために補助焦点合わせモードをトリガする。
一実施形態では、補助焦点合わせモードはコントラスト焦点合わせモードである。
コントラスト焦点技術では、撮像デバイス110が焦点合わせを開始すると、駆動されたレンズが徐々に移動する。焦点領域の焦点値(FV)は、事前設定されたアルゴリズムに従ってレンズ移動プロセス中にリアルタイムで計算される。焦点値が徐々に大きくなり、焦点合わせにおいて(焦点領域の鮮明度が最も高い)フレームの焦点領域の最大値に達することがわかる。焦点値は、画像の鮮明度を表し、撮像デバイス110によって出力された画像を処理することによって取得される。一般に、焦点領域のコントラストが高いほど、画像の焦点値は大きくなる。したがって、コントラスト焦点合わせモードは、画像の最大焦点値に対応する焦点位置を見つけることによって焦点合わせを実現する。
場合によっては、補助焦点合わせモードはレーザ焦点合わせモードであってもよい。
リアカメラに隣接して設置された赤外線レーザセンサにより、端末は、撮影される被写体に低出力のレーザビームを照射することができる。レーザビームが障害物、すなわち焦点対象に遭遇すると、それは戻ってきてセンサによって受け取られる。次いで、その移動時間に基づいて、センサと撮影される被写体との間の距離を計算することができる。レンズ間モータは、次いで、焦点合わせを完了するために対応する位置にレンズを直接近づけることができる。
一実施形態では、第1の焦点モジュール520は、第1の焦点信号を受信し、顔の関心領域が安定するまでPDAFモードを連続的に使用して顔の関心領域に焦点を合わせるようにさらに構成される。
第2のフレーム内の顔の関心領域の位置情報が第1のフレーム内の顔の関心領域の位置情報と一致しない場合、第1の焦点モジュール520は、PDAFモードで第2のフレーム内の顔の関心領域に連続的に焦点を合わせることができると理解されてもよい。第3のフレーム内の顔の関心領域の位置情報が第2のフレーム内の顔の関心領域の位置情報とまだ一致しない場合、第1の焦点モジュール520は、4番目から5番目のフレーム内の顔の関心領域の位置情報が第3のフレーム内の顔の関心領域の位置情報と一致するまで、PDAFモードで第3のフレーム内の顔の関心領域に連続的に焦点を合わせることができる。
PDAFモードにおける顔の関心領域の位置情報は、顔の関心領域の境界座標パラメータ情報である。
具体的には、顔の関心領域は閉じたボックスであり、境界座標パラメータ情報は、ボックスのある頂点の水平および垂直の座標情報(O)、ボックスの長さ情報、および幅情報である。連続するN個のフレーム内の顔の関心領域の境界座標パラメータ情報内のパラメータのうちのいずれか1つが変化している場合、顔の関心領域は安定していないと考えられる。境界座標パラメータ情報内のすべてのパラメータが変化していない場合、顔の関心領域は安定していると考えられる。
上述された焦点合わせデバイス内の各モジュールの分割は、例示のためにのみ使用されている。他の実施の形態では、焦点合わせデバイスは、必要に応じて様々なモジュールに分割されて、上述された焦点合わせデバイスの機能の全部または一部を完成することができる。
本開示の実施形態は端末も提供する。図1に示されたように、説明を容易にするために、本開示の実施形態に関連する部分のみが示される。開示されない具体的な技術的詳細については、本開示の実施形態の方法部分を参照されたい。端末は、撮像デバイス110、プロセッサ120、メモリ130、表示デバイス170、およびメモリに記憶されプロセッサ120上で動作可能なコンピュータプログラムを含む。
本開示の実施の形態では、端末に含まれるプロセッサ120は、メモリに記憶されたコンピュータプログラムを実行するときに1つまたは複数の動作を実施することができる。1つまたは複数の動作は、610において、撮影プレビューモードで画像内の顔の関心領域を取得することを含む。620において、顔の関心領域は第1の焦点合わせモードで焦点が合わされる。630において、第1の焦点合わせモードにおける顔の関心領域が安定しているかどうかが判定される。640において、第1の焦点合わせモードにおける顔の関心領域が安定しているという判定に応答して、顔の関心領域に再び焦点を合わせるために、第2の焦点合わせモードがトリガされる。第1の焦点合わせモードは第2の焦点合わせモードとは異なる。一実施形態では、第1の焦点合わせモードは位相検出オートフォーカス(PDAF)モードであり、第2の焦点合わせモードはコンタクト焦点合わせモードまたはレーザ焦点合わせモードである。
端末のプロセッサ120によってコンピュータプログラムを実行すると、画像内で検出された位置情報に従って焦点合わせプロセスにおける顔の関心領域を決定することができ、顔の関心領域が決定されるとPDAFモードで焦点合わせが実行される。すなわち、顔が撮影プレビューモードで表示されている限り、顔がどのように動いても顔は常に鮮明である。同時に、PDAFモードにおける顔の関心領域が安定しているとき、顔の関心領域に再び焦点を合わせるために、補助焦点合わせモードがトリガされる。PDAFモードおよび補助焦点合わせモードの組み合わされた焦点合わせにより、焦点合わせ時間を大幅に短縮することができ、顔の関心領域への自動焦点合わせを迅速かつ正確に実現することができる。
図7は、一実施形態において、コンピュータ可読記憶媒体に記憶されたコンピュータプログラム(命令)がプロセッサ120によって実行されるときに実施される動作の流れ図である。図7に示されたように、コンピュータ可読記憶媒体はコンピュータプログラム(命令)を記憶しており、プログラム(命令)は1つまたは複数の動作を実施するためにプロセッサ120によって実行される。1つまたは複数の動作は、710において、撮影プレビューモードで画像内の顔の関心領域を取得することを含む。720において、顔の関心領域は第1の焦点合わせモードで焦点が合わされる。730において、第1の焦点合わせモードにおける顔の関心領域が安定しているかどうかが判定される。740において、第1の焦点合わせモードにおける顔の関心領域が安定しているという判定に応答して、顔の関心領域に再び焦点を合わせるために、補助焦点合わせモードがトリガされる。第1の焦点合わせモードは第2の焦点合わせモードとは異なる。一実施形態では、第1の焦点合わせモードは位相検出オートフォーカス(PDAF)モードであり、第2の焦点合わせモードはコンタクト焦点合わせモードまたはレーザ焦点合わせモードである。
コンピュータ可読記憶媒体に記憶されたコンピュータプログラム(命令)が実行されると、画像内で検出された位置情報に従って焦点合わせプロセスにおける顔の関心領域を決定することができ、顔の関心領域が決定されるとPDAFモードで焦点合わせが実行される。すなわち、顔が撮影プレビューモードで表示されている限り、顔はどのように動いても常に鮮明である。同時に、PDAFモードにおける顔の関心領域が安定しているとき、顔の関心領域に再び焦点を合わせるために、補助焦点合わせモードがトリガされる。PDAFモードおよび補助焦点合わせモードの組み合わされた焦点合わせにより、焦点合わせ時間を大幅に短縮することができ、顔の関心領域への自動焦点合わせを迅速かつ正確に実現することができる。
上述された実施形態の技術的特徴は、任意に組み合わされてもよい。説明を簡潔にするために、上記の実施形態における技術的特徴のすべての可能な組合せが記載されているわけではない。しかしながら、組合せに矛盾がない限り、これらの技術的特徴の任意の組合せは、本明細書に記載されていると考えられるべきである。
上述された実施形態は、単に本開示のいくつかの実装形態を表すものであり、その説明はより具体的かつ詳細であるが、開示特許の範囲が限定されると理解されるべきではない。当業者にとって、本開示の概念から逸脱することなくいくつかの変形および改良が行われてもよく、これらはすべて本開示の保護範囲内であることに留意されたい。したがって、本開示の保護範囲は添付の特許請求の範囲に従うべきである。

Claims (3)

  1. 撮影プレビューモードで画像内の顔の関心領域を取得するステップと、
    位相検出オートフォーカスモードで前記顔の関心領域に焦点を合わせるステップと、
    前記位相検出オートフォーカスモードにおける前記顔の関心領域が安定しているかどうかを判定するステップと、
    前記位相検出オートフォーカスモードにおける前記顔の関心領域が安定しているという判定に応答して、前記顔の関心領域に再び焦点を合わせるためにレーザ焦点合わせモードをトリガするステップと、を含み、
    前記位相検出オートフォーカスモードにおける前記顔の関心領域が安定しているかどうかを判定するステップが、
    第1のフレーム内の前記顔の関心領域の位置情報を取得するステップであって、前記第1のフレームが、前記顔の関心領域が前記位相検出オートフォーカスモードで焦点が合わされたフレームである、ステップと、
    第2のフレームから数えて連続するN-1個のフレーム内の前記顔の関心領域の位置情報を取得し、前記連続するN-1個のフレームの各々の中の前記顔の関心領域の前記位置情報と、前記第1のフレーム内の前記顔の関心領域の前記位置情報との間の差が事前設定されたしきい値を超えるかどうかを判定し、3≦N≦5である、ステップと、
    前記連続するN-1個のフレームの各々の中の前記顔の関心領域の前記位置情報と前記第1のフレーム内のそれとの間の前記差が事前設定されたしきい値を超えない場合、前記連続するN個のフレーム内の前記顔の関心領域の前記位置情報が変化していないと判定するステップと、
    前記連続するN-1個のフレームの各々の中の前記顔の関心領域の前記位置情報と前記第1のフレーム内のそれとの間の前記差が事前設定されたしきい値を超える場合、前記連続するN個のフレーム内の前記顔の関心領域の前記位置情報が変化していると判定するステップと、
    前記顔の関心領域の前記位置情報が変化していないという前記判定に応答して、前記位相検出オートフォーカスモードにおける前記顔の関心領域が安定していると判定するステップと、
    前記顔の関心領域の前記位置情報が変化しているという前記判定に応答して、前記位相検出オートフォーカスモードにおける前記顔の関心領域が安定していないと判定するステップと、を含むものであり、
    前記位相検出オートフォーカスモードにおける前記顔の関心領域の前記位置情報が、前記顔の関心領域の境界座標パラメータ情報であり、
    前記位相検出オートフォーカスモードにおける前記顔の関心領域が安定するまで、前記位相検出オートフォーカスモードで前記顔の関心領域に連続的に焦点を合わせるステップ をさらに含み、
    前記顔の関心領域が安定するまで、前記位相検出オートフォーカスモードで前記顔の関心領域に連続的に焦点を合わせる前記ステップが、
    前記連続するN-1個のフレームのうちの第nのフレーム内の前記顔の関心領域の前記位置情報と前記第1のフレーム内のそれとの間の前記差が事前設定されたしきい値を超えるとき、前記位相検出オートフォーカスモードで前記第nのフレーム内の前記顔の関心領域に焦点を合わせ、前記第nのフレーム内の前記顔の関心領域の前記位置情報を取得するステップと、
    前記第nのフレームから数えて連続するN-1個のフレーム内の前記顔の関心領域の位置情報を取得し、前記連続するN-1個のフレームの各々の中の前記顔の関心領域の前記位置情報と、前記第nのフレーム内の前記顔の関心領域の前記位置情報との間の差が事前設定されたしきい値を超えるかどうかを判定するステップと
    を含むことを特徴とする、焦点合わせの方法。
  2. 撮像デバイス、表示デバイス、メモリ、プロセッサ、および前記メモリに記憶され前記プロセッサ上で実行可能なコンピュータプログラムを備える端末であって、前記プロセッサが前記コンピュータプログラムを実行して請求項1に記載の方法を実施する、端末。
  3. コンピュータプログラムを記憶したコンピュータ可読記憶媒体であって、前記コンピュータプログラムが、請求項1に記載の方法を実施するためにプロセッサによって実行されるように構成されることを特徴とする、コンピュータ可読記憶媒体。
JP2019544741A 2017-06-16 2018-06-14 焦点合わせの方法、端末、およびコンピュータ可読記憶媒体 Active JP7311418B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710459606.5 2017-06-16
CN201710459606.5A CN107257433B (zh) 2017-06-16 2017-06-16 对焦方法、装置、终端和计算机可读存储介质
PCT/CN2018/091352 WO2018228503A1 (en) 2017-06-16 2018-06-14 Method of focusing, terminal, and computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2020511685A JP2020511685A (ja) 2020-04-16
JP7311418B2 true JP7311418B2 (ja) 2023-07-19

Family

ID=60023077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019544741A Active JP7311418B2 (ja) 2017-06-16 2018-06-14 焦点合わせの方法、端末、およびコンピュータ可読記憶媒体

Country Status (7)

Country Link
US (1) US10602055B2 (ja)
EP (1) EP3416373B1 (ja)
JP (1) JP7311418B2 (ja)
KR (1) KR102137921B1 (ja)
CN (1) CN107257433B (ja)
ES (1) ES2856336T3 (ja)
WO (1) WO2018228503A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10579871B2 (en) * 2016-02-03 2020-03-03 Hefei Xu Biometric composite imaging system and method reusable with visible light
CN107257433B (zh) 2017-06-16 2020-01-17 Oppo广东移动通信有限公司 对焦方法、装置、终端和计算机可读存储介质
CN107911618A (zh) * 2017-12-27 2018-04-13 上海传英信息技术有限公司 拍照的处理方法、终端及终端可读存储介质
CN108401109B (zh) * 2018-03-18 2020-08-04 Oppo广东移动通信有限公司 图像获取方法、装置、存储介质及电子设备
CN110545384B (zh) * 2019-09-23 2021-06-08 Oppo广东移动通信有限公司 对焦方法和装置、电子设备、计算机可读存储介质
CN112352417B (zh) * 2019-10-31 2022-03-29 深圳市大疆创新科技有限公司 拍摄设备的对焦方法、拍摄设备、***及存储介质
CN111031249B (zh) * 2019-12-26 2021-07-13 维沃移动通信有限公司 辅助对焦的方法及电子设备
CN111491105B (zh) * 2020-04-24 2021-07-27 Oppo广东移动通信有限公司 移动终端的对焦方法、移动终端及计算机存储介质
CN113170053A (zh) * 2020-07-24 2021-07-23 深圳市大疆创新科技有限公司 拍摄方法、拍摄装置及存储介质
CN114449152B (zh) * 2020-10-30 2023-09-22 北京小米移动软件有限公司 对焦方法、装置、电子设备及存储介质
CN114466130A (zh) * 2020-11-09 2022-05-10 哲库科技(上海)有限公司 图像处理器、装置、方法及电子设备
CN112752029B (zh) * 2021-01-22 2022-11-18 维沃移动通信(杭州)有限公司 对焦方法、装置、电子设备及介质
US20230015621A1 (en) * 2021-07-06 2023-01-19 Qualcomm Incorporated Autofocus (af) and auto exposure control (aec) coordination
WO2023027293A1 (en) * 2021-08-23 2023-03-02 Samsung Electronics Co., Ltd. Method and electronic device for auto focus of scene
EP4320854A1 (en) 2021-08-23 2024-02-14 Samsung Electronics Co., Ltd. Method and electronic device for auto focus of scene
KR20230033994A (ko) * 2021-09-02 2023-03-09 삼성전자주식회사 복수의 카메라를 포함하는 전자 장치 및 그 동작 방법
CN114390201A (zh) * 2022-01-12 2022-04-22 维沃移动通信有限公司 对焦方法及其装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102041A (ja) 2008-10-22 2010-05-06 Canon Inc 自動合焦装置および自動合焦方法、ならびに、撮像装置
JP2013140256A (ja) 2012-01-05 2013-07-18 Canon Inc 焦点調節装置
JP2016197150A (ja) 2015-04-02 2016-11-24 キヤノン株式会社 撮像装置およびその制御方法、プログラム、ならびに記憶媒体
CN106385542A (zh) 2016-10-11 2017-02-08 广东欧珀移动通信有限公司 一种拍照对焦的方法、装置及移动终端
WO2017022283A1 (ja) 2015-07-31 2017-02-09 ソニー株式会社 撮像装置、撮像方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070450A (ja) * 2003-08-25 2005-03-17 Sanyo Electric Co Ltd ビデオカメラ
JP2006053545A (ja) * 2004-07-12 2006-02-23 Canon Inc 光学機器
JP5098259B2 (ja) * 2006-09-04 2012-12-12 株式会社ニコン カメラ
JP4697606B2 (ja) 2007-01-24 2011-06-08 富士フイルム株式会社 撮影装置及び合焦制御方法
JP2008191391A (ja) * 2007-02-05 2008-08-21 Nikon Corp 焦点調節装置、カメラ
JP4796007B2 (ja) * 2007-05-02 2011-10-19 富士フイルム株式会社 撮像装置
JP2011234015A (ja) 2010-04-26 2011-11-17 Kyocera Corp 端末装置
JP5853594B2 (ja) * 2011-10-31 2016-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN104159037A (zh) * 2014-08-26 2014-11-19 厦门美图之家科技有限公司 一种自动拍照的自拍方法
JP2016142925A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 撮像装置およびその制御方法、プログラム、記憶媒体
CN106060407A (zh) 2016-07-29 2016-10-26 努比亚技术有限公司 一种对焦方法及终端
JP2018087860A (ja) * 2016-11-28 2018-06-07 オリンパス株式会社 撮像装置及び撮像装置の制御方法
CN106713750B (zh) * 2016-12-19 2019-07-19 Oppo广东移动通信有限公司 对焦控制方法、装置、电子装置及终端设备
CN106791427A (zh) * 2017-01-10 2017-05-31 深圳市金立通信设备有限公司 一种对焦处理方法及终端
CN107257433B (zh) * 2017-06-16 2020-01-17 Oppo广东移动通信有限公司 对焦方法、装置、终端和计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102041A (ja) 2008-10-22 2010-05-06 Canon Inc 自動合焦装置および自動合焦方法、ならびに、撮像装置
JP2013140256A (ja) 2012-01-05 2013-07-18 Canon Inc 焦点調節装置
JP2016197150A (ja) 2015-04-02 2016-11-24 キヤノン株式会社 撮像装置およびその制御方法、プログラム、ならびに記憶媒体
WO2017022283A1 (ja) 2015-07-31 2017-02-09 ソニー株式会社 撮像装置、撮像方法、及びプログラム
CN106385542A (zh) 2016-10-11 2017-02-08 广东欧珀移动通信有限公司 一种拍照对焦的方法、装置及移动终端

Also Published As

Publication number Publication date
EP3416373B1 (en) 2020-12-30
KR20190104216A (ko) 2019-09-06
KR102137921B1 (ko) 2020-07-27
CN107257433A (zh) 2017-10-17
EP3416373A1 (en) 2018-12-19
WO2018228503A1 (en) 2018-12-20
CN107257433B (zh) 2020-01-17
US10602055B2 (en) 2020-03-24
US20180367725A1 (en) 2018-12-20
JP2020511685A (ja) 2020-04-16
ES2856336T3 (es) 2021-09-27

Similar Documents

Publication Publication Date Title
JP7311418B2 (ja) 焦点合わせの方法、端末、およびコンピュータ可読記憶媒体
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
US10061182B2 (en) Systems and methods for autofocus trigger
US20230059657A1 (en) Multi-camera zoom control method and apparatus, and electronic system and storage medium
KR102143456B1 (ko) 심도 정보 취득 방법 및 장치, 그리고 이미지 수집 디바이스
CN110035228B (zh) 摄像头防抖***、方法、电子设备和计算机可读存储介质
CN111726521B (zh) 终端的拍照方法、拍照装置和终端
CN109903324B (zh) 一种深度图像获取方法及装置
JP2011508268A5 (ja)
JP2011508268A (ja) デプスマップ生成を伴う方法及び装置
CN107850753B (zh) 检测设备、检测方法、检测程序和成像设备
US20150178595A1 (en) Image processing apparatus, imaging apparatus, image processing method and program
CN113099122A (zh) 拍摄方法、装置、设备和存储介质
CN103034042A (zh) 一种全景拍摄方法及装置
US20140375872A1 (en) Auto-focusing device and image pickup device
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
CN114286011B (zh) 对焦方法和装置
CN112653841B (zh) 拍摄方法、装置和电子设备
CN115134532A (zh) 图像处理方法、装置、存储介质及电子设备
CN114666490A (zh) 对焦方法、装置、电子设备和存储介质
TW201642008A (zh) 影像擷取裝置及其動態對焦方法
CN113873160B (zh) 图像处理方法、装置、电子设备和计算机存储介质
CN114390182B (zh) 拍摄方法、装置和电子设备
JP2020009099A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7277187B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220309

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220309

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220317

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220318

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220603

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220607

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221209

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150