JP7377078B2 - 画像処理装置および画像処理方法、ならびに撮像装置 - Google Patents

画像処理装置および画像処理方法、ならびに撮像装置 Download PDF

Info

Publication number
JP7377078B2
JP7377078B2 JP2019210626A JP2019210626A JP7377078B2 JP 7377078 B2 JP7377078 B2 JP 7377078B2 JP 2019210626 A JP2019210626 A JP 2019210626A JP 2019210626 A JP2019210626 A JP 2019210626A JP 7377078 B2 JP7377078 B2 JP 7377078B2
Authority
JP
Japan
Prior art keywords
detection
region
partial
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019210626A
Other languages
English (en)
Other versions
JP2021082136A (ja
JP2021082136A5 (ja
Inventor
謙太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019210626A priority Critical patent/JP7377078B2/ja
Priority to EP20206108.1A priority patent/EP3826293A1/en
Priority to US16/950,984 priority patent/US11670112B2/en
Priority to CN202011309817.9A priority patent/CN112825138A/zh
Publication of JP2021082136A publication Critical patent/JP2021082136A/ja
Publication of JP2021082136A5 publication Critical patent/JP2021082136A5/ja
Application granted granted Critical
Publication of JP7377078B2 publication Critical patent/JP7377078B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理方法、ならびに撮像装置に関し、特には画像から特徴領域を検出する技術に関する。
画像データから、特徴を有する画像の領域(特徴領域)を検出する技術は、さまざまな分野で用いられている。例えばデジタルカメラなどの撮像装置では、特徴領域に合焦するように焦点調節を行ったり、特徴領域が適正な明るさになるように露出を制御したりすることが行われている。特許文献1には、特徴領域として目の領域を検出する画像処理装置が開示されている。
特開2008-129664号公報
特許文献1は、まず顔の領域を検出し、検出された顔の領域から目の領域を検出している。このように、最終的に検出する特徴領域を含むことが想定される部分領域をまず検出してから、部分領域に対して特徴領域を検出することで、特徴領域を検出する範囲を限定できるため、処理速度や検出精度を高めたりすることができる。その一方で、部分領域を正しく検出できないと、特徴領域の検出にも失敗してしまうという問題があった。
このような従来技術の課題に鑑みて、本発明は、処理を軽減しつつ精度良く特徴領域を検出可能な画像処理装置および画像処理方法、ならびに撮像装置を提供する。
上述の目的は、画像データから予め定められた部分領域を、第1の手法および第2の手法によって検出する部分領域の検出手段と、部分領域のデータから、予め定められた特徴領域を検出する特徴領域の検出手段と、同一被写体に関する、第1の手法によって検出された部分領域についての特徴領域の検出結果と、第2の手法によって検出された部分領域についての特徴領域の検出結果との一方を、特徴領域の最終的な検出結果として選択する選択手段と、を有することを特徴とする画像処理装置によって達成される。
本発明によれば、処理を軽減しつつ精度良く特徴領域を検出可能な画像処理装置および画像処理方法、ならびに撮像装置を提供することができる。
実施形態に係る画像処理装置の一例であるカメラの機能ブロック図 第1実施形態における特徴領域検出部の機能ブロック図 第1実施形態における特徴領域検出部の動作に関するフローチャート 第1実施形態における特徴領域検出部の動作に関するフローチャート 第1実施形態におけるカメラ制御部の動作に関するフローチャート 第2実施形態における特徴領域検出部の機能ブロック図 第2実施形態における特徴領域検出部の動作に関するフローチャート
以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、その全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
なお、以下の実施形態では、本発明をレンズ交換式のデジタルカメラシステムで実施する場合に関して説明する。しかし、本発明は画像データを取り扱うことのできる任意の電子機器に対して適用可能である。このような電子機器には、ビデオカメラ、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、ドローン、ドライブレコーダが含まれる。これらは例示であり、本発明は他の電子機器にも適用可能である。
●(第1実施形態)
図1は、本発明の第1実施形態に係る画像処理装置の一例である、レンズ交換式デジタルカメラシステム(以下、単にカメラという)の機能構成を示すブロック図である。カメラは、本体120と、交換レンズ100とを有する。なお、レンズは交換できなくてもよい。
被写体の光学像を形成する交換レンズ100は、レンズユニット101を有する。レンズユニット101は、主撮影光学系102、絞り103、およびフォーカスレンズ104を有する。なお、主撮影光学系102およびフォーカスレンズ104は実際には複数のレンズで構成される。また、レンズユニット101は、絞り103やフォーカスレンズ104などの可動部材を駆動するモータやアクチュエータなども有している。レンズユニット101はブレ補正レンズや変倍レンズなど、他の可動部材を有してもよい。
レンズ制御部111は、マイクロプロセッサ、ROM、およびRAMを有し、ROMに記憶されたプログラムをRAMに読み出してマイクロプロセッサが実行することにより、各種の機能を実現する。図1においてレンズ制御部111内に示される機能ブロック112~113は、レンズ制御部111が有するマイクロプロセッサがプログラムを実行することによって実現する代表的な機能を模式的に示したものである。
レンズ制御部111はカメラ制御部131と通信を行い、カメラ制御部131の指示に基づいてフォーカスレンズ104や絞り103の駆動を制御する。また、レンズ制御部111は、フォーカスレンズ104の位置や絞り値など、レンズユニット101に関する情報をカメラ制御部131に提供する。
本体120において、CMOS(相補型金属酸化膜半導体)イメージセンサなどの撮像素子122は、2次元配列された複数の画素を有する。撮像素子122はレンズユニット101が形成する被写体の光学像を複数の画素によって光電変換し、電気信号群(アナログ画像信号)を出力する。交換レンズ101と撮像素子122との間にはシャッター121が設けられる。なお、絞り103がシャッターを兼ねる場合などには、シャッター121は不要である。
撮像素子122の出力するアナログ画像信号は、アナログ信号処理回路(AFE)123に入力される。AFE123はアナログ画像信号にノイズ低減処理やAD変換処理などを適用したのち、デジタル画像信号(画像データ)として出力する。
信号処理回路124は、AFE123が出力する画像データに対して予め定められた画像処理を適用し、信号や画像データを生成したり、各種の情報を取得および/または生成したりする。信号処理回路124は例えば特定の機能を実現するように設計されたASICのような専用のハードウェア回路であってもよいし、DSPのようなプログラマブルプロセッサがソフトウェアを実行することで特定の機能を実現する構成であってもよい。
信号処理回路124が画像データに対して適用可能な画像処理には、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理などが含まれる。色補間処理は、画像データを構成する画素データに不足している色成分の値を補間する処理であり、デモザイク処理とも呼ばれる。補正処理には、ホワイトバランス調整、レンズユニット101の光学収差の影響を補正する処理、階調を補正する処理などが含まれる。検出処理には、特徴領域の検出処理や、特徴領域の追尾処理、人物の認識処理などが含まれる。データ加工処理には、スケーリング処理、表示用画像データ生成処理、符号化および復号処理、ヘッダ情報生成処理などが含まれる。評価値算出処理は自動焦点検出(AF)に用いる信号や評価値の生成や、自動露出制御(AE)に用いる評価値の生成処理などである。なお、これらは信号処理回路124が画像データに適用可能な画像処理の単なる例示であり、信号処理回路124が画像データに適用する画像処理を限定するものではない。また、ここに例示した画像処理の1つ以上はカメラ制御部131で実施してもよい。
信号処理回路124による画像処理を適用された画像データは、用途に応じてカメラ制御部131、表示部171、およびメモリカード125の1つ以上に出力される。
図1における特徴領域検出部141は、信号処理回路124の機能のうち、特徴領域の検出処理を実行する機能を模式的に機能ブロックとして記載したものである。本実施形態において特徴領域検出部141は、特徴領域として最終的に目領域もしくは瞳領域を検出するものとするが、鼻や口など、顔を構成する他の部位を検出してもよい。特徴領域検出部141は画像データに対して、特徴領域を含むことが想定される部分領域(ここでは顔または頭部の領域)をまず検出し、その後、個々の部分領域から特徴領域を検出する。特徴領域検出部141は、部分領域と特徴領域とのそれぞれについての検出結果(例えば検出した領域の位置および大きさを表す情報)をカメラ制御部131に出力する。
カメラ制御部131は例えばマイクロプロセッサであり、例えばROM133に記憶されたプログラムをRAM132に読み込んでマイクロプロセッサが実行することにより、各種の機能を実現する。図1においてカメラ制御部11内に示されている機能ブロック150~154は、カメラ制御部11が有するマイクロプロセッサがプログラムを実行することによって実現する代表的な機能を模式的に機能ブロックとして記載したものである。
ROM133は例えば書き換え可能な不揮発性メモリであり、カメラ制御部131のマイクロプロセッサが実行可能なプログラム、設定値、GUIデータなどを記憶する。RAM132は、カメラ制御部131のマイクロプロセッサが実行するプログラムや、プログラムの実行中に必要な値を一時的に保持するために用いられる。
本体120と交換レンズ10には、互いに係合するマウントが設けられる。本体側のマウントと、レンズ側のマウントとには、係合時に接するように構成されたマウント接点部114、161がそれぞれ設けられている。マウント接点部114、161が接する事により、本体120から交換レンズ10への電源供給や、カメラ制御部131とレンズ制御部111との通信が可能になる。
レンズ制御部111とカメラ制御部131は、マウント接点部114および161を介して所定のタイミングでシリアル通信を行う。この通信により、カメラ制御部131からレンズ制御部111にはフォーカスレンズ駆動情報、絞り駆動情報などが送信され、レンズ制御部111からカメラ制御部131へはフォーカスレンズ位置、絞り値、焦点距離などが送信される。
カメラ制御部131の被写体判定部150は、部分領域の検出結果から同一被写体を判定する。また、位置決定部151は、特徴領域の検出結果と被写体判定部150の判定結果とに基づいて特徴領域を決定する。表示枠設定部152は、後述する表示部171に表示する検出枠を設定する。さらに、被写体設定部153は、レンズユニット101を合焦させる被写体(対象被写体)の画像領域を特定する情報を焦点検出部154に通知する。これらの機能ブロック150~153は特徴領域検出部141の検出結果に基づいて動作する。
焦点検出部154は、被写体設定部153によって通知された情報に基づく画像領域に合焦するようにレンズユニット101のフォーカスレンズ104の位置を調整する。焦点検出部154は、公知の方法によりフォーカスレンズ104の位置を調整することができる。例えば、焦点検出部154は、コントラスト方式で焦点検出を行うことができる。この場合焦点検出部154は、フォーカスレンズ104の位置を段階的に移動させて撮影を行い、個々の撮影で得られた画像データのうち、合焦させる画像領域についてのコントラスト評価値を信号処理回路124から取得する。そして、焦点検出部154は、コントラスト評価値が最大になるフォーカスレンズ104の位置を求め、その位置にフォーカスレンズ104を駆動するよう、レンズ制御部111に指示する。
なお、本体120が位相差AF用の像信号を生成できる場合、焦点検出部154は位相差方式による焦点検出を行うことができる。例えば、本体120が位相差AF用のセンサを有する場合や、撮像素子122が像面位相差AFに対応した構成を有する場合である。
なお、焦点検出部154からレンズ制御部111にフォーカスレンズ104の駆動を指示する場合、フォーカスレンズ104の目標位置を指示してもよいし、デフォーカス量のような現在の位置と目標位置との差を指示してもよい。レンズ制御部111(フォーカスレンズ制御部113)は、カメラ制御部131から指示される情報に基づいて、フォーカスレンズ104の駆動を制御する。このように、カメラ制御部131は、フォーカスレンズ制御部113を介してフォーカスレンズ104の駆動を制御する。
表示部171は、ビデオメモリ、ディスプレイコントローラ、表示デバイス、タッチパネル172を有するタッチディスプレイである。本実施形態では撮影スタンバイ状態において動画撮影を継続的に行い、得られた動画をリアルタイムで表示部171に表示させることにより、表示部171を電子ビューファインダ(EVF)として機能させる。また、表示部171にはメニュー画面のようなGUIや、設定値などの情報を表示したりする。さらに、メモリカード125にから読み出され、信号処理回路124で復号された画像データも表示部171に表示する。
本実施形態の表示部171はタッチディスプレイであるため、タッチパネル172へのタッチ操作を受け付けることができる。タッチパネル172に対する操作はカメラ制御部131が検知し、タッチ位置の時間変化などに基づいてタッチ操作を認識し、認識したタッチ操作に応じた処理を実行する。
レリーズスイッチ(SW)181は静止画撮影に関する指示を入力する入力デバイスである。例えばレリーズSW181は半押し状態でオンするスイッチ(SW1)と全押し状態でオンするスイッチ(SW2)とを有する。カメラ制御部131は、SW1のオンを静止画撮影の準備指示と認識し、AF、AEといった処理を実行する。さらに、カメラ制御部131は、SW2のオンを静止画撮影の開始指示と認識し、静止画撮影処理および記録用の画像データ生成処理、画像データの記録処理などを制御する。記録用の画像データはメモリカード125に記録される。
次に、本実施形態における特徴領域検出部141の構成および動作について説明する。図2は、特徴領域検出部141の機能をさらに細分化し、機能ブロックとして記載した図である。上述の通り、特徴領域検出部141は信号処理回路124の機能であり、したがって特徴領域検出部141が有する各機能ブロックもまた信号処理回路124の機能である。
特徴領域検出部141は、部分領域を検出する手段としての顔検出部201および頭部検出部202と、部分領域から特徴領域を検出する手段としての第1瞳検出部203および第2瞳検出部204を有する。
顔検出部201は、画像データに対して公知の顔検出処理(第1の手法)を適用して顔の特徴を有する部分領域(顔領域)を検出する。顔検出の具体的な検出方法に特に制限はなく、例えば、顔領域に特徴的なエッジやパターンの検出に基づく方法であってもよいし、顔領域を機械学習したニューラルネットワークを用いる方法であってもよい。基本的に顔領域の検出精度は、目、鼻、口など、顔を構成する特徴的な部位または器官の検出精度に依存し、これら部位や器官の一部が検出できない場合には、顔領域が検出できなかったり、誤検出の可能性が上昇したりする傾向がある。
頭部検出部202は、画像データに対して公知の頭部検出処理(第2の手法)を適用して頭部の特徴を有する部分領域(頭部領域)を検出する。頭部領域の検出方法についても特に制限はなく、Ω形状など、予め定められた形状の領域を検出したり、頭部領域を機械学習したニューラルネットワークを用いたりする方法であってもよい。また、手足や胴体といった人体のパーツの検出を併用して頭部領域を検出してもよい。頭部領域の検出は主に輪郭の形状に基づくもので、顔を構成する特徴的な部位や器官の検出に依存しない。そのため、顔検出部201で顔領域の検出に失敗する場合であっても、頭部検出部202では頭部を正しく検出できる場合がある。
第1瞳検出部203は、顔検出部201が検出した顔領域から、目領域または瞳領域を検出する。第2瞳検出部204は、頭部検出部202が検出した頭部領域から、目領域または瞳領域を検出する。第1瞳検出部203および第2瞳検出部204は異なる検出方法を用いてもよいし、同じ検出手法を用いてもよい。同じ検出手法を用いる場合、顔領域および頭部領域に対して1つの瞳検出部を用いて目領域または瞳領域を検出してもよい。検出方法に特に制限はなく、パターンマッチングを用いたり、目または瞳領域を機械学習したニューラルネットワークを用いたりする方法であってよい。
図3のフローチャートを用いて顔検出部201および第1瞳検出部203の動作を、図4のフローチャートを用いて頭部検出部202および第2瞳検出部204の動作を説明する。なお、特徴領域検出部141は、図3および図4の動作を順番に実行してもよいし、少なくとも一部を並行して実行してもよい。また、ここでは例えば表示部171の表示デバイスをEVFとして機能させるために撮影され、AFE123から供給される動画の1フレームを構成する画像データから特徴領域を検出するものとする。しかし、例えばメモリカード125から読み出された動画もしくは静止画データなど、任意の画像データについて特徴領域を検出することができる。また、信号処理回路124は、特徴領域検出部141で処理する前に、画像データに対し、処理負荷を軽減したり、検出精度を高めたりするための前処理を適用してもよい。前処理には例えば解像度の変更(スケーリング)や、色変換などがあるが、これらに限定されない。
図3において、S301で顔検出部201は、供給される画像データに対して顔検出処理を適用する。なお、顔検出部201は、顔検出処理を適用した結果、検出信頼度が一定以上である領域を、検出結果に含めるものとする。顔検出部201は、検出結果を第1瞳検出部203に出力するとともに、保持する。
S302で第1瞳検出部203は、顔検出部201で1つ以上の顔領域が検出されたか否かを判定する。第1瞳検出部203は、1つ以上の顔領域が検出されていればS303を、顔領域が検出されていなければS306を実行する。
S303で第1瞳検出部203は、瞳検出を行っていない顔領域の1つを瞳検出領域に設定し、S304を実行する。
S304で第1瞳検出部203は、S303で設定した瞳検出領域に対して瞳検出処理を適用する。なお、瞳検出処理の代わりに目検出処理を適用してもよい。なお、第1瞳検出部203は、瞳検出処理を適用した結果、検出信頼度が一定以上である領域を、検出結果に含めるものとする。第1瞳検出部203は、検出結果を保持して、S305を実行する。
S305で第1瞳検出部203は、S301で検出された全ての顔領域について瞳検出処理を適用したか否かを判定する。瞳検出処理を適用していない顔領域があると判定された場合、第1瞳検出部203はS303からの処理を繰り返し実行する。一方、全ての顔領域について瞳検出処理を適用したと第1瞳検出部203が判定した場合、特徴領域検出部141はS306を実行する。
S306で特徴領域検出部141は、顔検出部201が保持する顔検出結果と、第1瞳検出部203が保持する瞳検出結果とをカメラ制御部131に出力する。それぞれの検出結果は、少なくとも、検出された領域の中心座標(画像座標)、サイズ、検出信頼度のそれぞれを示す情報を含むものとする。なお、S302で顔領域が1つも検出されなかった場合、特徴領域検出部141は空の結果を出力する。
図4において、S401で頭部検出部202は、供給される画像データに対して頭部検出処理を適用する。なお、頭部検出部202は、頭部検出処理を適用した結果、検出信頼度が一定以上である領域を、検出結果に含めるものとする。頭部検出部202は、検出結果を第2瞳検出部204に出力するとともに、保持する。
S402で第2瞳検出部204は、頭部検出部202で1つ以上の頭部領域が検出されたか否かを判定する。第2瞳検出部204は、1つ以上の頭部領域が検出されていればS403を、頭部領域が検出されていなければS406を実行する。
S403で第2瞳検出部204は、瞳検出を行っていない頭部領域の1つを瞳検出領域に設定し、S404を実行する。
S404で第2瞳検出部204は、S403で設定した瞳検出領域に対して瞳検出処理を適用する。なお、瞳検出処理の代わりに目検出処理を適用してもよい。なお、第2瞳検出部204は、瞳検出処理を適用した結果、検出信頼度が一定以上である領域を、検出結果に含めるものとする。第2瞳検出部204は、検出結果を保持して、S405を実行する。
S405で第2瞳検出部204は、S401で検出された全ての頭部領域について瞳検出処理を適用したか否かを判定する。瞳検出処理を適用していない頭部領域があると判定された場合、第2瞳検出部204はS403からの処理を繰り返し実行する。一方、全ての頭部領域について瞳検出処理を適用したと第2瞳検出部204が判定した場合、特徴領域検出部141はS406を実行する。
S406で特徴領域検出部141は、頭部検出部202が保持する頭部検出結果と、第2瞳検出部204が保持する瞳検出結果とをカメラ制御部131に出力する。それぞれの検出結果は、少なくとも、検出された領域の中心座標(画像座標)、サイズ、検出信頼度のそれぞれを示す情報を含むものとする。なお、S402で頭部領域が1つも検出されなかった場合、特徴領域検出部141は空の結果を出力する。
なお、特徴領域検出部141は、S306とS406で得られる検出結果をまとめて出力してもよいし、別個に出力してもよい。
次に、特徴領域検出部141による検出結果に対するカメラ制御部131の動作について、図5のフローチャートを用いて説明する。
S501で被写体判定部150は、瞳位置が未決定(以下、未チェックという)の顔領域があるか否かを判定する。未チェックの顔領域があると被写体判定部150が判定した場合にはS502を、未チェックの顔領域がないと被写体判定部150が判定した場合にはS511を実行する。顔領域が1つも検出されていない場合、被写体判定部150は未チェックの顔領域がないと判定する。
S502で被写体判定部150は、未チェックの顔領域と、その顔領域に対する瞳検出結果を選択する。未チェックの顔領域は任意の順序で選択することができる。
S503で被写体判定部150は、未チェックの頭部領域があるか否かを判定する。未チェックの頭部領域があると被写体判定部150が判定した場合にはS504を、未チェックの頭部領域がないと被写体判定部150が判定した場合にはS509を実行する。頭部領域が1つも検出されていない場合、被写体判定部150は未チェックの頭部領域がないと判定する。
S504で被写体判定部150は、未チェックの頭部領域のうち、S502で選択した1つの顔領域と同一被写体のものと思われる頭部領域を検出する被写体判定処理を実行する。被写体判定処理は任意の方法で実現することができるが、例えば、判定処理の対象となる2つの領域の距離や重複率に基づくものであってよい。距離は領域の代表座標、例えば中心もしくは重心座標間の距離であってよい。また、重複率には例えばIoU(Intersection over Union。Jaccard係数とも呼ばれる)を用いることができる。IoUは2つの領域の和集合に対する共通(重複)部分の割合であり、
IoU=2領域の共通部分の大きさ/2領域の和集合の大きさ
である。
本実施形態において被写体判定部150は、重複率が閾値以上で、かつ、2つの領域それぞれについて、一方の領域の中心または重心座標が他方の領域内に存在する場合に、2つの領域が同一被写体に関する領域であると判定する。なお、1つの顔領域に対して、同一被写体に関する領域と判定される頭部領域が複数存在する場合、被写体判定部150は顔領域との重複率が最も高い頭部領域を、最終的な判定結果とする。さらに、重複率が最も高い頭部領域が複数存在する場合には、顔領域との中心座標間の距離が最小である頭部領域を、最終的な判定結果とする。顔領域との中心座標間の距離が最小である頭部領域が複数存在する場合には、任意の方法で1つを選択して最終的な判定結果とする。被写体判定部150は、顔領域と、最終的な判定結果として得られた頭部領域との組み合わせに関する情報を、位置決定部151に出力する。顔領域と同一被写体に関すると判定される頭部領域が1つもなかった場合、被写体判定部150は空の情報を出力するか、何も出力しない。
S505で位置決定部151は、被写体判定部150から、同一被写体に関すると判定された顔領域と頭部領域との組み合わせが出力されたか否かを判定する。位置決定部151は、出力されたと判定される場合にはS506を実行し、出力されていないと判定される場合にはS509を実行する。
S506で位置決定部151は、被写体判定部150が同一被写体に関すると判定した顔領域と頭部領域のうち、一方の領域を選択する。位置決定部151は、例えば検出信頼度の高いものを選択してもよいし、それぞれについての瞳検出結果がより優れていると判定されるものを選択してもよい。ここで、瞳検出結果が優れているとは、第1の条件として、検出信頼度が一定以上である瞳領域が1つあるいは2つ検出されていることである。また、瞳領域が3つ以上検出されている場合は、第1の条件に加え、上位2つの検出信頼度に対し、3番目以下の検出信頼度の差が一定以上であることである。なお、ここで述べた選択方法は例示であり、他の基準に基づいて選択してもよい。
S507で位置決定部151は、S506で選択した顔領域もしくは頭部領域に対する瞳検出結果を、画像データに対する特徴領域の検出結果に追加する。
S508で位置決定部151は、S506で用いた、被写体判定部150が同一被写体に関すると判定した顔領域と頭部領域について、瞳位置決定ずみ(チェック済み)の状態にする。その後、S501からの処理が繰り返される。
S503で未チェックの頭部領域がない場合や、S504で顔領域と同一被写体に関すると判定された頭部領域が存在しない場合、位置決定部151はS509を実行する。
S509で位置決定部151は、S502で選択した顔領域についての瞳検出結果を、画像データに対する特徴領域の検出結果に追加する。
S510で位置決定部151は、S502で選択した顔領域をチェック済みの状態にする。その後、S501からの処理が繰り返し行われる。
上述の処理を繰り返し、未チェックの顔領域がなくなった場合や、顔検出部201が顔領域を検出していない場合、S501からS511に移行する。
S511で位置決定部151は、未チェックの頭部領域、すなわち、同一の被写体に関すると判定される顔領域が存在しなかった頭部領域についての瞳検出結果を、画像データに対する特徴領域の検出結果に追加する。頭部検出部202が頭部領域を検出していない場合は、頭部領域に対する瞳検出結果も存在しないため、画像データに対する特徴領域の検出結果には何も追加されない。
S512で位置決定部151は、上述した処理によって追加された、画像データに対する特徴領域の検出結果をカメラ制御部131に出力する。
S513でカメラ制御部131は、S512で位置決定部151が出力した特徴領域の検出結果を用いた処理を実行する。ここでは一例として、検出された特徴領域を示す指標をEVFに重畳表示するとともに、特徴領域を焦点検出領域(AF枠)とした焦点検出を行うものとする。
具体的には、表示枠設定部152は特徴領域の検出結果に含まれる瞳領域の中心座標と瞳領域のサイズに従って枠状の指標の画像を生成し、表示部171のビデオメモリに書き込むことにより、表示中の動画に重畳表示させる。
また、被写体設定部153は、例えばタッチパネル172へのタッチ操作によって選択された瞳領域の情報を、焦点検出領域の設定情報として焦点検出部154に通知する。焦点検出部154は、被写体設定部153から通知された瞳領域を焦点検出領域とした焦点検出動作を実行する。これにより、レンズユニット101が瞳領域に合焦するようにフォーカスレンズ104の位置が決定される。なお、選択された瞳領域の情報を自動露出制御など、他の処理に用いてもよい。
本実施形態によれば、画像データから予め定められた特徴領域を検出する際、特徴領域を含んだ部分領域を異なる手法に基づいて検出し、部分領域ごとに特徴領域を検出するようにした。そのため、ある手法では部分領域が検出しづらい条件でも、他の手法によって部分領域が検出できる可能性を高めることができ、最終的に特徴領域を検出できる可能性を高めることができる。また、同一被写体に対して両方の手法で部分領域が検出できた場合には、それぞれの部分領域における特徴領域の検出結果のうち、より良好であると判定される一方を選択するようにしたので、検出結果の信頼性を向上させることができる。
●(第2実施形態)
次に、本発明の第2実施形態について説明する。本実施形態では、特徴領域検出部の構成および動作を除き、第1の実施形態と同様であるため、特徴領域検出部に関して重点的に説明する。
図6は、本実施形態における特徴領域検出部141’を模式的に示した図である。図2との対比から分かるように、本実施形態の特徴領域検出部141’は、顔検出部と頭部検出部を兼ねる部分領域検出部601と、第1および第2瞳検出部を兼ねる瞳検出部602とを有する。
部分領域検出部601は、例えば顔領域と頭部領域を検出するように学習したニューラルネットワークを用いた検出器であってよい。1つの検出器に顔領域と頭部領域をそれぞれ学習させることにより、回路規模を小さくとどめながら、異なるアルゴリズムによって、部分領域を検出することができる。
瞳検出部602は、部分領域検出部601が検出した部分領域ごとに、瞳領域または目領域を検出する。検出方法は第1実施形態と同様であってよい。
次に、図7に示すフローチャートを用いて、特徴領域検出部141’の動作について説明する。図7のフローチャートは、第1実施形態における図3および図4のフローチャートに対応する。
S701で部分領域検出部601は、供給される画像データから、部分領域(顔領域および頭部領域)を検出する。部分領域検出部601は、検出結果を瞳検出部602に出力するとともに、保持する。
S702で瞳検出部602は、部分領域検出部601で1つ以上の部分領域が検出されたか否かを判定する。瞳検出部602は、1つ以上の部分領域が検出されていればS703を、部分領域が1つも検出されていなければS706を実行する。
S703で瞳検出部602は、瞳検出を行っていない部分領域の1つを瞳検出領域に設定し、S704を実行する。
S704で瞳検出部602は、S703で設定した瞳検出領域に対して瞳検出処理を適用する。なお、瞳検出処理の代わりに目検出処理を適用してもよい。瞳検出部602は、検出結果を保持して、S705を実行する。
S705で瞳検出部602は、S701で検出された全ての部分領域について瞳検出処理を適用したか否かを判定する。瞳検出処理を適用していない部分領域があると判定された場合、瞳検出部602はS703からの処理を繰り返し実行する。一方、全ての部分領域について瞳検出処理を適用したと瞳検出部602が判定した場合、特徴領域検出部141’はS706を実行する。
S706で特徴領域検出部141’は、部分領域検出部601が保持する検出結果と、瞳検出部602が保持する瞳検出結果とをカメラ制御部131に出力する。それぞれの検出結果は、少なくとも、検出された領域の中心座標(画像座標)、サイズ、検出信頼度のそれぞれを示す情報を含むものとする。なお、S702で部分領域が1つも検出されなかった場合、特徴領域検出部141’は空の結果を出力する。
カメラ制御部131による、特徴領域の検出結果を利用した処理については第1実施形態で説明したものと同様であってよい。
第1実施形態では顔領域と頭部領域とを別個の検出部で検出し、瞳検出についても顔領域と頭部領域とで別個の検出部で検出した。これに対し、本実施形態では顔領域および頭部領域を1つの検出部で検出し、瞳領域についても1つの検出部で検出するようにした。本実施形態では第1実施形態よりも特徴領域検出部141’の回路規模を小さくすることができる。一方、第1実施形態の構成では、顔領域の検出と顔領域に対する瞳検出という一連の処理と、頭部領域の検出と頭部領域に対する瞳検出という一連の処理とを並列して実行することで処理の高速化が可能である。
なお、第1実施形態では部分領域の検出部と特徴領域の検出とをそれぞれ複数設け、第2実施形態では部分領域の検出部と特徴領域の検出とをそれぞれ1つ設けた。しかし、部分領域の検出部と特徴領域の検出とを同数にする必要はない。
2つの実施形態に基づいて本発明を説明してきたが、本発明はこれら特定の実施形態に限定されない。特許請求の範囲の記載に含まれる様々な変形物もまた本発明に含まれる。例えば、部分領域の検出部は3つ以上あってもよい。また、1つの顔領域について、同一被写体に関するものと判定される頭部領域が複数存在した場合、1つの頭部領域を選択したが、複数の頭部領域の情報を用いてもよい。例えば、これら複数の頭部領域について検出されている瞳領域の情報を統合(例えば距離が閾値以下の瞳領域の位置を平均するなど)して、新たな瞳領域の検出位置やサイズを算出してもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は上述した実施形態の内容に制限されず、発明の精神および範囲から離脱することなく様々な変更及び変形が可能である。したがって、発明の範囲を公にするために請求項を添付する。
122…撮像素子、124…信号処理回路、131…カメラ制御部、141、141’…特徴領域検出部、150…被写体判定部、151…位置決定部、201…顔検出部、202…頭部検出部、203…第1瞳検出部、204…第2瞳検出部

Claims (11)

  1. 画像データから予め定められた部分領域を、第1の手法および第2の手法によって検出する部分領域の検出手段と、
    前記部分領域のデータから、予め定められた特徴領域を検出する特徴領域の検出手段と、
    同一被写体に関する、前記第1の手法によって検出された部分領域についての前記特徴領域の検出結果と、前記第2の手法によって検出された部分領域についての前記特徴領域の検出結果との一方を、前記特徴領域の最終的な検出結果として選択する選択手段と、
    を有することを特徴とする画像処理装置。
  2. 前記部分領域の検出手段は、前記特徴領域を含むことが想定される部分領域を検出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の手法によって検出する部分領域が顔領域であり、前記第2の手法によって検出する部分領域が頭部領域であることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記特徴領域が目領域または瞳領域であることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記選択手段は、前記第2の手法によって検出された部分領域のうち、前記第1の手法によって検出された部分領域と同一被写体に関する部分領域を、前記第1の手法によって検出された部分領域との重複率を用いて判定することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記選択手段は、同一被写体に関する、前記第1の手法によって検出された部分領域についての前記特徴領域の検出結果と、前記第2の手法によって検出された部分領域についての前記特徴領域の検出結果とのうち、より優れていると判定される一方を選択することを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 同一被写体に関する、前記第1の手法によって検出された部分領域についての前記特徴領域の検出結果と、前記第2の手法によって検出された部分領域についての前記特徴領域の検出結果とのうち、特徴領域の検出信頼度に基づいてより優れていると判定される一方を選択することを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  8. 前記部分領域の検出手段が、前記第1の手法によって部分領域を検出する第1検出部と、前記第2の手法によって部分領域を検出する第2検出部とを有し、前記第1検出部と前記第2検出部とが並列に動作することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 像データを生成する撮像手段と、
    前記画像データを用いる請求項1から8のいずれか1項に記載の画像処理装置と、
    前記画像処理装置の前記選択手段が選択した前記特徴領域の検出結果を、焦点検出および/または露出制御に用いる制御手段と、
    を有することを特徴とする撮像装置。
  10. 画像処理装置が実行する画像処理方法であって、
    画像データから予め定められた部分領域を、第1の手法および第2の手法によって検出する部分領域の検出工程と、
    前記部分領域のデータから、予め定められた特徴領域を検出する特徴領域の検出工程と、
    同一被写体に関する、前記第1の手法によって検出された部分領域についての前記特徴領域の検出結果と、前記第2の手法によって検出された部分領域についての前記特徴領域の検出結果との一方を、前記特徴領域の最終的な検出結果として選択する選択工程と、
    を有することを特徴とする画像処理方法。
  11. コンピュータを、請求項1から8のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。
JP2019210626A 2019-11-21 2019-11-21 画像処理装置および画像処理方法、ならびに撮像装置 Active JP7377078B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019210626A JP7377078B2 (ja) 2019-11-21 2019-11-21 画像処理装置および画像処理方法、ならびに撮像装置
EP20206108.1A EP3826293A1 (en) 2019-11-21 2020-11-06 Detection of head and face separately and selection of result for use in detection of facial features
US16/950,984 US11670112B2 (en) 2019-11-21 2020-11-18 Image processing apparatus, image processing method, and image capture apparatus
CN202011309817.9A CN112825138A (zh) 2019-11-21 2020-11-20 图像处理设备、图像处理方法、摄像设备及机器可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019210626A JP7377078B2 (ja) 2019-11-21 2019-11-21 画像処理装置および画像処理方法、ならびに撮像装置

Publications (3)

Publication Number Publication Date
JP2021082136A JP2021082136A (ja) 2021-05-27
JP2021082136A5 JP2021082136A5 (ja) 2022-11-30
JP7377078B2 true JP7377078B2 (ja) 2023-11-09

Family

ID=73172492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019210626A Active JP7377078B2 (ja) 2019-11-21 2019-11-21 画像処理装置および画像処理方法、ならびに撮像装置

Country Status (4)

Country Link
US (1) US11670112B2 (ja)
EP (1) EP3826293A1 (ja)
JP (1) JP7377078B2 (ja)
CN (1) CN112825138A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149018A (ja) 1998-09-10 2000-05-30 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
US20050031173A1 (en) 2003-06-20 2005-02-10 Kyungtae Hwang Systems and methods for detecting skin, eye region, and pupils
JP2005071125A (ja) 2003-08-26 2005-03-17 Nippon Hoso Kyokai <Nhk> 被写体検出装置、被写体検出方法、被写体データ選定プログラムおよび被写***置検出プログラム
JP2012103979A (ja) 2010-11-11 2012-05-31 Sanyo Electric Co Ltd 画像処理装置
JP2019121860A (ja) 2017-12-28 2019-07-22 キヤノン株式会社 画像処理装置及びその制御方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194861A (ja) * 1998-12-28 2000-07-14 Matsushita Electric Ind Co Ltd 画像認識方法及び装置
US7567704B2 (en) * 2005-11-30 2009-07-28 Honeywell International Inc. Method and apparatus for identifying physical features in video
JP2008129664A (ja) 2006-11-17 2008-06-05 Sony Corp 画像処理装置、撮影装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP4692770B2 (ja) * 2006-12-27 2011-06-01 富士フイルム株式会社 複眼デジタルカメラ
KR20100130670A (ko) * 2009-06-04 2010-12-14 삼성전자주식회사 휴대용 단말기에서 얼굴 검출을 이용한 영상 획득 방법 및 장치
JP5476955B2 (ja) * 2009-12-04 2014-04-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5538909B2 (ja) * 2010-01-05 2014-07-02 キヤノン株式会社 検出装置およびその方法
KR20130080306A (ko) * 2012-01-04 2013-07-12 삼성전자주식회사 탄성 영상 생성 방법 및 장치
TWI450024B (zh) * 2012-06-05 2014-08-21 Wistron Corp 立體深度影像建立系統及其方法
JP2014021602A (ja) * 2012-07-13 2014-02-03 Canon Inc 画像処理装置及び画像処理方法
JP2014093023A (ja) * 2012-11-06 2014-05-19 Canon Inc 物体検出装置、物体検出方法及びプログラム
JP6639123B2 (ja) * 2015-07-06 2020-02-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN105825189B (zh) * 2016-03-21 2019-03-01 浙江工商大学 一种用于大学生到课率及上课专注度自动分析的装置
US10846560B2 (en) * 2016-03-25 2020-11-24 Intel Corporation GPU optimized and online single gaussian based skin likelihood estimation
US10789693B2 (en) * 2017-01-05 2020-09-29 Perfect Corp. System and method for performing pre-processing for blending images
CN108345819B (zh) * 2017-01-23 2020-09-15 杭州海康威视数字技术股份有限公司 一种发送报警消息的方法和装置
US10187579B1 (en) * 2017-06-30 2019-01-22 Polycom, Inc. People detection method for auto-framing and tracking in a video conference
CN109918969B (zh) * 2017-12-12 2021-03-05 深圳云天励飞技术有限公司 人脸检测方法及装置、计算机装置和计算机可读存储介质
JP6817590B1 (ja) * 2020-07-27 2021-01-20 パナソニックIpマネジメント株式会社 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149018A (ja) 1998-09-10 2000-05-30 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
US20050031173A1 (en) 2003-06-20 2005-02-10 Kyungtae Hwang Systems and methods for detecting skin, eye region, and pupils
JP2005071125A (ja) 2003-08-26 2005-03-17 Nippon Hoso Kyokai <Nhk> 被写体検出装置、被写体検出方法、被写体データ選定プログラムおよび被写***置検出プログラム
JP2012103979A (ja) 2010-11-11 2012-05-31 Sanyo Electric Co Ltd 画像処理装置
JP2019121860A (ja) 2017-12-28 2019-07-22 キヤノン株式会社 画像処理装置及びその制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R. Belaroussi,Fusion of Multiple Detectors for Face and Eyes Localization,Proceedings of the 4th International Symposium on Image and Signal Processing and Analysis (ISPA) (2005),IEEE,2005年09月15日,P.24-29
横山 太郎,正面顔面像からの輪郭特徴抽出,映像情報メディア学会誌 ,日本,社団法人映像情報メディア学会,1999年11月20日,Vol.53, No.11,P.1605-1614

Also Published As

Publication number Publication date
US11670112B2 (en) 2023-06-06
JP2021082136A (ja) 2021-05-27
US20210158022A1 (en) 2021-05-27
CN112825138A (zh) 2021-05-21
EP3826293A1 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
US9357205B2 (en) Stereoscopic image control apparatus to adjust parallax, and method and program for controlling operation of same
JP2021105694A (ja) 撮像装置およびその制御方法
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
US11388331B2 (en) Image capture apparatus and control method thereof
US11178337B2 (en) Image capturing apparatus, method of controlling the same, and non-transitory computer readable storage medium for calculating a depth width for an object area based on depth information
JP7154758B2 (ja) 画像処理装置及びその制御方法
US11610293B2 (en) Image processing apparatus and image processing method
JP6564284B2 (ja) 画像処理装置および画像処理方法
JP4953770B2 (ja) 撮像装置
JP7377078B2 (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP2011017754A (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
JP5615012B2 (ja) 白バランス安定調整装置およびその制御方法,白バランス安定調整のためのプログラム
JP2016142924A5 (ja)
JP2018185576A (ja) 画像処理装置および画像処理方法
JP2013192184A (ja) 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム
US11012631B2 (en) Image capturing and processing device, electronic instrument, image capturing and processing method, and recording medium
US20230370714A1 (en) Image processing apparatus, image processing method, and image capture apparatus
US20230215034A1 (en) Image processing apparatus, image processing method, and image capture apparatus
US11381728B2 (en) Image capture apparatus and method for controlling the same
US11050923B2 (en) Imaging apparatus and control method
JP2011243025A (ja) 対象画像の追尾装置およびその動作制御方法
JP2022050908A (ja) 追尾装置、追尾方法、プログラム
JP6801359B2 (ja) 撮像装置
JP2021082136A5 (ja)
JP2024015578A (ja) 制御装置、撮像装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231027

R151 Written notification of patent or utility model registration

Ref document number: 7377078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151