JP6650397B2 - シーンの画像深度マップの決定 - Google Patents
シーンの画像深度マップの決定 Download PDFInfo
- Publication number
- JP6650397B2 JP6650397B2 JP2016532072A JP2016532072A JP6650397B2 JP 6650397 B2 JP6650397 B2 JP 6650397B2 JP 2016532072 A JP2016532072 A JP 2016532072A JP 2016532072 A JP2016532072 A JP 2016532072A JP 6650397 B2 JP6650397 B2 JP 6650397B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- spectral
- depth
- module
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003595 spectral effect Effects 0.000 claims description 166
- 239000011159 matrix material Substances 0.000 claims description 69
- 238000000034 method Methods 0.000 claims description 24
- 230000009466 transformation Effects 0.000 claims description 22
- 230000001419 dependent effect Effects 0.000 claims description 9
- 238000001228 spectrum Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 description 18
- 238000007689 inspection Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 10
- 230000004075 alteration Effects 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000001131 transforming effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004141 dimensional analysis Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/03—Circuitry for demodulating colour component signals modulated spatially by colour striped filters by frequency separation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/74—Circuits for processing colour signals for obtaining special effects
- H04N9/76—Circuits for processing colour signals for obtaining special effects for mixing of colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2209/00—Details of colour television systems
- H04N2209/04—Picture signal generators
- H04N2209/041—Picture signal generators using solid-state devices
- H04N2209/042—Picture signal generators using solid-state devices having a single pick-up sensor
- H04N2209/045—Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Input (AREA)
Description
- 軸上色光学系を使用して、シーンの当該の対象点の深度および波長に焦点が依存する画像を提供するステップと、
- 軸上色光学系によって提供される画像から1組のスペクトル画像を決定するステップと、
- 拡大した被写界深度を有する推定されるスペクトル画像を提供するために、スペクトル画像をデコンボリューションするステップと、
- 推定される深度マップを提供するために、拡大した被写界深度を有する推定されるスペクトル画像に依存するコスト基準を分析するステップと
を含むことを特徴とする。
- 複数のスペクトルフィルタを備える画像センサを使用して、軸上色光学系によって形成された画像を受け取り、モザイク画像を形成するステップと、
- 1組のフィルタ処理された画像を提供するために、モザイク画像をデモザイク処理するステップと、
- スペクトル推定を実施して、1組のフィルタ処理された画像を受け取り、1組のスペクトル画像を提供するステップと
を含む。
- シーンの、拡大した被写界深度を有する推定されるスペクトル画像から再構築されるモザイク画像を形成するステップと、
- 所定の深度ドメイン中の深度について、形成されたモザイク画像と、シーンの、拡大した被写界深度を有する推定されるスペクトル画像から再構築されるモザイク画像との間の、点同士の差の2乗に依存するコスト基準を最小化することによって、画像の各点における深度を推定するステップと
を含む。
- シーンの当該の対象点の深度および波長に焦点が依存する画像を提供するための、軸上色光学系と、
- 軸上色光学系によって提供された画像を受け取り、1組のスペクトル画像を提供するためのスペクトル画像センサと、
- 拡大した被写界深度を有する推定されるスペクトル画像を提供するために、スペクトル画像をデコンボリューションするためのモジュールと、
- 推定される深度マップを提供するために、拡大した被写界深度を有する推定されるスペクトル画像に依存するコスト基準を分析するためのモジュールと
を備えることを特徴とする。
- 軸上色光学系によって提供された画像を受け取り、モザイク画像を提供するための、複数のスペクトルフィルタを備える画像センサと、
- モザイク画像を受け取り、1組のフィルタ処理された画像を提供するための、デモザイクモジュールと、
- 1組のフィルタ処理された画像を受け取り、1組のスペクトル画像を提供するための、スペクトル推定モジュールと
を備える。
- シーンの、拡大した被写界深度を有する推定されるスペクトル画像から再構築されるモザイク画像を形成するための手段と、
- 所定の深度ドメイン中の深度について、形成されたモザイク画像と、シーンの、拡大した被写界深度を有する推定されるスペクトル画像から再構築されるモザイク画像との間の、点同士の差の2乗に依存するコスト基準を最小化するように適合される、画像中の各点における深度を推定するための手段と
を備える。
- (x,y)は、画像センサに関連する基準系中の点の座標であり、
- λは、波長であり、
- Z*(x,y)は、座標(x,y)を有する点に対応する実際の深度であり、
- EDOFsは、シーンの実際のスペクトル画像であり、EDOFs(x,y,λ)は、波長λについての座標(x,y)を有する点に対応するスペクトル画像の値であり、
- PSF(Point Spread Function:点拡がり関数)は、軸上色光学系のインパルス応答であり、PSF(x,y,Z*(x,y),λ)は、実際の深度Z*(x,y)および波長λについての、座標(x,y)を有する点におけるこのインパルス応答の値であり、
- hi(λ)は、波長λについての、i番目のカラーフィルタのスペクトル透過であり、
- mi(x,y)は、i番目のカラーフィルタの空間位置であり、
- η(x,y)は、座標(x,y)を有する点における付加的なノイズの値であり、
-
- Nfは、カラーフィルタの数である。
-
- Sは、推定したい拡大した被写界深度を有するスペクトル画像EDOFsのフーリエ変換の行列表現であり、
-
- Nは、付加的なノイズηのフーリエ変換の行列表現である。
- Ztは、検査ドメイン中の所与の深度であり、
-
- iは、フィルタhiの添字、jは、フィルタhjの添字であり、
-
- Cは、考慮されるスペクトル画像EDOFsのより良好な推定へと収束することを可能にする、行列調整パラメータである。
- Idは、行列
- r0は、推定される行列
- EDOFsは、使用される画像データベースからの、拡大した被写界深度を有するスペクトル画像の値を含む行列であり、
-
-
-
- Sは、推定したい拡大した被写界深度を有するスペクトル画像EDOFsのフーリエ変換の行列表現であり、
-
- Nは、付加的なノイズηのフーリエ変換の行列表現である。
- Ztは、検査ドメイン中の所与の深度であり、
-
- iは、フィルタhiの添字であり、jは、フィルタhjの添字であり、
-
- Cは、考慮されるスペクトル画像EDOFsのより良好な推定へと収束することを可能にする、行列調整パラメータである。
- Idは、行列
- r0は、推定される行列
- EDOFsは、使用される画像データベースからの、拡大した被写界深度を有するスペクトル画像の値を含む行列であり、
-
-
2 スペクトル画像センサ
21 行列画像センサ
22 カラーフィルタ配列
23 デモザイクモジュール
24 スペクトル推定モジュール
25 デコンボリューションモジュール
26 シーンの実際の深度マップを推定するためのモジュール、コスト基準を分析するためのモジュール
27 適応型画素選択モジュール、スペクトル画像を推定するモジュール
Claims (14)
- シーンの画像深度マップを推定するための方法であって、
軸上色光学系を使用して、前記シーンの対象点の深度および波長に焦点が依存する画像を提供するステップ(E1)と、
前記軸上色光学系によって提供される前記画像から1組のスペクトル画像を決定するステップ(E2)であって、1組のスペクトル画像を決定する前記ステップが、
画像センサ上に配置された4つ以上のスペクトルフィルタを備える前記画像センサを使用して、前記軸上色光学系によって形成された前記画像を受け取り、モザイク画像を形成するステップ(E21)と、
1組のフィルタ処理された画像を提供するために、スペクトル画像のデータベースにより提供されるスペクトル画像を使用して基準のフィルタ処理された画像とモザイク画像とを構築し、前記基準のフィルタ処理された画像と、前記基準のフィルタ処理された画像に対応するモザイク画像から推定されるフィルタ処理された画像とを比較することによって最適なフィルタを決定し、前記最適なフィルタを使用して前記モザイク画像をデモザイク処理するステップ(E22)と、
スペクトル推定を実施して(E23)、前記1組のフィルタ処理された画像を受け取り、前記1組のスペクトル画像を提供するステップと
を含む、ステップと、
を含み、前記シーンの前記画像深度マップを推定するための方法は、
拡大した被写界深度を有する推定されるスペクトル画像を提供するために、前記スペクトル画像をデコンボリューションするデコンボリューションステップ(E3)と、
推定される深度マップ
を更に含むことを特徴とする、方法。 - コスト基準を前記分析する分析ステップ(E4)が、
前記シーンの、拡大した被写界深度を有する前記推定されるスペクトル画像から再構築されるモザイク画像を形成するステップと、
所定の深度ドメイン中の深度について、形成された前記モザイク画像と、前記シーンの、拡大した被写界深度を有する推定されるスペクトル画像から再構築される前記モザイク画像との間の、点同士の差の2乗に依存するコスト基準を最小化することによって、前記画像の各点における深度を推定するステップと
を含むことを特徴とする、請求項1に記載の方法。 - 前記分析ステップ中で提供された前記推定される深度マップについて、前記シーンの、拡大した被写界深度を有する1組のスペクトル画像を推定するステップ(E5)をさらに含むことを特徴とする、請求項1または2に記載の方法。
- 前記シーンの、拡大した被写界深度を有する前記1組のスペクトル画像を前記推定するステップが、前記深度上で繰り返すことによって、前記当該の深度が前記分析ステップ中で提供された前記推定される深度マップに対応する、前記デコンボリューションステップ中で提供された拡大した被写界深度を有するスペクトル画像の値を選択するステップを含むことを特徴とする、請求項3に記載の方法。
- 前記スペクトル推定ステップ(E23)とスペクトル画像の前記デコンボリューションステップ(E3)が、単一のステップへと組み合わされることを特徴とする、請求項1から4のいずれか一項に記載の方法。
- 前記モザイク画像を前記デモザイク処理するステップ(E22)、前記スペクトル推定ステップ(E23)、およびスペクトル画像の前記デコンボリューションステップ(E3)が、単一のステップへと組み合わされ、このステップが、画像のデータベースからの画像を使用して、前記モザイク画像の空間と前記スペクトル画像の空間との間の変換のための変換行列を計算することを特徴とする、請求項1から4のいずれか一項に記載の方法。
- シーンの画像深度マップを推定するためのデバイスであって、
前記シーンの対象点の深度および波長に焦点が依存する画像を提供するための、軸上色光学系(1)と、
前記軸上色光学系によって提供された前記画像を受け取り、1組のスペクトル画像を提供するためのスペクトル画像センサ(2)と、
拡大した被写界深度を有する推定されるスペクトル画像を提供するために、前記スペクトル画像をデコンボリューションするためのモジュール(25)と、
推定される深度マップ
を備え、
前記スペクトル画像センサ(2)が、
前記軸上色光学系によって提供された前記画像を受け取り、モザイク画像を提供するための、4つ以上のスペクトルフィルタ(22)を備える画像センサ(21)と、
前記モザイク画像を受け取り、1組のフィルタ処理された画像を提供するために、スペクトル画像のデータベースにより提供されるスペクトル画像を使用して基準のフィルタ処理された画像とモザイク画像とを構築し、前記基準のフィルタ処理された画像と、前記基準のフィルタ処理された画像に対応するモザイク画像から推定されるフィルタ処理された画像とを比較することによって最適なフィルタを決定し、前記最適なフィルタを使用して前記モザイク画像をデモザイク処理するデモザイクモジュール(23)と、
前記1組のフィルタ処理された画像を受け取り、前記1組のスペクトル画像を提供するための、スペクトル推定モジュール(24)と
を備える
ことを特徴とする、デバイス。 - コスト基準を分析するための前記モジュール(26)が、
前記シーンの拡大した被写界深度を有する前記推定されるスペクトル画像から再構築されるモザイク画像を形成するための手段と、
所定の深度ドメイン中の深度について、形成された前記モザイク画像と、前記シーンの、拡大した被写界深度を有する前記推定されるスペクトル画像から再構築される前記モザイク画像との間の、点同士の差の2乗に依存するコスト基準を最小化するように適合される、前記画像の各点における深度を推定するための手段と
を備えることを特徴とする、請求項7に記載のデバイス。 - コスト基準を分析するための前記モジュール(26)によって提供された前記推定される深度マップについて、前記シーンの、拡大した被写界深度を有する1組のスペクトル画像を推定するモジュール(27)をさらに備えることを特徴とする、請求項7または8に記載のデバイス。
- 前記シーンの拡大した被写界深度を有する前記1組のスペクトル画像を推定するための前記モジュール(27)が、前記深度上で繰り返すことによって、前記当該の深度がコスト基準を分析するための前記モジュール(26)によって提供された前記推定される深度マップに対応する、前記スペクトル画像をデコンボリューションするための前記モジュール(25)によって提供された拡大した被写界深度を有するスペクトル画像の値を選択するように適合されることを特徴とする、請求項9に記載のデバイス。
- 前記スペクトル推定モジュール(24)と前記スペクトル画像をデコンボリューションするための前記モジュール(25)が、単一のモジュールへと組み合わされることを特徴とする、請求項7から10のいずれか一項に記載のデバイス。
- 前記デモザイクモジュール(23)、前記スペクトル推定モジュール(24)、および前記スペクトル画像をデコンボリューションするための前記モジュール(25)が、単一のモジュールへと組み合わされ、前記単一のモジュールが、画像のデータベースからの画像を使用して、前記モザイク画像の空間と前記スペクトル画像の空間との間の変換のための変換行列を計算するように適合されることを特徴とする、請求項7から10のいずれか一項に記載のデバイス。
- コンピュータによって実行されると、請求項1から6のいずれか一項に記載の方法のステップを実行するための命令を含む、コンピュータプログラム。
- 請求項1から6のいずれか一項に記載の方法のステップを実行するための命令を含む、コンピュータプログラムを記憶する、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1361340A FR3013491B1 (fr) | 2013-11-19 | 2013-11-19 | Determination de la carte de profondeur image d'une scene |
FR1361340 | 2013-11-19 | ||
PCT/EP2014/074804 WO2015075005A1 (fr) | 2013-11-19 | 2014-11-17 | Determination de la carte de profondeur image d'une scene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016541179A JP2016541179A (ja) | 2016-12-28 |
JP6650397B2 true JP6650397B2 (ja) | 2020-02-19 |
Family
ID=50473392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016532072A Active JP6650397B2 (ja) | 2013-11-19 | 2014-11-17 | シーンの画像深度マップの決定 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9854222B2 (ja) |
EP (1) | EP3072081B1 (ja) |
JP (1) | JP6650397B2 (ja) |
FR (1) | FR3013491B1 (ja) |
WO (1) | WO2015075005A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105005970B (zh) * | 2015-06-26 | 2018-02-16 | 广东欧珀移动通信有限公司 | 一种增强现实的实现方法及装置 |
JP6604760B2 (ja) * | 2015-07-10 | 2019-11-13 | キヤノン株式会社 | 画像処理装置及びその制御方法、並びにプログラム |
KR20220063575A (ko) | 2020-11-10 | 2022-05-17 | 삼성전자주식회사 | 색분리 렌즈 어레이를 적용한 영상 획득 장치 및 방법 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7224540B2 (en) | 2005-01-31 | 2007-05-29 | Datalogic Scanning, Inc. | Extended depth of field imaging system using chromatic aberration |
JP5012135B2 (ja) * | 2007-03-28 | 2012-08-29 | コニカミノルタアドバンストレイヤー株式会社 | 超深度画像生成装置 |
FR2919732B1 (fr) | 2007-08-03 | 2010-04-09 | Dxo Labs | Systeme optique muni d'un dispositif d'accroissement de sa profondeur de champ |
JP5213688B2 (ja) * | 2008-12-19 | 2013-06-19 | 三洋電機株式会社 | 撮像装置 |
US8363085B2 (en) * | 2010-07-06 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Scene background blurring including determining a depth map |
JP5976676B2 (ja) * | 2011-01-14 | 2016-08-24 | ソニー株式会社 | レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法 |
US9055248B2 (en) * | 2011-05-02 | 2015-06-09 | Sony Corporation | Infrared imaging system and method of operating |
FR2981185B1 (fr) * | 2011-10-10 | 2014-02-14 | Univ Blaise Pascal Clermont Ii | Procede d'etalonnage d'un systeme de vision par ordinateur embarque sur un mobile |
CN105009575B (zh) * | 2013-03-13 | 2018-12-07 | 华为技术有限公司 | 一种基于子范围编码深度查询表的方法 |
US9846963B2 (en) * | 2014-10-03 | 2017-12-19 | Samsung Electronics Co., Ltd. | 3-dimensional model generation using edges |
-
2013
- 2013-11-19 FR FR1361340A patent/FR3013491B1/fr active Active
-
2014
- 2014-11-17 JP JP2016532072A patent/JP6650397B2/ja active Active
- 2014-11-17 EP EP14799454.5A patent/EP3072081B1/fr active Active
- 2014-11-17 WO PCT/EP2014/074804 patent/WO2015075005A1/fr active Application Filing
- 2014-11-17 US US15/037,713 patent/US9854222B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
FR3013491A1 (fr) | 2015-05-22 |
EP3072081A1 (fr) | 2016-09-28 |
US9854222B2 (en) | 2017-12-26 |
JP2016541179A (ja) | 2016-12-28 |
WO2015075005A1 (fr) | 2015-05-28 |
EP3072081B1 (fr) | 2018-10-10 |
FR3013491B1 (fr) | 2016-01-15 |
US20160301911A1 (en) | 2016-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6957197B2 (ja) | 画像処理装置および画像処理方法 | |
JP5681954B2 (ja) | 撮像装置及び撮像システム | |
CN107113370B (zh) | 图像记录设备及记录图像方法 | |
JP5358039B1 (ja) | 撮像装置 | |
JP6091176B2 (ja) | 画像処理方法、画像処理プログラム、画像処理装置および撮像装置 | |
JP6112824B2 (ja) | 画像処理方法および装置、プログラム。 | |
JP5868076B2 (ja) | 画像処理装置及び画像処理方法 | |
US8830351B2 (en) | Image processing method and image processing apparatus for image restoration to reduce a detected color shift | |
CN102930506B (zh) | 图像处理装置、图像处理方法和图像拾取装置 | |
JP5274623B2 (ja) | 画像処理装置、撮像装置、画像処理プログラム、および画像処理方法 | |
WO2011158515A1 (ja) | 距離推定装置、距離推定方法、集積回路、コンピュータプログラム | |
JP5615393B2 (ja) | 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体 | |
US20180075612A1 (en) | Imaging system using structured light for depth recovery | |
US8934732B2 (en) | Image processing method, image processing apparatus and image pickup apparatus | |
JP2017526965A (ja) | 画像を記録するための装置および方法 | |
JP6650397B2 (ja) | シーンの画像深度マップの決定 | |
JP2011182237A (ja) | 複眼撮像装置及び該装置における画像処理方法 | |
JP6598473B2 (ja) | 撮像装置および画像処理装置 | |
Shroff et al. | High resolution image reconstruction for plenoptic imaging systems using system response | |
JP2018026781A (ja) | 撮像装置、画像処理装置、撮像システム、撮像方法、画像処理方法およびプログラム | |
KR100843099B1 (ko) | 영상을 복원하기 위한 장치 및 방법 | |
JP7009219B2 (ja) | 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体 | |
JP2018081378A (ja) | 画像処理装置、撮像装置、画像処理方法および画像処理プログラム | |
JP2016109489A (ja) | 画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体 | |
JP7341843B2 (ja) | 画像処理装置および画像処理方法、撮像装置、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181203 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190301 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6650397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |