CN114630024A - 一种基于阵列相机***的仿视网膜非均匀成像方法 - Google Patents

一种基于阵列相机***的仿视网膜非均匀成像方法 Download PDF

Info

Publication number
CN114630024A
CN114630024A CN202210069535.9A CN202210069535A CN114630024A CN 114630024 A CN114630024 A CN 114630024A CN 202210069535 A CN202210069535 A CN 202210069535A CN 114630024 A CN114630024 A CN 114630024A
Authority
CN
China
Prior art keywords
imaging
array camera
resolution
camera
retina
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210069535.9A
Other languages
English (en)
Other versions
CN114630024B (zh
Inventor
孙鸣捷
闫崧明
路金松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202210069535.9A priority Critical patent/CN114630024B/zh
Publication of CN114630024A publication Critical patent/CN114630024A/zh
Application granted granted Critical
Publication of CN114630024B publication Critical patent/CN114630024B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及计算成像技术、阵列相机、人工智能技术领域,提供了一种基于阵列相机***的仿视网膜非均匀成像方法。该方法包括:基于阵列相机***中相机的Binning读出功能对该***中相机相应子视场进行低分辨率成像;基于相机的全采样读出功能对阵列相机***中相机相应子视场进行高分辨率成像;基于图像融合超分辨算法,残余密集网络从高分辨图像序列中获取细节信息,对相邻相机视场重叠区域进行超分辨率成像;基于动态检测模式、细节识别模式和细节增强模式,实现全视场的仿视网膜非均匀成像。本发明提升了成像分辨率、实现了多目标识别跟踪,实现了全视场的仿视网膜非均匀成像。

Description

一种基于阵列相机***的仿视网膜非均匀成像方法
技术领域
本发明涉及计算成像技术、阵列相机和人工智能技术领域,尤其涉及一种基于阵列相机***的仿视网膜非均匀成像方法。
背景技术
探测感知技术通过光电成像等探测手段实现对各类目标的识别跟踪,是电子信息最前沿、最尖端、最先进技术的汇集地,是信息化作战能力的制高点,然而,传统光电探测感知***以单相机平台为主,其成像分辨率和视场间存在相互矛盾关系,***性能受到限制。
因此,如何提升探测感知***的成像分辨率和有效视场是探测感知领域亟待解决的问题。
发明内容
有鉴于此,本发明提供了一种基于阵列相机***的仿视网膜非均匀成像方法,以解决现有技术中成像分辨率和视场间存在相互矛盾关系,***性能受到限制的问题。
本发明提供了一种基于阵列相机***的仿视网膜非均匀成像方法,包括:
S1基于阵列相机***中相机的Binning读出功能对所述阵列相机***中相机相应子视场进行低分辨率成像;
S2基于所述相机的全采样读出功能对所述阵列相机***中相机相应子视场进行高分辨率成像;
S3基于图像融合超分辨算法,使用残余密集网络从高分辨图像序列中获取细节信息,对相邻相机子视场的重叠区域进行超分辨率成像;
S4基于动态检测模式、细节识别模式和细节增强模式,实现全视场的仿视网膜非均匀成像;
所述步骤S4具体包括:
S41所述动态检测模式通过阵列相机***在所述全视场进行所述低分辨率成像,并进行动态检测以寻找ROI区,实现大范围动态搜索;
S42所述细节识别模式通过所述阵列相机***对所述全视场中所述ROI区进行高分辨率成像,并进行目标识别跟踪,实现目标精细感知;
S43所述细节增强模式通过对所述ROI区进行超分辨率成像,并进行目标识别跟踪,实现目标的超精细感知。
进一步地,S42包括:
基于深度卷积神经网络的小目标识别算法对全视场图像进行小目标识别;
将所有所述小目标所在子视场对应的所述相机开启所述细节识别模式,对多个所述小目标同时进行高分辨成像与跟踪;
当多个所述小目标跨越多个所述子视场时,利用所述相机间的子视场重叠区域对多个所述小目标轨迹进行相似度评估,使得多个所述小目标跟踪时相机间的顺利衔接,实现对小目标的精细感知。
进一步地,S4中所述仿视网膜非均匀成像是基于阵列相机***实现的。
进一步地,所述阵列相机***,包括:
类视网膜曲面状分离排布的阵列相机、智能标校***以及控制与处理***,
所述类视网膜曲面状分离排布的阵列相机采用类视网膜曲面状分离排布形式排列,以降低大视场角下的部分像差,所述阵列相机内的各相机对待探测场景的部分视场进行成像,相邻相机间有较大视场重叠;
所述智能标校***,用于对放置在可三轴转动的云台上的所述阵列相机进行高精度的位姿标校;
所述控制与处理***,用于对各云台位姿进行高精度调整,使得各相机子视场精确对齐,控制所述阵列相机,并对所述阵列相机获取的图像数据进行处理与计算。
进一步地,所述智能标校***:
采用二维平面标靶进行标定,获得线性标定模型,并通过标靶中多角点检测,线性求解每个相机对应的单应性变换矩阵的初始值;
将所述线性标定模型转化为非线性标定模型,通过非线性优化方法求解相机镜头的畸变系数;
对所述初始值和所述畸变系数进行非线性智能优化,使用蝙蝠算法,在所述初始值附近的邻域形成初始种群进行启发式的迭代搜索,获得目标函数,并采用优化搜索方法优化所述目标函数,求解所述单应性变换矩阵的最优解,以达到减小误差均值的目的。
进一步地,所述阵列相机***还包括地面智能监控***和空对地智能观测***。本发明与现有技术相比存在的有益效果是:
1.本发明通过多图像融合超分辨率重建算法使用深层网络从高分辨图像序列中获取更多的细节信息,通过充分利用多幅图像的有效信息,提升了重建图像质量;
2.本发明实现了仿视网膜非均匀成像方法,大大减小阵列相机数据获取量,在***采样前端实现低数据冗余的压缩采样,大幅提高***的信息获取效率;
3.通过基于深度卷积神经网络的小目标识别跟踪算法,进行目标特征的提取,解决模型训练不稳定问题,加快识别速度;
4、采用多目标识别跟踪算法,对视场内的多个目标进行识别跟踪,实现对人眼功能的超越。
附图说明
为了更清楚地说明本发明中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明提供的一种基于阵列相机***的仿视网膜非均匀成像方法的流程图;
图2为本发明提供的一种基于人眼视网膜视觉机制的阵列相机***的结构示意图;
图3为本发明提出的阵列相机***所采用的类视网膜曲面状分离排布形式示意图;
图4为本发明提出的阵列相机***中相邻相机视场重叠示意图;
图5为本发明提供的仿人眼注意力机制智能感知方法流程图;
图6为本发明提供的地面智能监控***的结构示意图;
图7为本发明提供的空对地智能观测***的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
下面将结合附图详细说明根据本发明的一种基于阵列相机***的仿视网膜非均匀成像方法。
图1是本发明提供的一种基于阵列相机***的仿视网膜非均匀成像方法的流程图。如图1所示,该仿视网膜非均匀成像方法包括:
S1基于阵列相机***中相机的Binning读出功能对阵列相机***中相机相应子视场进行低分辨率成像;
S2基于相机的全采样读出功能对阵列相机***中相机相应子视场进行高分辨率成像;
S3基于图像融合超分辨算法,使用残余密集网络从高分辨图像序列中获取细节信息,对相邻相机子视场的重叠区域进行超分辨率成像;
S4基于动态检测模式、细节识别模式和细节增强模式,实现全视场的仿视网膜非均匀成像;
步骤S4具体包括:
S41动态检测模式通过阵列相机***在全视场进行低分辨率成像,并进行动态检测以寻找ROI区,实现大范围动态搜索;
图2为本发明提供的一种基于人眼视网膜视觉机制的阵列相机***的结构示意图;
如图2所示,双向箭头表示数据互联,其中,类视网膜曲面状分离排布的阵列相机1智能标校***2和控制与处理***3。
阵列相机***,包括:
类视网膜曲面状分离排布的阵列相机、智能标校***和控制与处理***。
类视网膜曲面状分离排布的阵列相机采用类视网膜曲面状分离排布形式排列,以降低大视场角下的部分像差,阵列相机内的各相机对待探测场景的部分视场进行成像;
目的在于实现超分辨成像、提高***智能标校的准确性、确保目标识别跟踪过程中相机间的顺利衔接;
图3为本发明提出的阵列相机***所采用的类视网膜曲面状分离排布形式示意图。
图4为本发明提出的阵列相机***中相邻相机视场重叠示意图。
智能标校***,用于对放置在可三轴转动的云台上的阵列相机进行高精度的位姿标校。
智能标校***的实现方式如下:
智能标校***:
采用二维平面标靶进行标定获得线性标定模型,并通过标靶中多角点检测,线性求解每个相机对应的单应性变换矩阵的初始值;
将线性标定模型转化为非线性标定模型,通过非线性优化方法求解相机镜头的畸变系数;
对初始值和畸变系数进行非线性智能优化,使用蝙蝠算法,在初始值附近的邻域形成初始种群进行启发式的迭代搜索,获得目标函数,并采用优化搜索方法优化目标函数,求解单应性变换矩阵的最优解,以达到减小误差均值的目的。
控制与处理***,用于对各云台位姿进行高精度调整,使得各相机子视场精确对齐,控制阵列相机,并对阵列相机获取的图像数据进行处理与计算。
S42细节识别模式通过阵列相机***对全视场中ROI区进行高分辨率成像,并进行目标识别跟踪,实现目标精细感知。
基于深度卷积神经网络的小目标识别算法对全视场图像进行小目标识别;
将所有小目标所在子视场对应的相机开启细节识别模式,对多个小目标同时进行高分辨成像与跟踪;
当多个小目标跨越多个子视场时,利用相机间的子视场重叠区域对多个小目标轨迹进行相似度评估,使得多个小目标跟踪时相机间的顺利衔接,实现对小目标的精细感知。
基于深度卷积神经网络的小目标识别跟踪算法,构建由一系列残差块组成的深度残差网络进行目标特征的提取,获得多种分辨率特征图,然后采用区域推荐网络的锚点机制,添加相对坐标预测,解决模型训练不稳定问题,加快识别速度。同时引入特征金字塔结构,使网络可以进行多尺度预测,避免细小目标的漏检问题。此外,本发明还可将超分辨图像输入进深度网络中,作为一种数据增强方式可以为目标识别提供更多细节信息,进一步提升识别结果的准确度。之后结合目标识别结果标记,使用深度学习网络提取目标外观特征实现目标跟踪。
基于细节信息,当有多个小目标时,采用多目标识别跟踪算法,结合深度学习网络提取小目标外观特征,对视场内多个小目标进行识别跟踪,以便识别目标精细信息。
当小目标识别跟踪算法检测到当前帧的多个目标以及它们的坐标和边界框范围后,本发明使用卡尔曼滤波器对下一帧目标的位置进行估计和预测,然后通过匈牙利算法计算检测边界框与预测边界框的相似度,并进行匹配得到最佳匹配对结果与跟踪轨迹。由于相机间有较大重叠区域,根据跟踪轨迹可较容易地实现相机间的顺利衔接。
S43细节增强模式通过对ROI区进行超分辨率成像,并进行目标识别跟踪,实现目标的超精细感知。
图5为本发明提供的仿人眼注意力机制智能感知方法流程图。
基于上述阵列相机***的发明构思,本发明提出了一种仿人眼注意力机制,其模仿人眼注意力机制,可对动态目标进行快速识别,并使高分辨中央区域始终跟随目标,同时可结合超分辨算法超越人眼功能,实现对目标的超精细感知。
阵列相机***还包括地面智能监控***和空对地智能观测***。
图6为本发明提供的地面智能监控***的结构示意图。
针对阵列相机***,本发明研制了地面智能监控***,如图6所示,包括:阵列相机监控子***4、智能感知子***5、探测数据服务子***6;
阵列相机监控子***4采用类视网膜曲面状分离排布形式,且使用带有Binning读出功能和全采样读出功能的相机,可实现大视场非均匀成像。智能感知子***5经过以太网与阵列相机监控子***4进行数据互联,可控制阵列相机并处理图像数据,完成阵列相机的智能标校,实现阵列相机的智能感知与多目标识别跟踪。探测数据服务子***6用于结构化探测数据和处理数据,形成数据关联的数据库,并作为历史或离线数据保存下来。
图7为本发明提供的空对地智能观测***的结构示意图。
基于上述阵列相机***,本发明还研制了空对地智能观测***,如图7所示,包括:机载阵列相机子***7、地面站设备8、便携式阵列相机智能感知子***9;其中,
机载阵列相机子***7挂载在无人机或卫星平台上,阵列相机采用类视网膜曲面状分离排布形式,且使用带有Binning读出功能和全采样读出功能的相机,可实现大视场非均匀成像。地面站设备8通过数传和图传与机载阵列相机子***7通信,并通过以太网与便携式阵列相机智能感知子***9互联。便携式智能感知子***9中智能算法的部署加速主要由FPGA(Field Programmable Gate Array,现场可编程门阵列)为核心板的图像处理模块实现,子***可控制阵列相机并处理图像数据,完成阵列相机的智能标校,实现阵列相机的智能感知与多目标识别跟踪,处理后的结果通过态势感知与显示软件进行渲染显示。
传统方法,目标场景信息稀疏、非均匀的分布方式不匹配,造成了感知***软硬件资源配置的极大浪费。而人眼视网膜视觉经过长时间进化,可以更合理地分配成像资源。人眼视网膜光学信息获取端的特点是视网膜呈曲面状可有效避免场曲及其他部分像差,视网膜上视锥细胞呈非均匀分布,可实现中央区域高分辨而周边区域低分辨的非均匀成像。图像信息处理端的特点是人眼注意力机制使人眼高分辨中央区域始终跟随目标或在多个目标间迅速切换,可较好地实现***资源的优化配置。本发明提出的非均匀成像方式、人眼注意力机制等几个方面仿生人眼视网膜,且进一步发挥数字光电成像***的优势,实现对人眼感知功能的超越,进而大幅提高***的信息获取效率。
上述方案与现有阵列相机均匀成像的方式相比,非均匀成像方法可将***的信息获取效率提升为5倍;智能标校的综合误差优于 0.1-0.3像元;小目标识别跟踪算法对弱小目标极限探测距离提升至单相机4倍以上,小目标平均检测率不低于95%。
本发明通过通过多图像融合超分辨率重建算法使用深层网络从高分辨图像序列中获取更多的细节信息,通过充分利用多幅图像的有效信息,提升了重建图像质量;本发明实现了仿视网膜非均匀成像方法,大大减小阵列相机数据获取量,在***采样前端实现低数据冗余的压缩采样,大幅提高***的信息获取效率;通过基于深度卷积神经网络的小目标识别跟踪算法,进行目标特征的提取,解决模型训练不稳定问题,加快识别速度,采用多目标识别跟踪算法,对视场内的多个目标进行识别跟踪,实现对人眼功能的超越。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
本领域的普通技术人员应当理解:对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于阵列相机***的仿视网膜非均匀成像方法,其特征在于,包括:
S1基于阵列相机***中相机的Binning读出功能对所述阵列相机***中相机相应子视场进行低分辨率成像;
S2基于所述相机的全采样读出功能对所述阵列相机***中相机相应子视场进行高分辨率成像;
S3基于图像融合超分辨算法,使用残余密集网络从高分辨图像序列中获取细节信息,对相邻相机子视场的重叠区域进行超分辨率成像;
S4基于动态检测模式、细节识别模式和细节增强模式,实现全视场的仿视网膜非均匀成像;
所述步骤S4具体包括:
S41所述动态检测模式通过阵列相机***在所述全视场进行所述低分辨率成像,并进行动态检测以寻找ROI区,实现大范围动态搜索;
S42所述细节识别模式通过所述阵列相机***对所述全视场中所述ROI区进行高分辨率成像,并进行目标识别跟踪,实现目标精细感知;
S43所述细节增强模式通过对所述ROI区进行超分辨率成像,并进行目标识别跟踪,实现目标的超精细感知。
2.根据权利要求1所述的仿视网膜非均匀成像方法,其特征在于,S42包括:
基于深度卷积神经网络的小目标识别算法对全视场图像进行小目标识别;
将所有所述小目标所在子视场对应的所述相机开启所述细节识别模式,对多个所述小目标同时进行高分辨成像与跟踪;
当多个所述小目标跨越多个所述子视场时,利用所述相机间的子视场重叠区域对多个所述小目标轨迹进行相似度评估,使得多个所述小目标跟踪时相机间的顺利衔接,实现对小目标的精细感知。
3.根据权利要求1所述的仿视网膜非均匀成像方法,S4中所述仿视网膜非均匀成像是基于阵列相机***实现的。
4.根据权利要求1所述的仿视网膜非均匀成像方法,其特征在于,所述阵列相机***,包括:
类视网膜曲面状分离排布的阵列相机、智能标校***以及控制与处理***,
所述类视网膜曲面状分离排布的阵列相机采用类视网膜曲面状分离排布形式排列,以降低大视场角下的部分像差,所述阵列相机内的各相机对待探测场景的部分视场进行成像,相邻相机间有较大视场重叠;
所述智能标校***,用于对放置在可三轴转动的云台上的所述阵列相机进行高精度的位姿标校;
所述控制与处理***,用于对各云台位姿进行高精度调整,使得各相机子视场精确对齐,控制所述阵列相机,并对所述阵列相机获取的图像数据进行处理与计算。
5.根据权利要求4所述的仿视网膜非均匀成像方法,其特征在于,所述智能标校***:
采用二维平面标靶进行标定,获得线性标定模型,并通过标靶中多角点检测,线性求解每个相机对应的单应性变换矩阵的初始值;
将所述线性标定模型转化为非线性标定模型,通过非线性优化方法求解相机镜头的畸变系数;
对所述初始值和所述畸变系数进行非线性智能优化,使用蝙蝠算法,在所述初始值附近的邻域形成初始种群进行启发式的迭代搜索,获得目标函数,并采用优化搜索方法优化所述目标函数,求解所述单应性变换矩阵的最优解,以达到减小误差均值的目的。
6.根据权利要求5所述的仿视网膜非均匀成像方法,其特征在于,所述阵列相机***还包括地面智能监控***和空对地智能观测***。
CN202210069535.9A 2022-01-21 2022-01-21 一种基于阵列相机***的仿视网膜非均匀成像方法 Active CN114630024B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210069535.9A CN114630024B (zh) 2022-01-21 2022-01-21 一种基于阵列相机***的仿视网膜非均匀成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210069535.9A CN114630024B (zh) 2022-01-21 2022-01-21 一种基于阵列相机***的仿视网膜非均匀成像方法

Publications (2)

Publication Number Publication Date
CN114630024A true CN114630024A (zh) 2022-06-14
CN114630024B CN114630024B (zh) 2023-06-09

Family

ID=81897947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210069535.9A Active CN114630024B (zh) 2022-01-21 2022-01-21 一种基于阵列相机***的仿视网膜非均匀成像方法

Country Status (1)

Country Link
CN (1) CN114630024B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104007559A (zh) * 2014-05-08 2014-08-27 北京理工大学 含局部超分辨扫描的小凹成像***
CN107105147A (zh) * 2017-06-05 2017-08-29 北京理工大学 一种仿生超分辨成像传感器及成像方法
CN108648147A (zh) * 2018-05-08 2018-10-12 北京理工大学 一种人眼视网膜机理的超分辨率图像获取方法及***
JP2019041261A (ja) * 2017-08-25 2019-03-14 株式会社 日立産業制御ソリューションズ 画像処理システムおよび画像処理システムの設定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104007559A (zh) * 2014-05-08 2014-08-27 北京理工大学 含局部超分辨扫描的小凹成像***
CN107105147A (zh) * 2017-06-05 2017-08-29 北京理工大学 一种仿生超分辨成像传感器及成像方法
JP2019041261A (ja) * 2017-08-25 2019-03-14 株式会社 日立産業制御ソリューションズ 画像処理システムおよび画像処理システムの設定方法
CN108648147A (zh) * 2018-05-08 2018-10-12 北京理工大学 一种人眼视网膜机理的超分辨率图像获取方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
孙鸣捷等: "像素感光面形状对基于微扫描的红外超分辨成像的影响", 《红外与激光工程》 *
曹杰等: "曲面相机阵列多分辨成像方法", 《光子学报》 *

Also Published As

Publication number Publication date
CN114630024B (zh) 2023-06-09

Similar Documents

Publication Publication Date Title
CN106356757B (zh) 一种基于人眼视觉特性的电力线路无人机巡检方法
CN113052835B (zh) 一种基于三维点云与图像数据融合的药盒检测方法及其检测***
CN108537191B (zh) 一种基于结构光摄像头的三维人脸识别方法
CN107918776B (zh) 一种基于机器视觉的用地规划方法、***及电子设备
CN109344813B (zh) 一种基于rgbd的目标识别和场景建模方法
CN113192646B (zh) 目标检测模型构建方法及不同目标间距离监控方法、装置
CN105760831A (zh) 一种基于低空航拍红外视频的行人跟踪方法
CN112991487B (zh) 一种多线程实时构建正射影像语义地图的***
CN114038193B (zh) 基于无人机和多目标追踪的智能交通流量数据统计方法及***
CN112308913A (zh) 一种基于视觉的车辆定位方法、装置及车载终端
CN113743358B (zh) 一种全方位采集和智能计算的景观视觉特征识别方法
CN112037252A (zh) 基于鹰眼视觉的目标跟踪方法及***
CN111914615A (zh) 基于立体视觉的消防区域可通过性分析***
CN114972646B (zh) 一种实景三维模型独立地物的提取与修饰方法及***
CN109919215B (zh) 基于聚类算法改进特征金字塔网络的目标检测方法
CN112308887B (zh) 一种多源图像序列实时配准方法
CN112396637A (zh) 一种基于3d神经网络的动态行为识别方法及***
CN116958927A (zh) 一种基于bev图识别矮小柱状体的方法及装置
CN112801928A (zh) 一种基于注意力机制的毫米波雷达与视觉传感器融合方法
CN110827375B (zh) 一种基于微光图像的红外图像真彩着色方法及***
CN117422858A (zh) 一种双光图像目标检测方法、***、设备和介质
CN116797757A (zh) 一种基于实景三维的城市建筑群数据采集方法
CN114630024A (zh) 一种基于阵列相机***的仿视网膜非均匀成像方法
CN111914699B (zh) 一种基于摄像机视频流的行人定位及轨迹获取方法
CN115984592A (zh) 基于SuperPoint+SuperGlue的点线融合特征匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant