首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 140 毫秒
1.
合成孔径雷达( SAR)目标识别在军事和民用领域都具有重要的研究价值。但由于SAR数据获取成本高、样本数目少,传统的卷积神经网络提取目标特征的能力不足,准确率低下。提出结合卷积注意力和胶囊网络的分类模型,利用胶囊网络中的多维向量神经元表示目标更多的特征;同时,考虑到少样本情况下目标特征信息缺乏,为提高神经网络的学习效率,对胶囊网络加入注意力机制,通过学习不同特征的重要程度,引导分类网络重点关注对分类结果贡献大的特征,弱化对分类结果贡献小的特征,提高神经网络的学习效率。针对MSTAR数据集和实测车辆数据集的实验结果表明,该算法的准确率高于传统的卷积神经网络和胶囊网络算法。  相似文献   

2.
基于仿真SAR图像深度迁移学习的自动目标识别   总被引:1,自引:0,他引:1  
使用深度卷积神经网络实现SAR图像的自动目标识别在训练过程中需要大量的标注数据。为解决由SAR实测数据获取成本高、标注数据量不足带来的问题,提出一种在由CReLU激活函数和批归一化改进的卷积神经网络上,使用仿真SAR图像提升最终目标识别性能的方法,把从大量仿真SAR图像学习到的有效知识迁移到实测SAR图像数据上。在训练中,先用仿真SAR图像预训练卷积神经网络,结合迁移学习的方法,有效地解决由SAR图像数据不足带来的过拟合问题。在MSTAR数据集上验证方法的有效性,识别准确率提高到99.78%,并在少量SAR图像样本数据上也取得不错的识别效果。  相似文献   

3.
在极化合成孔径雷达(PolSAR)地物分类研究中,基于卷积神经网络的图像分割算法存在高维特征信息冗余而导致的分类边界模糊、分类精度低、计算复杂等不足,提出一种基于卷积神经网络和EM算法的轻量化图像分割网络,称为低秩重构网络(low-rank-reconstruction-net,LRR-Net),应用于全极化SAR图像的地物分类。LRR-Net从极化目标分解的思想出发,利用EM算法对特征进行低秩重构,将特征从高维空间映射到低维空间,在减少参数的同时实现更精确的分类。用高分三号全极化图像数据对模型进行训练测试并评估,结果表明模型在保证分类精度的前提下,降低了模型复杂度。  相似文献   

4.
合成孔径雷达(synthetic aperture radar,SAR)在合成孔径累积时间内仅在小范围方位角获取目标的后向散射特性,导致SAR图像对观测方位向的变化极其敏感。通过图像非相干合成方法将不同方位向上的多幅同目标SAR图像合成单幅特征更明显的SAR图像,通过二维主成分分析方法提取特征和k-近邻分类方法实现目标识别。在两组不同数据集上对识别性能进行分析。实验结果表明,多角度SAR的识别率比单一角度更高。多角度SAR对观测平台俯视角的变化具有较强的鲁棒性。  相似文献   

5.
提出一种基于主成分分析和支持向量机与线性判别分析结合算法的合成孔径雷达(synthetic aperture radar,SAR)图像目标鉴别方法. 利用主成分分析算法对SAR图像向量进行降维并提取其全局特征,对降维后的全局特征采用最小类内散度支持向量机算法进行变换,并对变换结果训练生成最佳分类器,进行分类完成目标鉴别. 实验结果表明该方法可以获得较高的分类正确率.  相似文献   

6.
提出一种基于建筑物几何特征的高分辨率(VHR)SAR图像仿真方法。该方法首先构建成像场景模型,以改进的光学着色模型近似散射模型;然后在场景间进行射线追踪,得到目标的散射强度信息和位置信息;为使仿真图像更加真实,引入后处理过程;最后经二维成像,得到逼真的建筑物SAR仿真图像。分析和仿真结果表明,该方法准确高效地仿真建筑物在SAR图像中的几何特征和辐射特征,可为理解和解译SAR建筑物图像提供有效的数据支撑。  相似文献   

7.
为快速辨别海底底质类型和海底目标,在分析Kohonen自组织特征映射网络(Self Organizing Feature Map, SOFM)和学习向量量化(Learning Vector Quantization, LVQ)算法的基础上,提出一种SOFM算法与改进的LVQ算法相结合的混合神经网络分类方法.利用这种分类方法,对预处理后的多波束测深系统获取的反向散射强度数据进行训练分类.通过对在实验区域提取的检测样本的分类结果进行比较分析,表明该方法是可行、有效的,而且在底质类型特征相近的情况下,具有较好的分类效果.  相似文献   

8.
提出一种基于显著性的高海况SAR图像船舶目标检测方法Itti-SAR,该方法由显著图提取与连接性判断两个阶段组成。在显著图提取阶段,针对SAR图像特性,将改进的方向特征和一致性特征引入传统视觉注意模型,以构建适用于SAR图像的显著性模型,实现高海况SAR图像船舶目标显著图的提取。在连接性判断阶段,采用密度约束对显著区域的连接性进行判断,防止将单个目标检测为多个,从而进一步降低虚警。在多幅SAR图像上的实验结果验证该方法的有效性,与经典CFAR算法的对比实验显示出其查准率、召回率高和不依赖于先验知识的优点。  相似文献   

9.
为提升极化合成孔径雷达(SAR)地物分类精度,提出一种基于AdaBoost改进型随机森林和支持向量机(SVM)结合的二级分类结构。首先将AdaBoost改进型随机森林作为初级分类器,该分类器能根据决策树的分类能力赋予权重,分类能力越强则权重越高,从而提升初级分类精度。初级分类器还能评估输入特征的重要性,获得重要性排名。根据重要性排名进行特征筛选,用筛选后的特征训练SVM分类器,获取二级分类结果。最后利用邻域投票法将两级分类结果融合。AIRSAR极化数据对比实验表明,该分类结构可有效提升极化SAR地物分类精度。  相似文献   

10.
针对光电图像中舰船分类检测困难的问题,提出一种基于改进循环注意卷积神经网络(recurrent attention convolutional neural network,RA-CNN)的舰船目标识别方法。该方法中的VGG19采用多个卷积层提取图像特征,注意建议网络(attention proposal network,APN)通过全连接层的输出定位特征区域,然后采用尺度依赖池化(scale-dependent pooling,SDP)算法选择VGG19中合适的卷积层输出进行类别判定,最后引入多特征描述特征区域,交叉训练VGG19和APN来加速收敛和提高模型精度。利用自建舰船数据集对方法进行测试,识别准确率较VGG19和RA-CNN有较大提升,识别准确率最高可达86.7%。  相似文献   

11.
针对实际军事情况下车辆目标为非合作目标,提出改进的主成分分析方法(IPCA)。它首先利用稀疏求解方法得到与测试样本最相关的部分训练样本以及它们对测试样本的表示系数。然后结合主成分分析(PCA)得到最优投影矩阵,使投影后不同测试样本能更好地利用训练样本信息进行分类。利用美国运动和静止目标获取与识别数据库中3类目标进行识别实验,结果表明基于改进的PCA方法比传统的PCA方法能够得到更高的识别率,并对稀疏方位角训练样本有更好的鲁棒性。  相似文献   

12.
提出一种基于多尺度Gabor滤波特征提取和稀疏表示的SAR图像目标识别方法。首先,在目标分割的基础上,利用Gabor滤波器对SAR目标图像在不同方向上进行滤波,增强目标的局部特征;然后,根据稀疏表示模型,以训练样本特征为原子构建字典,利用稀疏求解算法选择最优的原子集合来表示测试样本特征,进而计算表示系数中非负值的l1范数来判别测试样本。实验结果验证了该算法的有效性与鲁棒性。  相似文献   

13.
把通常用于图像处理的CLEAN算法引入到SAR成像处理中,提出一种基于CLEAN的SAR图像旁瓣抑制方法.分析算法流程,比较点目标仿真结果和RADARSAT-1海洋稀疏目标场景成像结果,表明该方法在保证成像分辨率的同时,能够有效地抑制合成孔径雷达图像的旁瓣.  相似文献   

14.
星上实时成像处理器是未来星载合成孔径雷达的重要组成部分,它可以进一步提高星载合成孔径雷达的性能,拓宽其应用。方位压缩处理是实时成像处理的核心。本文介绍了合成孔径雷达方位压缩处理的基本原理,并对星上实时成像处理器的系统参数进行了详细分析,提出了一种基于FPGA实现星载合成孔径雷达实时成像处理器中方位压缩处理的方法,完成了包括ISA接口、FFT运算、匹配滤波和复数取模在内的方位压缩处理器的设计。根据星上环境对器件的特殊要求,选用Xilinx的VirtexII系列FPGA进行硬件实现。对点目标仿真数据和实际数据的测试表明,该方法完全满足星上实时处理需求。  相似文献   

15.
掌纹特征的提取是掌纹识别中最关键的一个环节,特征提取算法的好坏很大程度上决定了系统的识别率和效率的高低.结合近年来发表的文献,按照分析和描述的方式对掌纹的特征提取方法进行了分类,并对主要特征提取算法进行了分析和特性比较,最后总结了掌纹多特征融合方法是未来掌纹特征提取方法进一步的研究方向.  相似文献   

16.
提出一种基于特征筛选和二级分类的建筑提取算法。该算法首先对极化SAR数据进行精致Lee滤波,获取多维极化特征和纹理特征构成原始特征集;然后将随机森林作为初级分类器评估各特征的重要性,依据重要性排名进行特征筛选;最后通过支持向量机对特征子集进行次级分类,并用邻域投票法将两级分类结果融合。AIRSAR极化数据实验结果表明,本算法可有效提高极化SAR建筑提取准确率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号