热门TAG
热门期刊
您的位置: 论文范文 >
论文范文

基于少样本的太阳射电爆发事件检测研究

 2022-11-25 08:38:46  来源:易择期刊 

摘    要:太阳射电爆发事件与多种太阳活动紧密相关,对不同类型的射电爆发事件进行研究有助于提高对太阳活动物理机制的理解,加强对空间天气的判读能力。为解决以往传统射电爆发事件检测方法存在的样本数据量小、检测速度慢、定位准确度低、人为因素干扰大等问题,文中提出采用基于深度学习的少样本目标检测方法对太阳射电频谱图中的不同射电爆发事件进行自动识别和定位。首先,由于目前缺乏公开的射电爆发事件检测数据集,基于美国绿岸太阳射电爆发频谱仪所观测到的射电频谱数据,构建了具有3种爆发类型、共745张图像的少样本目标检测数据集;然后,利用基于迁移学习的少样本学习方法解决了射电爆发事件检测数据集样本量少的问题。实验结果表明,所提方法具有可行性和有效性。


关键词:太阳射电频谱;目标检测;迁移学习;少样本学习;


Study on Solar Radio Burst Event Detection Based on Transfer Learning

GUO Jun-cheng WAN Gang HU Xin-jie WANG Shuai YAN Fa-bao

School of Aerospace Information,Space Engineering University Laboratory of Space

Electromagnetic Detection Technology, Shandong University


Abstract:Solar radio burst events are closely related to a variety of solar activities.The study of different types of radio burst events will help to improve the understanding of the physical mechanism of solar activities and strengthen the ability to interpret space weather.In order to solve the problems of small sample data,slow detection speed,low positioning accuracy and large interference of human factors in the traditional radio burst event detection methods,a small sample target detection method based on deep learning is proposed to automatically identify and locate different radio burst events in the solar radio spectrum.Firstly,due to the lack of public radio burst event detection data set,based on the radio spectrum data observed by the green bank solar radio burst spectrometer in United States,a small sample domain target detection data set with three burst types and 745images is constructed.Then,the small sample learning method based on transfer learning is used to solve the problem of small sample data in radio burst event detection data set.Experimental results show that the proposed method is feasible and effective.


Keyword:Solar radio spectrum; Object detection; Transfer learning; Few-shot learning;


在太阳活动高年,太阳上所发生的日冕物质抛射、耀斑、暗条等太阳活动严重影响日地空间环境,会对空间飞行器、人类出舱活动、空间通信和其他人类生产生活产生重大的影响。太阳射电爆发通常发生在太阳耀斑期间,它携带着爆发源区的物理环境以及辐射机制等诸多重要信息,尤其是微波爆发的精细结构,其持续时间短、变化快、结构复杂,可以反映重联过程复杂的磁场结构、高能粒子运动等许多特征[1]。根据太阳射电信号在频谱图上的不同形态,可将米波太阳射电爆分为I-V型,每种类型的射电爆发事件都与不同的太阳活动现象紧密相关。因此,对太阳射电爆发事件进行自动检测,提取出爆发事件的有效信息,将有助于天文工作者开展专业的天文学分析。


目标检测是计算机视觉的重要研究内容,其旨在从图像中精确定位出预定义的目标类型和目标位置,传统的目标检测算法依赖手工设计特征,通过图像变换方法进行特征提取,采用滑动窗口方式选取候选框,使用统计学习方法进行目标分类和边框回归,导致其算法精度低、速度慢、泛化性差。近年来,深度卷积网络在机器视觉领域取得了重要成果,随着卷积网络层数的不断加深和数据库的大型化,AlexNet,VGG,GoogleNet等卷积网络将大规模图像分类任务的准确度逐步提升到了一个很高的水平,也由此为目标检测算法带来了新的研究方向。目前,基于深度学习的目标检测算法可分为单阶段目标检测(YOLO系列、SSD系列)和两阶段目标检测(R-CNN系列)。


受到深度学习技术发展的限制和学科交叉进程的影响,目前国内外关于太阳射电爆发事件检测的研究不多,并且仍以基于统计特征的方法为主。Lobzin等于2009年前后提出使用Hough变换和Radon变换检测频谱图中的近似直线条,通过直线的匹配识别分析II型和III型爆发,实现爆发自动检测[2,3];2018年,Salmane等首先分析了实时记录信号的动态频谱以消除干扰信号,并进一步采用了梯度中值滤波器对信号进行了平滑滤波处理,最后提出了一套基于统计特征的检测分类系统[4];同年,Zhang等采用Canny算子检测和消除仪器或环境中干扰的不良数据,然后采用Hough变换检测III型射电爆发,并使用主动轮廓模型来跟踪不同的爆发现象,估计了不同信道的频率漂移率[5];2020年,山东大学的Zhang利用Faster R-CNN算法实现了对槎山天文台观测到III型射电爆发事件的定位检测,这也是深度学习方法在射电爆发自动检测上的首次应用,但其存在检测目标较小且类型单一的问题[6]。针对太阳射电爆发事件检测研究中存在的问题,本文将对美国绿岸太阳射电爆发频谱仪(Green Bank Solar Radio Burst Spetrometer,GBSRBS)所采集到的射电爆发频谱数据,利用基于深度学习的目标检测算法,实现对多类型(II型、III型和IV型)太阳射电爆发事件的识别和定位检测,实验结果证明了所提方法的有效性,这将对日后开展相关天文学研究提供便利。


1关键技术

1.1选择性搜索算法

不同于目标识别,目标检测除了要输出图像中所包含的目标类型之外,还要框出目标所在的具体位置(Bounding Box)。在进行目标检测时,为了定位到目标位置,一般会把整个图像分成若干个候选区域(Region Proposal),然后将候选区域输入到识别模型中去,进行目标类型识别。传统的目标检测算法大多以图像识别为基础,一般采用滑动窗口法(Sliding Window)通过穷举获得候选区域,然而这种方法存在计算量大、消耗资源多、检测速度慢和定位不准确等问题。为了有效去除冗余候选区域,减轻网络负担,一种基于区域的搜索算法———选择性搜索算法(Selective Search)应运而生。


在选择性搜索中,先利用基于图的图像分割方法得到小尺度的区域,然后在考虑图像的所有特征(颜色、纹理、大小等)和计算复杂度的情况下,使用贪心策略,通过一次次地合并最相似的相邻区域来获得数量更少、位置更准确的大尺度候选区域,其伪代码如算法1所示。


1.2区域生成网络

Faster R-CNN提出了区域生成网络结构(Region Proposal Network,RPN),专门用来提取候选框,这极大地减少了耗时,也将目标检测全过程融入到了一个神经网络框架中。如图1所示,RPN的输入是Faster R-CNN的公共特征图(Feature Map),其大小为C×H×W。通过Sliding Window处理,相当于对特征图进行了一次3×3的卷积操作,得到了大小为256×H×W的特征图。对于此时特征图中的每个256维特征向量,经过两个相当于1×1卷积的全连接操作,一个通过Softmax后得到候选框是物体和背景的分数,另一个计算相对于原图坐标的偏移量,最终输出6×H×W的特征图。


1.3候选区域池化

由于产生的大量候选区域会导致模型表现受限,很难做到实时目标检测,更无法实现端对端(End-to-end)训练,因此候选区域池化方法(ROI Pooling)被提出,ROI Pooling层可以实现模型训练和测试速度的显著提升,并提高模型的检测精度,其详细操作过程如图2所示。


ROI Pooling层的输入是输入图像通过特征提取后的公共特征图和一个表示所有ROI的特征矩阵。根据输入图像和ROI矩阵,ROI Pooling通过将不同大小的ROI池化成大小相同的Feature Map,使其有利于输出到下一层全连接网络中进行分类,从而显著提升了检测速度。


1.4非极大值抑制

非极大值抑制(Non-Maximum Suppression,NMS)的思想是搜索局部最大值,在边缘检测、目标检测、人脸识别等计算机视觉任务中有着广泛的应用。在YOLO系列、R-CNN系列和SSD系列算法进行目标检测时,会在同一目标的位置上产生大量的候选框,并且这些框彼此之间可能存在重叠现象,此时需要利用NMS消除冗余的边界框,找到最佳的目标边界框。非极大值抑制算法的伪代码如算法2所示。


2 基于迁移学习的射电爆发事件检测

2.1两阶段目标检测网络

按照Region Proposal的生成方式,把目标检测算法分为基于候选区域的目标检测和基于回归的目标检测。基于候选区域的目标检测算法也称之为两阶段目标检测,它将整个检测流程分为两个阶段:首先检测网络对输入图像提取候选区域,然后通过分类器和回归器对候选区域进行目标分类和位置回归。目前,R-CNN系列[7,8,9]是最具代表性的两阶段目标检测网络。


2012年,AlexNet一经提出便备受瞩目,Girshick等也大受启发,尝试将AlexNet的图像分类能力迁移到目标检测任务中,提出了R-CNN (Region-based Convolutional Neural Networks)算法。R-CNN网络将目标检测任务分成了一系列训练阶段:首先,使用Selective Search算法来对输入图像生成2 000个候选区域;其次,将生成的所有候选区域统一缩放到网络需要的固定尺寸(227×227),将预训练好的AlexNet网络最后的全连接层去掉,并设置类别个数为21,用于候选区域的特征提取;然后,利用提取到的每个候选区域的特征,对每个类别训练一个SVM分类器,通过设置IOU阈值来判别每个候选框中的目标类型;最后,针对得到的候选区域目标框准确度的问题,训练了对应的线性回归模型进行判断。在用训练好的模型进行目标检测时,针对出现的重叠目标框问题,采用了NMS算法来剔除重叠的候选区域。R-CNN算法的提出使得目标检测任务的精度有了质的飞跃,也成为了两阶段目标检测网络的奠基之作。但是,R-CNN算法还存在一些问题:训练分为多个步骤,每个步骤都会产生大量的计算开销,对计算硬件的要求较高;检测速度慢,无法做到端对端的实时目标检测;生成的候选区域需要被裁剪缩放,这造成了候选区域的变形,严重损害了目标区域的细节特征。


2015年,Girshick再次推出了Fast R-CNN目标检测网络,相比R-CNN,其网络结构更加紧凑,构思也更加巧妙,训练时间从84h缩短到9.5h,测试时间从47h缩短少为0.32h,在PASCAL VOC 2007上的检测精度从58.5%提升到了67.0%。Fast R-CNN的输入是整幅图像和多个ROI候选框;并依然使用预训练的卷积网络来对整幅图像进行特征提取得到多个特征图;通过设置ROI Pooling层,对于每个候选框,网络将ROI映射到固定大小的特征图中,解决了候选区域因裁剪缩放而扭曲变形的问题;得到的固定长度的特征向量被送到一系列的全连接层中,并最终分化为了两个输出层,一个通过Softmax输出目标类型,另一个输出表示目标位置的坐标值。Fast R-CNN存在使用测试样本进行训练时无法更新特征提取部分参数的问题,这是由于将特征提取和检测部分分开进行所导致的,为此,Fast R-CNN采用梯度反向传播的方法来更新整个网络的参数。此外,Fast R-CNN通过让同一张图像在前向和后向传播中共享计算和内存的方式,提高了网络的训练效率。尽管如此,由于依赖选择性搜索的候选区域生成方法,导致算法在CPU上运行的速度很慢,使得Fast R-CNN依然不能实现实时的目标检测,并且在严格意义上还不算是端对端(end-to-end)网络。


同年,Faster R-CNN提出了RPN,并将候选区域的提取和目标检测网络结合到了一起,解决了Fast R-CNN候选区域提取方法耗时较长的问题,其结构如图3所示。


Faster R-CNN的网络由4部分组成:1)卷积层,通常选择具有13个卷积单元的VGG16网络进行输入图像的特征图提取,所生成的Feature Map用于RPN网络生成候选区域以及用于ROI Pooling的映射;2)RPN网络,输入是卷积层提取的特征图,输出为一系列的候选区域;3)ROI池化层,输入的是卷积层提取的特征图和RPN生成的候选区域ROI,其作用是将特征图中每一个对应的候选区域转换为固定大小的特征向量,并输入到后面的分类和回归的全连接层中;4)分类和回归层,输入的是ROI Pooling之后的固定大小特征图,通过Softmax判断每个ROI的类别,并对边框的位置进行回归修正。相比之前的网络,Faster R-CNN提出的RPN在生成ROI时效率更高,并且算法的运行速度达到了每张图像10ms,在采用VGG16为主干网络时,其在VOC 2007数据集上的分类精度达到了73.2%mAP。但是其依然存在一些问题,如卷积特征提取网络对于候选区域的位置不够敏感、每个候选框的分类和回归器参数不能共享等[10]。


2.2 单阶段目标检测网络

与两阶段目标检测器不同,以YOLO系列[11,12,13]和SSD系列[14,15]为代表的单阶段目标检测网络抛弃了候选区域生成的步骤,将目标框中的物体检测和定位集中在一个步骤中完成,使得检测网络结构更加简单高效,检测速度得到了大幅提升,并逐渐能够满足实时的目标检测任务需求。


如图4所示,YOLOv1网络将整幅图像作为输入,在将图像缩放到448×448的固定尺寸之后,将输入图像划分为S×S个格子;每个网格负责对中点落入其中的目标进行预测,其中每个网格需要预测B个窗口的位置坐标和包含目标的置信度,此外还包括C个不同类别的概率;最后使用NMS算法去除重叠的目标框,从而得到最终的预测框。YOLOv1通过使用多任务损失函数同时进行目标分类和边框回归,加速了神经网络框架进行目标检测的速度,达到了45f/s;但是由于其划分的网格数量较少,网络比较简单,导致整个算法对相邻目标和小目标的检测精度较差,同时其目标框的定位精度也不满足实时目标检测的精度要求。2017年,Redmon等提出了改进版本YOLOv2,该网络使用批量归一化操作代替了卷积层中的DropOut操作;同时移除了网络中的最后两层全连接,转而使用卷积层来进行检测框位置和类别的预测;为了提高小目标的检测精度,网络将浅层特征和深层特征进行了级联,使之具有了捕捉细粒度特征的能力;并采用Darknet-19作为整个网络的基本骨架。通过这些措施,YOLOv2的目标检测精度得到了大幅提升,最终在VOC 2007数据集上取得了78.6%的准确度。2018年,YOLOv3再度问世,该网络对骨干框架进行了再次调整,采用了速度更快、效果更好的Darknet53;同时,为了实现多尺度的目标检测,借鉴了FPN的思想,对网络中3个不同位置的不同尺寸特征图进行了目标检测;在训练时,采用了Logistic回归算法的二元交叉熵作为损失函数,实现了对单个候选框进行多个目标类型的判断。YOLOv3算法可以满足实时目标检测的速度和精度要求,逐渐成为了工程首选的目标检测算法之一。


Faster R-CNN的准确度较高,漏检率较低,但是其速度却不能满足实时检测的要求;YOLO算法虽然检测速度快,但是其模型精度却比Faster R-CNN低。基于此,Liu等于2016年提出了SSD网络,该算法吸收了它们各自的优点,对于300×300大小的输入图像,SSD可以在VOC 2007数据集上实现58f/s,72.1%的mAP准确度。SSD采用VGG16作为基础网络来提取输入图像特征,并去掉了全连接层,只用了5个卷积层和1个平均池化层进行目标的定位和分类识别;由于每一个卷积层都会输出不同大小感受野的特征图,因此SSD通过在这些不同尺度的特征图上进行目标位置和类型的训练,增加了不同比例的目标框,提高了模型的泛化能力,实现了多尺度的目标检测;针对YOLO在训练中需要自适应目标形状的问题,SSD同样也提出了锚框的概念———对于卷积层输出的特征图中的每个点,都对应着原输入图像中的一个区域的中心点,以该中心点为锚点构造出6个比例和大小不同的框,每个框对应着4个位置参数和21个类别参数;与YOLO网络一样的是,SSD首先筛选的是低于置信度阈值的候选框,再采用NMS算法剔除重叠度较高的多余检测框,不同的是SSD需要综合各个不同尺寸特征图上输出的目标检测框[16]。


2.3 基于微调的迁移学习

随着越来越多的深度学习应用场景出现,大规模的数据量成为了制约神经网络优势发挥的瓶颈。迁移学习可以充分利用标注好的大量数据,同时可以保证在新领域上的模型精度,逐渐成为了解决少样本图像目标检测任务的方法之一。迁移学习是从相关领域中迁移标注数据或者知识结构,完成或改进目标领域任务的学习效果,主要包括基于关系的迁移、基于共享参数的迁移和基于特征的迁移[17]。


基于共享参数的迁移研究的是如何找到源域数据和目标域数据的空间模型之间的共同参数或者先验分布,从而可以通过进一步处理,来达到知识迁移的目的。微调(Fine-turnning)策略是一种重要的共享参数的方法,通常采用冻结预训练模型的部分卷积层(靠近输入并且保留着大量底层信息的特点),甚至不冻结任何的卷积层,只对剩下的卷积层(靠近输出)和全连接层进行训练的学习方式。这种方法无需从头开始训练整个网络,相反可以利用预先训练好的网络架构,快速开始新的学习任务,并最终得到精度更高的迁移学习模型,非常适用于少样本学习任务。


结合迁移学习的特点以及受到射电频谱图像数据量的现实制约,本文将基于微调的方法应用于太阳射电爆发事件检测的研究。如图5所示,整个爆发事件检测模型的训练主要分为两个阶段:第一阶段主要是利用大量的基本数据样本(源域)对普通的单、双阶段目标检测网络(如Faster R-CNN,YOLOv3等)进行训练,该阶段网络的损失由RPN网络、分类分支和边框回归3部分组成;第二阶段是在保持整个特征提取器固定不变的情况下,将新类(目标域)的随机初始化权重分配给模型的边框预测网络,并只微调模型最后一层的边框回归和分类网络,通过采用相同的损失函数来加速模型的训练过程。整体上,模型将在源域数据上预训练好的、已用于其他任务的权重全部或者部分作为初始值进行训练,并主要通过Fine-turning的方式来进一步调整网络在目标域数据上的参数。由于特征提取部分通常会提取到一些比较泛化的特征,并且对于不同的数据集,其特征提取方式也没有太大的差异;因此,选择将特征提取部分固定不变,并通过后期的分支网络,将特征进行变换,通过加权组合最终得到一个物体的完整特征。在第一阶段的训练中,特征提取器经过大量样本的学习,本质上是学到了大量物体的特征,即使某些类别可能在目标域数据中没有出现过,但是这些相似物体的某些特征已经在源域数据中被网络学习到了,并通过第二阶段的Fineturning网络,实现了特征组合权重的重新调整,从而使得模型适应了新的领域任务。


3射电频谱图像爆发事件检测实验

3.1 目标检测数据集

3.1.1 PASCAL VOC 2007

PASCAL VOC挑战赛是视觉对象的分类和检测的一个基准测试,提供了检测算法和学习性能的标准图像注释数据集和标准的评估系统。从2005年至今,挑战赛和其所使用的数据集已经成为目标检测领域普遍接受的一种标准数据集。VOC 2007竞赛主要是进行图像的目标识别,其提供的数据集共有9963张彩色图像,并划分为训练集(5 011幅)和测试集(4 952张),一共包含20类的物体,平均每张图像有2.4个目标,图像中所标注的目标包括人、动物(如猫、狗、鸟等)、交通工具(如车、船飞机等)和家具(如椅子、桌子、沙发等)等。


3.1.2 爆发事件检测数据集

美国国家射电天文台网站提供了绿岸太阳射电爆发频谱仪(GBSRBS)所观测到米波波段太阳射电爆发图像,并按照太阳射电暴的特征、持续时间和频率范围将爆发事件分为了II-IV 3种类型。本文爬取了该网站提供的745张频谱图像,并将其中的射电爆发事件分为II型、III型和IV型3种类型,每种类型的具体形态如图6所示。除了明确数据集中的目标类型之外,本节使用LabelImg工具对745张频谱图像中的目标位置范围进行了逐一标注,并在标注完成后生成了包含爆发目标类型和位置信息的.xml文件。最终,本文所使用的爆发事件检测数据集的具体参数如表1所列。


3.2 实验设计

如图6所示,本文以PASCAL VOC 2007数据集为迁移学习的源域数据集,以爆发事件检测数据集为目标域数据集,采用多种目标检测算法模型在源域数据集上进行预训练,将训练好的网络在目标域数据集上再次进行微调训练,实现目标检测任务的迁移学习过程。


实验平台采用ubuntu 18.04;GPU为NVIDIA的TI-TAN RTX,其大小为24GB;主板是INTEL的Z390UD;采用python编程语言和tensorflow 2.1深度学习框架。实验时设置初始学习率为0.001;优化器采用Adam;迭代次数设置为5 000;批大小设置为32。


3.3 评价指标

在目标检测任务中,交并比(Intersection Over Union,IOU)描述的是模型所预测的检测框和真实的检测框(Ground Truth)的交集和并集的比例。


对于单张图像,通过遍历图片提取出某种类型的所有Ground Truth对象,之后通过检测器输出该类别的检测框,并按照置信度高低排列,通过设置置信度阈值剔除部分检测框。计算其中置信度最高的检测框与Ground Truth的交并比,若IOU大于IOU阈值,即记为TP;小于IOU阈值的检测框记为FP;除TP之外,图片中剩下的该类别Groud Truth数量记为FN。根据TP,FP和FN可以计算出每张图片的某一类别的准确度(Precision)和召回率(Recall):


根据准确率和召回率可以绘制出这一类别的PrecisionRecall(P-R)曲线。平均准确度(Average Precision,AP)的具体计算过程如式(4)所示,是通过计算P-R曲线函数的积分得到的;换言之,AP表示P-R曲线下的面积。mAP(mean Average Precision)是用来评价目标检测算法准确度的常见指标,可通过计算检测结果中所有类别目标AP值的均值得到,如式(5)所示。


由于目标检测技术的很多实际应用在速度上也有很高的要求,因此除mAP之外,一般常用FPS(Frames Per Second)作为目标检测算法的速度评价指标,用于表示模型每秒能处理的图片数[18]。


3.4 实验结果分析

表2列出了在YOLOv3,Faster R-CNN和SSD不同目标检测算法下的射电爆发事件检测结果。


(1)Faster R-CNN取得了最高的评价准确度均值,但是其算法处理速度只有14张每秒;与其相反,YOLO v3的处理速度最快,达到了34张每秒,但它的精度最低,只有41%;SSD吸收了前两者各自的优劣势,在精度不明显低于Faster R-CNN的情况下,检测速度更快。


(2)结合图7可以发现,射电爆发事件类型III比类型II和类型IV更容易被检测到;尤其是II型射电暴,在所有标记样本中几乎有一半的目标不能被成功识别;IV型射电暴数量最少,但容易与其他类型相混淆而不能被成功检测到。


图8给出了太阳射电爆发事件检测数据集的一些实验结果示例,图8(a)展示的是可以被成功识别的样本,图8(b)是检测失败的样本示例。可以发现,成功检测到射电爆发事件的频谱图像的特征一般比较简单,而且无论是II型、III型还是IV型射电暴,只要单独出现在整张频谱图像中,基本都可以被成功识别和定位;对于多种爆发事件共存的频谱图像,如果其图像背景比较干净,不同类型之间有明显的距离,也可以被检测到。实验中也存在一些检测失败的样本,它们几乎都存在图像背景复杂、干扰噪声明显和不同类型目标相互交叉的问题,这导致检测算法对各类型目标特征难以捕捉,也无法成功定位到射电暴的位置,最终在频谱图像上产生了大量的虚报、漏报、误报和错报现象。同时,如何对射电频谱图像中的爆发事件进行正确而合理的标注也是影响检测实验结果的一个重要因素。


结束语

对太阳射电爆发事件进行识别和定位对于理解太阳活动机理和空间天气状态具有重要意义,但利用深度学习开展相关的研究仍然不多。基于此,本文自行标注构建了太阳射电爆发事件检测数据集,并利用基于迁移学习的少样本目标检测方法对射电爆发目标进行了检测实验;通过分析实验结果,证明了YOLO等目标检测算法可以实现从源域数据集到目标域数据集的迁移,本文方法具有可行性和先进性。同时,实验结果说明,检测精度容易受到数据集标注过程、射电频谱图像样本特征和不同域数据集之间特征差异的影响。对此,将在后续的研究中通过设置合理的标注标准、改进目标检测算法等手段来提高检测性能。


参考文献

[1] TAN C M.Study on radio burst of solar activity and comprehensive analysis of multiband observation[D].Beijing:National Astronomical Observatory,Chinese Academy of Sciences,2007.

[2] LOBZIN V V,CAIRNS I H,ROBINSON P A,et al.Automatic recognition of coronal type II radio bursts:the automated radio burst identification system method and first observations[J].The Astrophysical Journal Letters,2010,710(1):L58.

[3] LOBZIN V V,CAIRNS I H,ROBINSON P A,et al.Automatic recognition of type III solar radio bursts:automated radio burst identification system method and first observations[J].Space Weather the International Journal of Research&Applications,2009,7(4):102-114.

[4] SALMANE H,WEBER R,ABED-MERAIM K,et al.A method for the automated detection of solar radio bursts in dynamic spectra[J].Journal of Space Weather and Space Climate,2018,8(6):58-69.

[5] ZHANG P J,WANG C B,YE L.A type III radio burst automatic analysis system and statistic results for a half solar cycle with Nançay Decameter Array data[J].Astronomy and Astrophysics,2018,6(4):92-108.

[6] ZHANG Q M.Research on classification and location detection methods of solar radio burst events[D].Weihai:Shandong University,2020.

[7] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥IEEE Computer Society.IEEE Computer Society,2013.

[8] GIRSHICK R.Fast R-CNN[J].arXiv e-prints,2015.

[9] REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2017,39(6):1137-1149.

[10] HUANG J,ZHANG G.Survey of object detection algorithms for deep convolutional neural networks[J].Computer Engineering and Applications,2020,56(17):12-23.

[11] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detection[J].arXiv e-prints,2016.

[12] REDMON J,FARHADI A.YOLO9000:better,faster,stronger[C]∥IEEE Conference on Computer Vision&Pattern Recognition.IEEE,2017:6517-6525.

[13] REDMON J,FARHADI A.YOLOv3:An incremental improvement[J].arXiv e-prints,2018.

[14] LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shot multibox detector[C]∥European Conference on Computer Vision.Cham:Springer,2016.

[15] FU C Y,LIU W,RANGA A,et al.DSSD:deconvolutional single shot detector[J].arXiv e-prints,2017.

[16] HAN Y S,MA S P,HE L Y,et al.Detection of the object in the fast remote sensing airport area on the improved YOLOv3[J].Journal of Xidian University,2021,48(5):43-51.

[17] ZHAO K L,JIN X L,WANG Y Z.Survey on few-shot learning[J].Journal of Software,2021,32(2):349-369.

[18] WU T,LIU Y Q,JIANG S H.Research on SAR image ve hicle target recognition method based on transfer learning[J].Journal of Changchun University of Science and Technology(Natural Science Edition),2021,44(2):58-64.

本文标签:
诚信认证 电子商务诚信单位认证

Copyright 1998- 易择期刊网 All Rights Reserved

本站不是任何杂志官网,不涉及出版事务,数据来源网络,如有侵权,请联系我们删除,谢谢