计算智能与神经科学

PDF
计算智能与神经科学/2021/文章

研究文章|开放获取

体积 2021 |文章的ID 6647220 | https://doi.org/10.1155/2021/6647220

张桃红,范素丽,胡俊南,郭旭旭,李倩倩,张颖,Aziguli Wulamu 基于引导训练的分类任务特征融合方法”,计算智能与神经科学 卷。2021 文章的ID6647220 11 页面 2021 https://doi.org/10.1155/2021/6647220

基于引导训练的分类任务特征融合方法

学术编辑器:马里奥Versaci
收到了 2020年12月30日
修改后的 2021年2月7日
接受 2021年2月11日
发表 2021年4月15日

摘要

针对一些仅靠图像无法准确分类的特定识别任务,构造了一种带有引导训练的特征融合方法(FGT-Net),将图像数据与数值数据进行融合。该结构分为共享权重网络部分、特征融合层部分和分类层部分。首先,提出了引导训练方法,优化训练过程,将代表性图像和训练图像输入到共享权重网络中,学习更好地提取图像特征的能力,然后在特征融合层中将图像特征和数值特征融合在一起,输入到分类层中进行分类任务。通过实验验证了该模型的有效性。损失由共享权重网络和分类层的输出计算。实验结果表明,本文提出的FGT-Net准确率达到87.8%,比ShuffleNetv2的CNN模型(只处理图像数据)提高15%,比DNN方法(只处理结构化数据)提高9.8%。

1.简介

为了从图像中直接识别物体,研究者们提出了卷积神经网络(convolutional neural network, CNN),这是一种类似于人工神经网络的深度学习模型或多层感知器,将图像的每个像素视为一个特征。CNN常用来分析视觉图像。第一代CNN是LeNet [1],由LeCun于1998年提出。这种网络结构是为了解决手写数字识别的视觉任务而提出的,是早期cnn中最具代表性的结构之一。从那时起,cnn最基本的架构已经确定:卷积层、池化层和全连接层。2012年,Alex Krizhevsky提出了AlexNet [2,提出了新的激活函数(ReLU)、局部响应归一化(LRN)、dropout和数据增强等方法来提高网络的泛化能力。AlexNet在ILSVRC2012中获得第一名[3.],自那时起,cnn受到了研究人员的广泛关注。AlexNet之后,出现了很多优秀的CNN模型,主要有三个发展方向:(a)更深:网络层更深,代表性的网络是VggNet [4], ResNet [5];(b)模块化:一个模块化的网络结构(Inception),代表网络是GoogleNet [6], Inceptionv2 [7], Inceptionv3 [8]和《盗梦空间4》[9];(c)更快:轻量级网络模型,对于移动设备,有代表性的网络是SqueezeNet [10]、MobileNet [11], ShuffleNet [12], MobileNetv2 [13], ShuffleNetv2 [14],及MobileNetv3 [15].

图像可以为cnn提供纹理、形态和颜色等特征信息。从图像中提取特征时,图像总是受到各种不确定因素的影响[16- - - - - -18].为了减少不确定性的影响,研究人员采用了一些数据增强方法[19- - - - - -21].然而,对于某些特定的识别任务,仅使用图像数据是不够的。例如,当诊断患者是否患有肺部疾病时,将患者的x线片信息与其他临床症状结合起来,考虑患者的病情,进而提出治疗方案。这里,x射线胶片信息是图像数据;其他临床症状可组织成结构化数据;患者的病情或诊断是分类器的预测结果。在这种情况下,图像数据并不是唯一和绝对的标准;应结合图像数据和结构化数据进行诊断。

另一个例子是关于三个品种的狗的识别,博必威2490美犬,萨摩耶和日本斯皮兹。如果仅通过图像识别,如图所示1,很难有很高的识别率,因为他们在图像中有相似的纹理、外观和颜色。但这三只狗的实际大小不同。不同的图像不能客观地反映实际的物理尺寸。因为不同的摄影师在不同的地方拍摄的不同的图像,拍摄距离很难是相同的。这类识别问题需要图像和其他信息一起执行,以获得较高的识别精度。

因此,在本文中,我们设计了一种新的框架,将通过CNN方法获得的图像特征与从结构化数据中获得的数值特征融合在一起,以解决这类分类问题。目前还没有将CNN网络与结构化数据在同一框架下结合的方法。受自适应参数选择思想的影响22],采用共享权重网络作为引导训练设计的训练部分。融合的特征成为一个特征向量,它是分类器的输入。需要指出的是,我们的方法对于需要图像数据和结构化数据一起综合解决的问题是有效的。

本文的贡献如下:(1)提出了一种融合框架FGT-Net,该框架能够融合图像数据和数值数据,增强特征的代表性,便于进一步分类。(2)提出了一种引导训练方法。训练方法可以促进框架学习图像的特征,使属于同一类的图像的特征尽可能相同。(3)将CNN结构的功能扩展到图像数据以外的结构化数据。它增加了CNN同时处理图像数据和结构化数据的能力,解决了一些仅凭图像无法准确分类的具体问题。

这篇论文中有许多首字母缩写词。本文中所有缩略语的全称见表1


首字母缩略词 全名

FGT-Net 带引导训练的特征融合网络
美国有线电视新闻网 卷积神经网络
LRN 局部响应规范化
DDE 动态微分熵
AHNF 属性异构网络融合
DFF-ADML 基于自适应判别度量学习的深度特征融合方法
氮化镓 生成式对抗网络
物流网络 多特征融合神经网络
SWN 共享权重网络

2.1.类内和类间差异

目前,对这些差距较小的类别进行分类的主要思路是减少类内方差,增加类间方差。在人脸识别领域,有很多关于减少类内方差和增加类间方差的研究。当使用传统的Softmax进行训练时,样本特征向量的后验概率 (最后一个全连通层的输入向量)属于class 在哪里 是班级的数量,和 为最后一个全连接层的权值, 是偏见。在[23- - - - - -25],建议设置 到0,所以 表示夹角。 权重向量 为了减小类内方差,增加类间方差,作者在[26]提出了增加角度约束的L-Softmax 基于[26], SphereFace [23]将权重向量的模长归一化为1。为了进一步优化识别效果,CosFace [24]及ArcFace [25]进一步归一化特征向量的模块长度x对1,并进一步提出保证金条款 在[24]和保证金条款 在[25].此外,一些研究者在已有损失函数的基础上提出了辅助损失函数,如[27]和由[提出的q型损失函数28].但是,首先,人脸识别中的同类图像来自同一个人,相似性非常大,而我们数据集中的图像属于不同狗的同一类别,因此,原始人脸识别数据集在一定程度上减小了类内方差,而我们数据集的类内方差较大,这使得分类更加困难。此外,这些人脸识别研究,无论是人脸验证还是人脸识别,在实际识别时,要么输入两张图片进行对比,以确定它们是否为同一身份(人脸验证),要么输入一张图像,并与现有的图像数据库进行比较,并确定图像是否属于同一类别(人脸识别)。换句话说,人脸识别需要一个与待识别图像相对应的图像数据库。我们的研究目的是只输入一个样本,直接输出样本的对应类别;也就是说,我们不需要对样本数据库进行比较,所以我们的识别任务比较困难。

2.2.Multisize检测

近年来,针对多尺寸目标的检测方法越来越多。辛格及戴维斯[29]提出了在不同尺度上缩放图像,提取每个尺度上的特征,并融合所有特征。在[30.]检测不同分辨率的特征图,结合多个特征图的预测,对各种大小的目标进行处理。蔡等人。31]利用不同分辨率的特征来检测不同尺度的目标。在[32]结合自下而上和自上而下的特征,在不同层次的特征图上检测不同尺度的目标。我们发现,这些方法只能检测到同一图像中不同大小的物体。如果两个物体来自两张图片,这些方法无法区分两个物体的大小,因为这两张图片所拍摄的场景可能是不同的。一个可以从距离相机较远的地方获得,另一个可以从相对较近的距离获得。论文[33提出了一种动态微分熵(DDE)算法来提取脑电图信号的特征。然后,利用卷积神经网络对提取的DDE特征进行分类。因此,在这里,我们建议使用辅助信息来帮助进一步分类,如体重和年龄,通过融合特征来区分不同图像中的物体。要判断三类犬,仅靠图像资料是不够的。补充数据,如实际尺寸或重量,需要融合。

2.3.特征融合

在特征融合的方向上已经取得了一些进展。在[34]融合了文本数据和结构化数值数据,提高了识别效果,这种特征融合方法提高了心脏病诊断的准确性。Yu等人。[35]提出了一种通用的数据融合模型——属性异构网络融合(attribute heterogeneous network fusion, AHNF),对对象之间的各种内部关系进行编码,融合来自多个数据源的信息。王等。[36]提出了一种基于自适应判别度量学习(DFF-ADML)的深度特征融合方法,用于融合同一图像的不同深度特征向量。蔡等人。37]通过融合同一物体的不同图像,构建全局特征向量,实现特征融合。塔比克等人。[38和潘等人。[39]通过融合从多个分类网络模型中获得的特征向量实现特征融合,并通过结合多个分类器的分类能力提高分类精度。赖等人。[40通过融合不同道路上的交通灯信号来控制交通灯,改善整个路网的拥堵状况。宾等人。[41]提出利用两种深度神经网络分别提取城市结构化数值数据和房屋物业结构化数据的特征,然后融合两种类型特征,为房地产行业实现更准确的物业价值评估。Ma等人。[42]提出了一种基于生成对抗网络(GAN)的无监督框架[43实现全色图像与低分辨率多光谱图像的融合,获得高分辨率多光谱图像。Shao等。[44]提出了一种用于旋转机械故障诊断的增强深度特征融合方法。该方法可以通过神经网络融合图像中不同层次的特征,进一步提高特征学习的质量。Gómez-Ríos等。[45]建立了一个分类器,可以使用纹理图像和结构图像两种图像来识别珊瑚的种类。该方法首先通过ResNet模型识别输入图像是纹理图像还是结构图像,然后分别对纹理图像和结构图像建立ResNet模型,进行珊瑚种类识别。吴、李[46]提出了一种检测各种肾脏异常的自动架构,该架构采用多特征融合神经网络(MF-Net),根据两张输入图像提取多视图图像的不同特征。

这些研究都证明了信息融合的重要性,但关于图像数据与结构化数值数据融合的研究尚未出现。本文提出了一种新的网络结构模型FGT-Net,将数值数据与图像数据相结合,提高分类任务的识别率。

3.建议的方法

为了实现这一组合功能,提出并构建了FGT-Net的框架。FGT-Net模型的结构如图所示2.它分为三层:共享权重网络(SWN)层、特征融合层和分类层。共享权重网络层的功能是提取图像的特征向量。特征融合层用于将提取的图像特征与目标的数值数据特征(图像之外的特征)融合,增强目标特征的代表性。特征融合后,利用分类层对融合后的特征进行分类,并输出分类结果。FGT-Net模型的训练方法是一种新的指导训练方法。此外,用于训练和测试的模型结构略有不同。具体流程如下。本节介绍了FGT-Net的结构3.1,部分3.2,和Section3.3..导向性培训和测试的介绍见章节3.4

3.1.共享权重网络层

如图所示2,共享权重网络层由两个相同的cnn组成,分别表示为SWN1和SWN2,它们共享权重。在训练中,SWN1的输入为代表图像集 SWN2的输入为训练集中的图片 在测试中,仅使用SWN2提取图像特征。代表图像集是指由每一类中的一张图像组成的图像集。如果有C类,则代表图像集包含C张图像。因此,SWN1输出特征向量集 的代表图像集,SWN2输出特征向量 训练图像的。在这里, 等等都是n例如,-维向量, 设计这样一个共享权重网络层的目的是为了使网络更有方向性地学习每个图像类的特征,即从代表性图像集中学习特定类别图像的特征,从而使同一图像类的特征更接近。为了达到我们的目标,一个距离损失函数,如[47]在共权网络层输出部分设计如下式:

在这里, 为SWN2的输出, 为SWN1的输出, 表示输入图像的实类 表示类的总数,和 表示的维度 而且

3.2.特征融合层

特征融合是指将从共享权重网络层提取的训练图像的特征向量与其他数值数据组成的特征向量进行融合,使所提出的模型尽可能多地利用特征进行进一步分类。

数值数据的特征和图像处理技术提取的特征都是数值。从图像中提取的特征向量为 代表一个 -维向量。如节所示2.1 为SWN2的输出。它是由共享权重网络层提取的特征,并表示为向量。假设从数值数据中得到的特征记为 代表一个 -维向量。特征融合是通过序列的拼接来实现的 而且 结果表示为 那是一个( ) - - -维向量。特征融合由以下公式实现: 元素在哪里 还有元素 构造一个新向量 表示融合后的特征向量

3.3.分类层

将上述图像映射特征与数值特征结合后,我们就可以完成基于融合特征的分类任务。我们使用几个完全连接的层来实现分类。全连接层中的每个神经元都与前一层中的所有神经元完全连接。为了提高网络性能,全连接层中每个神经元的激活函数一般使用ReLU函数[48].最后一个全连接层是输出层,通常使用Softmax函数作为激活函数。输出层实现最终分类。分类层的输入为 输出是 c维特征向量,其维数与类的总数相同。为了使模型具有更好的分类能力,交叉熵损失函数如[49]在本文中使用:

在这里, 的标签。 在哪里 如果 至于其他的, 可以使模型输出的同类图像的特征彼此更接近,而 是一般分类模型使用的交叉熵损失。为了使模型具有更好的分类能力,我们将指导模型训练的损失函数设置为距离损失和分类损失的和,表示为

3.4.指导训练及测试

受[引导滤波]方法的启发50],我们采用一种非常规的训练方法:引导式训练,更有利于模型学习。首先,从数据集中的每个类中选取一张图像作为代表图像集。剩余图像按照一定比例分为训练集和测试集。首先将代表图像集输入SWN1,得到对应的特征向量组 将训练集中的图像输入SWN2,得到特征向量 到目前为止,该模型可以计算 这样可以引导共享权重网络层生成的特征向量与代表性图像集中同类的特征向量更接近,使模型中同类图像生成的特征向量更接近。这是我们提出的指导培训的主要目的。然后,为了解决仅使用图像无法正确识别特定任务(如医疗诊断)的问题,我们提出了特征融合。融合特征向量 是通过融合特征向量得到的 由SWN2和特征向量得到 由附加的数值数据组成。最后,利用分类层对融合后的特征向量进行分类 得到分类结果: 在本文中,交叉熵损失 用于计算分类损失,使模型具有更好的分类学习能力。

在测试中,如图所示不再使用SWN13.,因为SWN1的作用是在训练过程中引导模型学习获取图像特征的能力,使属于同一类别的图像的特征更加接近。一旦训练完成,模型就具备了这样的能力,所以测试中不需要这个网络层。在测试时,我们只需要将图像放入SWN2中,然后通过一次前向传播就可以得到图像的分类结果。

4.实验

为了验证FGT-Net模型方法的性能,进行了实验,实验结果如下所示。实验结果表明,FGT-Net框架能够解决分类对象的问题。我们的FGT-Net(融合了图像数据和结构化数据)的准确性高于cnn(只有图像数据)。

4.1.数据集

实验使用的图像来自网络,使用的数值数据是根据每只狗的实际情况人工生成的,并制作了一个数据集,如本文最后所示。数据集中有四类数据,包括0类(日本Spitz)、1类(博美犬)、2类(萨摩耶)和3类(哈士奇)。数据集中的每个数据包含一张图像和3个结构化数字数据:性别、体重和年龄。性别用0和1表示(0代表男性,1代表女性)。重量单位为kg。萨摩耶体重不足30公斤,日本斯皮兹体重不足10公斤,博美犬体重不足3.5公斤,哈士奇体重不足30公斤。年龄以月为单位。如果年龄小于15天,则按半个月计算,即0.5个月。如果超过15天,则按一个月计算。

其中,代表图像集包括日本斯皮兹1张、博美犬1张、萨摩耶1张、哈士奇1张;训练集包括日本斯皮兹186张、博美犬107张、萨摩耶330张、哈士奇353张;测试集包括日本斯皮兹46张、博美犬27张、萨摩耶84张、哈士奇89张。图中显示了数据集中的一些数据示例4

4.2.该模型

本节将介绍实验中使用的模型。

首先,对于共享权重网络层,基于ShuffleNetv2构建SWN1和SWN2进行特征提取。只使用ShuffleNetv2全连接层的前端,即只使用从输入层到平均池化层的部分。经过映射特征提取后,每个输入图像都可以转换成一个1024维的特征向量,该特征向量表示映射图像的特征。同时,从数据集中每一张图像对应的结构化数据中提取的其他数值特征也构成一个数值特征向量。本实验中有3个数值特征,因此数值特征向量为三维特征向量。其次,利用章节中描述的特征融合方法,将上述1024维图像特征向量和三维数值特征向量转换为1027维特征向量2.2;完成特征融合。最后,在模型中增加两个全连接层和一个输出层,分别有512个神经元、256个神经元和4个神经元(对应4个类的输出)。使用组合的1027维特征向量完成输入图像中物体的识别。

整个训练过程在GPU上进行。损失函数在章节中描述2.1而且2.3用于模型的训练。亚当(51]作为优化器;初始学习率为0.001。模型每个训练批次有32个样本,整个训练集训练100个epoch,模型参数更新3100次。训练和验证精度图如图所示5,训练和验证损失图如图所示6.如图所示5而且6时,模型逐渐收敛,且两条曲线的变化趋势基本一致,说明该模型能够从训练数据集中学习到颗粒的特征,并能准确识别验证数据集中的未知磨损颗粒样本。最后,在测试集上对模型的性能进行评估。

4.3.指导培训

这部分实验的目的是为了证明引导训练更有利于模型的最终分类。我们设计了两个实验进行比较,实验1:只使用SWN2和分类层,使用训练集训练模型,测试集测试;实验2:采用SWN1、SWN2和分类层。使用代表图像集和训练集对模型进行训练,使用测试集对模型进行测试。实验2采用引导训练法进行训练。实验一与实验二的唯一区别是是否使用SWN1和代表性图像集。实验结果如表所示2.结果表明,采用引导训练方法的模型分类准确率(实验2)高于采用普通自训练模式学习的模型(实验1),证明所设计的训练模式更有利于模型训练。


实验 TP 《外交政策》 FN 精度 回忆 F1-score 精度

实验1 日本的猎犬 10 9 36 0.526 0.217 0.308 0.707
波美拉尼亚的 9 4 18 0.692 0.333 0.450
萨莫耶德人 69 49 15 0.585 0.821 0.683
沙哑的 86 10 3. 0.896 0.966 0.930

实验2 日本的猎犬 18 9 28 0.667 0.391 0.493 0.728
波美拉尼亚的 15 8 12 0.652 0.556 0.600
萨莫耶德人 63 38 21 0.623 0.750 0.681
沙哑的 83 12 6 0.873 0.933 0.902

4.4.特征融合的探讨

为了比较特征融合的性能,在相同的超参数设置下进行了对比实验。在第一个对比实验中,仅使用图像数据来训练CNN模型(这里使用ShuffleNetv2)来预测狗的类别。在第二个对比实验中,只使用结构化的数值数据来训练一个简单的5层深度全连接神经网络(DNN)来预测狗的类别。最终实验结果如表所示3..从实验结果可以看出,仅使用图像数据进行犬类识别时,仅使用图像数据的CNN模型对波美拉尼亚犬和日本斯皮策犬的识别准确率较低。这是因为日本斯皮策犬和博美犬的外观、质地、颜色等特征非常相似,仅用CNN模型提取的这些特征无法准确识别。此外,当仅使用结构化数值数据进行犬类识别时,DNN模型容易混淆哈士奇和萨摩耶,哈士奇和萨摩耶的识别准确率相对较低。这是因为这两种狗的体重特征非常相似;仅凭这些结构化的数值特征无法很好地识别它们。而将FGT-Net模型用于图像数据和结构化数值数据的结合,可以很好地解决这两个问题。首先,虽然博美犬和日本斯皮茨犬在外观、质地、颜色等特征上相似,但它们的体重特征却有很大的不同(博美犬体型较小,体重相对较轻;日本斯皮兹是中等大小的狗,相对较重),所以他们可以通过使用结构化的数值数据来识别。其次,虽然哈士奇和萨摩耶犬体重相似,但它们的外观、质地、颜色或其他特征都有很大的不同,因此可以通过图像数据特征来识别它们。 Therefore, the FGT-Net model can use both image data and structured numerical data to identify the classes of dogs. As shown in Table3.其中FGT-Net模型的识别准确率达到87.8%,仅通过图像数据学习的CNN (ShuffleNetv2)模型的识别准确率为72.8%,仅通过结构化数值数据学习的DNN模型的识别准确率为78.0%。从这些实验结果中,我们可以看到FGT-Net模型不仅可以很好地识别博美犬和日本斯皮兹犬,还可以很好地识别哈士奇和萨摩耶犬。


模型 TP 《外交政策》 FN 精度 回忆 F1-score 精度

FGT-Net(融合数据) 日本的猎犬 40 6 6 0.870 0.870 0.870 0.878
波美拉尼亚的 27 6 0 0.818 1.000 0.900
萨莫耶德人 71 9 13 0.888 0.845 0.866
沙哑的 78 9 11 0.897 0.876 0.886

CNN (ShuffleNetv2)(仅图片数据) 日本的猎犬 18 9 28 0.667 0.391 0.493 0.728
波美拉尼亚的 15 8 12 0.652 0.556 0.600
萨莫耶德人 63 38 21 0.623 0.750 0.681
沙哑的 83 12 6 0.873 0.933 0.902

DNN(仅限结构化数据) 日本的猎犬 45 0 1 1.000 0.978 0.989 0.780
波美拉尼亚的 27 1 0 0.964 1.000 0.982
萨莫耶德人 46 15 38 0.754 0.548 0.634
沙哑的 74 38 15 0.661 0.831 0.736

由于ShuffleNetV2属于轻量级网络,网络层次不深。为了进一步证明我们方法的有效性,我们将FGT-Net与其他知名的cnn (ResNet50, VGG16和AlexNet)进行了比较。如表所示4由于FGT-Net是基于图像数据和结构化数据融合的特征,因此FGT-Net的准确率最高。其他CNN模型(ResNet50、VGG16和AlexNet)仅使用图像数据生成。结果表明,该方法能够有效地解决图像和结构化数据合并的综合数据问题。我们的方法是基于CNN结构的框架,它扩展了CNN模型的功能。在测试时间方面,如表所示5除了比ShuffleNetV2慢0.08秒外,FGT-Net比其他型号都快。因此,FGT-Net不仅提高了精度,而且提高了速度。


模型 FGT-Net AlexNet VGG16 ResNet50

精度 0.878 0.728 0.691 0.675


模型(年代) FGT-Net AlexNet ShuffleNetV2 VGG16 ResNet50

时间 10.39 10.57 10.31 11.66 10.91

5.结论

在一些识别任务中,存在图像不能作为分类的唯一标准的问题,或者来自不同图像的物体由于相似的特征(颜色、纹理、外观等)而不能被CNN很好地分类。为了解决这类问题,提出了一种将图像数据和结构化数值数据相结合的FGT-Net框架。学习过程采用引导训练,使相似目标生成的特征向量彼此更接近。因此,FGT-Net可以超越普通的训练方法,获得更高的识别精度。对从结构化数据中提取的图像级特征和数值特征进行了融合实验。有tra[[parms resize(1),pos(50,50),size(200,200),bgcol(156)]]等引导的模型精度比没有引导训练的模型提高2.1%。FGT-Net的准确率达到87.8%,比ShuffleNetv2的CNN模型(只处理图像数据)提高15%,比DNN方法(只处理结构化数据)提高9.8%。该模型适用于图像数据与结构化数据融合的工业或医疗诊断领域。该模型的框架可以扩展cnn对图像数据和结构化数据合并的处理能力。

数据可用性

实验中使用的数据是从互联网上公开收集的,我们已经建立了一个数据集。该数据集可在https://github.com/Fan-Suli/Datasets

利益冲突

作者声明,他们对目前的研究没有利益冲突。

致谢

作者感谢高越和赵越在本研究中的支持和帮助。国家留学基金委资助,国家重点研发计划项目(2017YFB1002304)和中央高校基本科研业务费专项资金(FRF-GF-20-16B)资助。

参考文献

  1. Y. LeCun, L. Bottou, Y. Bengio和P. Haffner,“基于梯度的学习应用于文档识别”,IEEE论文集,第86卷,no。11,页2278-2324,1998。视图:出版商的网站|谷歌学者
  2. A. Krizhevsky, I. Sutskever和G. E. Hinton,“深度卷积神经网络的Imagenet分类”,神经信息处理系统研究进展,第25卷,no。2、2012。视图:谷歌学者
  3. 邓俊杰,董伟东,R. Socher,李丽丽,李凯,L.飞飞,“ImageNet:一种大规模的分层图像数据库”,在2009年IEEE计算机视觉与模式识别会议论文集,页248-255,迈阿密,佛罗里达州,美国,2009年6月。视图:谷歌学者
  4. K. Simon和A. Zisserman,“用于大规模图像识别的深度卷积网络”,2014年,https://arxiv.org/abs/1409.1556视图:谷歌学者
  5. 何凯,张x,任s,和孙杰,“图像识别的深度残差学习”,在2016 IEEE计算机视觉与模式识别会议论文集,页770-778,拉斯维加斯,NV,美国,2016年7月。视图:谷歌学者
  6. C. Szegedy, "深入研究卷积"在2015年IEEE计算机视觉与模式识别会议论文集,页1-9,波士顿,马萨诸塞州,美国,2015年6月。视图:谷歌学者
  7. S. Ioffe和C. Szegedy,“批处理归一化:通过减少内部协变量转移来加速深度网络训练”,2015,https://arxiv.org/abs/1502.03167视图:谷歌学者
  8. C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens和Z. Wojna,“重新思考计算机视觉的初始架构”,在2016 IEEE计算机视觉与模式识别会议论文集,页2818-2826,拉斯维加斯,NV,美国,2016年7月。视图:谷歌学者
  9. C. Szegedy, S. Ioffe和V. Vanhoucke,“Inception-v4, inception-resnet和残余连接对学习的影响”,在第三十一届AAAI人工智能会议记录2017年2月,美国加州旧金山。视图:谷歌学者
  10. F. N. Iandola, S. Han,和M. W. Moskewicz,“SqueezeNet: alexnet级精度,参数少50倍,模型大小<0.5 MB,”2016,https://arxiv.org/abs/1602.07360视图:谷歌学者
  11. A. G. Howard, M. Zhu,和B. Chen,“移动网络:用于移动视觉应用的高效卷积神经网络,”2017,https://arxiv.org/abs/1704.04861视图:谷歌学者
  12. X. Zhang, X. Zhou, M. Lin和J. Sun,“ShuffleNet:一种用于移动设备的极其高效的卷积神经网络”,在2018年IEEE计算机视觉与模式识别会议论文集,页6848-6856,盐湖城,UT,美国,2018年6月。视图:谷歌学者
  13. M. Sandler, A. Howard, M. Zhu, A. Zhmoginov和L. Chen,“MobileNetV2:反向残差和线性瓶颈”,在2018年IEEE计算机视觉与模式识别会议论文集,页4510-4520,盐湖城,UT,美国,2018年6月。视图:谷歌学者
  14. Ma N., X. Zhang, h . t . Zheng,和J. Sun,“Shufflenet v2:高效cnn架构设计的实用指南”,在欧洲计算机视觉会议记录ECCV 2018,第122-138页,德国慕尼黑,2018年9月。视图:出版商的网站|谷歌学者
  15. A. Howard,“搜索MobileNetV3”,见2019年IEEE计算机视觉国际会议论文集,第1314-1324页,韩国首尔,2019年10月。视图:谷歌学者
  16. M. Versaci, F. C. Morabito和G. Angiulli,“通过计算距离到4维模糊单位超立方体的自适应图像对比度增强,”IEEE访问, vol. 5, pp. 26922-26931, 2017。视图:出版商的网站|谷歌学者
  17. M. Veluchamy和B. Subramani,“用于对比度增强和颜色校正的模糊不同颜色直方图均衡化”,应用软计算, vol. 89, Article ID 106077, 2020。视图:出版商的网站|谷歌学者
  18. M. Shakeri, M. H. Dezfoulian, H. Khotanlou, A. H. Barati,和Y. Masoumi,“基于自适应聚类参数和子直方图均衡的模糊聚类图像对比度增强”,数字信号处理《中国科学院学报》,2017年第62卷,页224-237。视图:出版商的网站|谷歌学者
  19. Qu y, Fu q, C. Shang等,“模糊-粗糙辅助的乳腺x线摄影风险评估图像处理程序的改进,”应用软计算中国科学院学报(自然科学版),vol. 91, Article ID 10622,2020。视图:出版商的网站|谷歌学者
  20. H. Lu, M. Zhang,和X. Xu,“高效图像检索的深度模糊哈希网络,”模糊系统汇刊,第29卷,no。1, 2020。视图:谷歌学者
  21. M. Cacciola, S. Calcagno, F. C. Morabito和M. Versaci,“涡流测试中阻抗测量腐蚀成像的群优化”,IEEE磁学汇刊,第43卷,no。4, pp. 1853-1856, 2007。视图:出版商的网站|谷歌学者
  22. 邓文伟,刘洪亮,徐杰,赵洪亮,宋宇,“一种基于量子启发的深度信念网络差分进化算法”,IEEE仪器与测量汇刊,第69卷,no。10,第7319-7327页,2020年。视图:出版商的网站|谷歌学者
  23. 刘伟文,余哲,李明,B. Raj,和L. Song,“球面脸:深度超球面嵌入人脸识别”,在2017年IEEE计算机视觉与模式识别会议论文集,页212-220,檀香山,HI,美国,2017年7月。视图:谷歌学者
  24. 王飞,程杰,刘伟,和刘宏,“人脸验证的附加裕度软最大,”IEEE信号处理规程,第25卷,no。7,页926-930,2018。视图:出版商的网站|谷歌学者
  25. 邓J.,郭j .,薛楠,和S. Zafeiriou,“Arcface:添加角边缘损失的深度人脸识别,”,在2019年IEEE计算机视觉和模式识别会议论文集,页4690-4699,美国加利福尼亚州长滩,2019年6月。视图:谷歌学者
  26. W. Liu, Y. Wen, Z. Yu和M. Yang,“卷积神经网络的大边际软最大损失”,在机器学习国际会议论文集,第507-516页,美国纽约,2016年6月。视图:谷歌学者
  27. Y. Zheng, D. K. Pal,和M. Savvides,“环损失:人脸识别的凸特征归一化”,在2018年IEEE计算机视觉与模式识别会议论文集,页5089-5097,盐湖城,UT,美国,2018年6月。视图:谷歌学者
  28. 杨s .,邓伟,王敏,杜俊杰,胡俊杰,“正交性损失:人脸识别的学习判别表征,”IEEE视频技术电路与系统汇刊, 2020.视图:出版商的网站|谷歌学者
  29. B. Singh和L. S. Davis,“对象检测中的尺度不变性分析- snip”,在2018年IEEE计算机视觉与模式识别会议论文集,页3578-3587,盐湖城,UT,美国,2018年6月。视图:谷歌学者
  30. W. Liu, D. Anguelov, D. Erhan等,“SSD:单发多盒检测器”,在计算机视觉欧洲会议论文集, pp. 21-37,阿姆斯特丹,荷兰,2016。视图:出版商的网站|谷歌学者
  31. Z. Cai, Q. Fan,和R. S. Feris,“用于快速目标检测的统一多尺度深度卷积神经网络”,2016,https://arxiv.org/abs/1607.07155视图:谷歌学者
  32. T. Lin, P. Dollár,和R. Girshick,“用于目标检测的特征金字塔网络”,在2017 IEEE计算机视觉与模式识别会议论文集,页936-944,檀香山,HI,美国,2017年7月。视图:谷歌学者
  33. 刘淑娟,王晓霞,赵丽娟,辛强,王淑娟,“基于动态经验卷积神经网络的脑电信号情感识别方法”,IEEE神经系统与康复工程汇刊, vol. 1, p. 99, 2020。视图:谷歌学者
  34. F. Ali, S. el - sappah, S. M. R. Islam等人,“基于集成深度学习和特征融合的心脏病预测智能医疗监测系统,”信息融合, vol. 63, pp. 208-222, 2020。视图:出版商的网站|谷歌学者
  35. 于国刚,王玉玉,王杰,C. Domeniconi,郭明,张晓霞,“基于协同矩阵三因子分解的异构网络融合”,信息融合, vol. 63, pp. 153-165, 2020。视图:出版商的网站|谷歌学者
  36. C. Wang, G. Peng和B. De Baets,“通过自适应判别度量学习进行场景识别的深度特征融合”,信息融合, vol. 63, pp. 1-12, 2020。视图:出版商的网站|谷歌学者
  37. 蔡海红,曲志强,李志强,张勇,胡晓霞,胡斌,“基于多模态EEG数据的抑郁识别特征级融合方法,”信息融合, vol. 59, pp. 127-138, 2020。视图:出版商的网站|谷歌学者
  38. S. Tabik, R. F. Alvear-Sandoval和M. M. Ruiz,“mist - net10:基于确定性程度达到0.1%错误率的异构深度网络融合概述和建议”,信息融合, vol. 62, pp. 73-80, 2020。视图:谷歌学者
  39. 潘宇,张磊,吴晓霞,M. J. Skibniewski,“风险分析中的多分类器信息融合”,信息融合, vol. 60, pp. 121-136, 2020。视图:出版商的网站|谷歌学者
  40. J. W. Lai, J. Chang, L. K. Ang和K. H. Cheong,“多层次信息融合缓解网络拥塞”,信息融合, vol. 63, pp. 248-255, 2020。视图:出版商的网站|谷歌学者
  41. J. Bin, B. Gardiner, E. Li和Z. Liu,“多源城市数据融合用于房地产价值评估:以费城为例”,Neurocomputing, vol. 404, pp. 70-83, 2020。视图:出版商的网站|谷歌学者
  42. 马俊杰,于伟文,陈晨,梁平,郭晓霞,蒋俊,“基于泛gan的遥感图像融合无监督泛锐化方法,”信息融合, vol. 62, pp. 110-120, 2020。视图:出版商的网站|谷歌学者
  43. I. Goodfellow, J. Pouget-Abadie和M. Mirza,“生成对抗网络”,神经信息处理系统研究进展,麻省理工学院出版社,美国马萨诸塞州剑桥,2014年。视图:谷歌学者
  44. 邵海华,蒋海华,王峰,赵海华,“一种基于深度特征融合的旋转机械故障诊断方法,”以知识为基础的系统《中国科学院学报》,2017年第1期,第2 - 3页。视图:出版商的网站|谷歌学者
  45. a . Gómez-Ríos, S. Tabik, J. Luengo, a . S. M. Shihavuddin和F. Herrera,“使用基于卷积神经网络的两级分类器进行纹理或结构图像的珊瑚物种识别。”以知识为基础的系统,卷184,Article ID 104891, 2019。视图:出版商的网站|谷歌学者
  46. Y. Wu和Z. Yi,“使用多特征融合卷积神经网络自动检测肾脏异常,”以知识为基础的系统, vol. 200, Article ID 105873, 2020。视图:出版商的网站|谷歌学者
  47. m。m。Deza和e。Deza,距离百科全书,施普林格,柏林,德国,2009。
  48. X. gloria, A. Bordes和Y. Bengio,“深度稀疏整流神经网络”,见第十四届人工智能与统计国际会议论文集,第315-323页,劳德代尔堡,佛罗里达州,美国,2011年。视图:谷歌学者
  49. 李晓霞,于磊,常德德,马正哲,曹杰,“小样本细粒度车辆分类的双交叉熵损失”,IEEE车辆技术汇刊,第68卷,no。5,页4204-4212,2019。视图:出版商的网站|谷歌学者
  50. 刘淑娟,刘涛,李磊,胡强,赵杰,王成,“卷积神经网络和引导滤波在SAR图像去噪中的应用”,遥感,第11卷,no。6,页702 - 720,2019。视图:出版商的网站|谷歌学者
  51. D. Kingma和J. Ba,“Adam:随机优化方法”,2015,https://arxiv.org/abs/1412.6980视图:谷歌学者

betway赞助版权所有©2021张桃红等。这是一篇开放获取的文章,在创作共用署名许可协议它允许在任何媒介上不受限制地使用、传播和复制,前提是正确地引用原始作品。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订购印刷本订单
的观点185
下载192
引用

相关文章

年度文章奖:由我们的主编选出的2020年杰出研究贡献。阅读获奖文章