Open Access
Issue
JNWPU
Volume 38, Number 5, October 2020
Page(s) 1129 - 1137
DOI https://doi.org/10.1051/jnwpu/20203851129
Published online 08 December 2020

© 2020 Journal of Northwestern Polytechnical University. All rights reserved.

Licence Creative CommonsThis is an Open Access article distributed under the terms of the Creative Commons Attribution License (http://creativecommons.org/licenses/by/4.0), which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.

随着航空作战理念的发展,航空集群正逐步取代以单个航空平台为主体作战单元的传统作战模式,成为复杂空战战场环境下作战效能的倍增器。航空集群以网络为中心,具有高度体系化的特点,依托于高效可靠的信息交互手段,可以实现各平台间的紧密协作,从而实现作战能力的优势互补,保证其灵活适应复杂的空战战场环境[1]。

机载网络作为连接集群各成员的信息纽带,为集群内部的各型航空平台之间的信息交互提供了保证,近年来得到了国内外研究者的广泛关注。传统的机载网络主要实现作战指令信息的交互,业务类型较少且对带宽要求较低,然而在航空集群环境下,多样化的作战任务使集群成员对战场态势信息的依赖程度显著提升,而航空电子技术的迅速发展在扩展机载网络业务类型的同时也对机载网络性能提出了更高的要求。由于不同种类业务的Qos需求差异较大,根据业务类型及其Qos需求合理配置流量控制策略对于提升机载网络性能具有重要意义,因此需要对机载网络流量分类方法展开研究。

在网络流量分类领域,基于机器学习的方法凭借实时性及准确性的优势成为研究热点[3]。相关研究者将贝叶斯分类器[4-5]、决策树[6-7]、支持向量机[8-9]等经典机器学习模型引入流量分类问题,并获得了理想的分类准确性。然而以上方法均基于浅层学习模型,需要对训练样本的特征进行人工选择与手动提取,训练工作量较大,且难以保证所选特征空间的客观性,因此难以在动态变化的实际网络环境下获得广泛应用。为解决上述问题,深度学习被引入流量分类领域。基于深度学习的流量分类方法可以在学习过程中同步完成特征的隐性提取,在极大降低训练工作量的同时,也能有效克服人为选取特征过程的主观性。其中,Wang提出将人工神经网络(artificial neural network, ANN)引入流量分类,将流的字节作为原始特征输入为ANN首层节点,并在学习的过程中完成特征的自动选取,实现了流量的准确分类[10]。文献[11]中基于一维卷积神经网络实现了“原始流量数据-分类标签”的端到端分类模型的训练,获得了训练效率与分类准确性的双重提升;文献[12]提出一种基于二维卷积神经网络的流量分类方法,通过对数据的归一化处理,将流量样本映射为灰度图片作为输入,基于LeNet-5卷积神经网络构建能够实现自主特征学习的最优分类器模型,在提升分类精度的同时也减少了分类所用时间。以上研究的实验结果均表明,深度学习在流量识别领域可以有效降低训练成本,并获取更为理想的分类准确性,因此具有更高的应用价值。

基于深度学习的流量分类方法对完备的训练数据集具有较强的依赖性,而数据集的构建需要对网络流量样本进行大量采集。然而在机载网络环境下,流量采集的成本较高,难度较大,难以获取足够多的训练样本构建完备的数据集,且相对于地面有线网络,机载网络的流量分布动态性更强,不同时段、不同环境下的网络流量样本往往不满足独立同分布假设,造成传统的深度学习方法难以获取理想的分类效果。因此如何利用少量样本或欠完备的数据集完成分类器模型的训练,成为深度学习应用于机载网络流量分类的关键。迁移学习可以运用现存知识,实现跨领域问题的求解[13-14],一方面充分利用了源领域积累的知识,另一方面也极大降低了对目标领域样本的要求,为小样本、欠完备数据集条件下的机器学习模型的构建及训练提供了思路。

针对机器学习方法在机载网络流量分类应用中存在的问题,本文提出小训练样本条件下的机载网络流量识别方法,首先基于源领域完备的机载网络流量数据集训练卷积神经网络初始化模型,然后在目标领域数据集上利用微调重训练方法构建基于特征迁移的卷积神经网络(feature representing transferring convolutional neural network, FRT-CNN)模型,实现目标领域流量的线上分类。该方法解决了机载网络环境下流量分类任务数据集欠完备的问题,在训练样本数量较少的条件下保证了分类准确性。

1 机载网络流量分类模型

卷积神经网络通过对局部隐含特征的自主提取,减轻了人工提取特征的工作量,并保证了所提取特征空间的客观性[15]。本节首先介绍基于卷积神经网络的机载网络流量分类模型构建。

1.1 流量样本预处理方法

机载网络流量以字节流的形式传输,由于对每个字节进行数值化后的取值范围与灰度值取值范围相同,因此本文参考文献[12]中的数据预处理方法,设计航空集群机载网络流量预处理方法:

第一步    数据分组的灰度化。航空集群机载网络中, 流量通常以比特流的形式传输。因此, 将数据流各分组中每8个比特位作为一个灰度映射单位, 对每个灰度映射单位作十进制运算后, 映射为相应灰度值的一个像素点, 并按照从报文头部至尾部的顺序, 将各灰度映射单位所映射的像素点保存为一个具有固定长度M的灰度矢量。由于数据流中的数据分组长度各异, 对于映射后所得像素点数量大于M的数据分组进行固定长度M的截取; 而对于映射后像素点低于M的数据分组, 则通过尾部补0的方式, 补全灰度矢量。

第二步    灰度矩阵的填充。将数据流样本前N个数据分组所映射的灰度矢量按照数据分组的到达顺序依次填充进一个固定尺寸(M×N)的灰度矩阵, 作为卷积神经网络的输入。由于航空集群机载网络流量尺寸各异, 各数据流所含数据分组数量不一致。对于所含数据分组数量低于N个的数据流, 对矩阵中未填充像素点灰度值置为0。

1.2 卷积神经网络模型构造

卷积神经网络结构通常由输入层、隐藏层以及输出层构成, 其中输入层对输入的原始数据进行预处理; 输出层输出样本的判别标签; 隐藏层由多个卷积层以及池化层交替构成, 最终与位于隐藏层最后端的两层全连接层连接[15]。

1) 卷积层:由卷积核以及激活函数构成, 其中卷积核可对上一层输出特征面隐特征进行自主提取, 并通过激活函数生成新的特征面作为输出。卷积层的表达式为

式中:l表示当前层;Mj表示当前层第j个卷积核的深度(即上一层特征面通道数); k表示卷积核权值; b表示偏置; 函数f(g)表示激活函数。

2) 池化层:位于卷积层之间, 通过池化核的滑动扫描缩小特征面尺寸, 从而减少参数数量, 去除冗余特征, 防止过拟合。池化层的表达式为

式中,函数down()表示下采样函数, 用于对上层特征面进行压缩。常用处理包括最大池化处理以及平均池化处理; βb分别表示池化层的乘性偏置与加性偏置。本文中的池化层均采用最大池化处理, 并将乘性偏置与加性偏置分别设置为1与0。

3) 全连接层:共2层, 位于隐藏层末端, 将输入特征面中所有元素与本层中的节点进行全连接, 实现样本类别的判断。

本文中所选取的卷积神经网络结构包括输入层、3层卷积层(含激活函数)、2层池化层、2层全连接层以及1层输出层, 所选卷积神经网络基本结构如图 1所示。卷积神经网络各层参数如表 1所示。

thumbnail 图1

卷积神经网络结构模型

表1

卷积神经网络各层参数

1.3 卷积神经网络模型训练

卷积神经网络的训练过程包括前向传播与反向传播过程。假设一条流量训练样本(x(i), y(i)), 其中x(i)表示该流量样本映射的灰度图样本, y(i)表示该训练样本的所属类别标签, 前向传播过程实现对样本(x(i), y(i))类别的预测

式中,h(W, b)表示当前网络结构与参数条件下的前向传播函数。由于本文对全体卷积层的激活函数均设置为ReLU函数, 根据公式(1), 将前向传播过程迭代公式表示为

反向传播过程则实现参数的调整与更新, 本文选取基于交叉熵损失函数的梯度下降算法作为反向传播算法, 将损失函数C定义为

式中, m表示当前训练批次中样本总数量。在此基础上, 反向传播过程通过梯度下降算法, 计算参数的调整方向, 从而保证损失函数C(W, b)下降最快。其中, 卷积神经网络的权值与偏置值的调整方向分别为

式中,η表示学习率。经过N批次的训练后, 当交叉熵损失函数值不再继续下降时, 认为此时卷积神经网络收敛于最优模型hopt, 可用于对无标签样本进行分类预测。在分类预测阶段, 可将卷积神经网络隐藏层部分划分为瓶颈网络与全连接网络。其中, 瓶颈网络包括所有卷积层以及池化层, 主要用于对样本各维度隐特征的提取; 而全连接网络由全连接层构成, 主要实现隐特征到类别标签的映射。

2 迁移学习策略

2.1 源域与目标域定义及数据集选取

由于机载网络中的流量分布具有较强的时变性与动态性, 当采用某一时段内静态数据集对流量分类器进行训练时, 虽可在该数据集上获取良好的分类性能, 但在流量分布发生改变时将难以获取良好的泛化性能。而由于机载网络流量采集难度较大且成本较高, 获取相对完备的静态数据集比较困难。因此本文采用迁移学习方法实现小样本条件下的机载网络流量分类。

设机载网络流量数据集特征空间为X, 服从边缘概率分布P(X), 标签空间为Y, 服从边缘概率分布P(Y), 令全体流量样本数据集为{(xi, yi)|xiX, yiY}, 定义数据域D={X, P(X)}并将其划分为为源领域Ds={Xs, P(Xs)}与目标领域DT={XT, P(XT)}。将基于数据域进行分类器学习的学习任务T={Y, f(·)}分为源学习任务TS={YS, fS(·)}与目标学习任务TT={YT, fT(·)}。其中f(·)表示预测模型。由于机载网络中的流量分布随作战任务以及作战环境的影响而动态变化, 因此在不同的时段采集得到的流量数据集中, 有DsDT, 在此条件下, 迁移学习过程利用在DsTS上学习得到的知识在样本数量有限的DT上获得最优预测模型fTo(·)。

本文通过位于不同航空平台上的流量监测设备对某航空编队在实际飞行任务过程中的机载网络中的原始流量样本进行了采集并构建了机载网络流量实际数据集AN-set。参考机载网络环境下的流量QoS需求[2], 将流量分为4大类, 包括低时延视距通信业务流、基于态势信息的通信业务流、基于音视频的多媒体通信业务流以及基于非实时的通信业务流。记标签空间Y={flowtype1, flowtype2, flowtype3, flowtype4};接着根据样本采集平台, 将该数据集分为3个数据子集。并对各数据子集进一步划分为具有相同分布的训练子集与测试子集。该数据集的统计信息如表 2所示。

表2

AN-set数据集样本分布统计

为验证迁移学习得到的分类器模型的跨领域泛化性能, 本文对3个数据子集进一步的处理, 将各数据子集以70%/30%的比例划分为训练集与测试集, 将训练集作为该数据子集的源域数据集, 分别命名为DS(1), DS(2), DS(3)。再对各数据子集中的全体样本均匀抽样(本文中设置抽样率为0.1), 作为目标域欠完备数据集, 分别命名为DT(1), DT(2), DT(3)

2.2 基于特征迁移的卷积神经网络模型

本文对基于特征迁移的卷积神经网络(feature representing transferring CNN, FRT-CNN)模型构建如图 2所示。其分类过程共分为4个步骤, 包括:①CNN初始模型预训练; ②特征提取网络(feature extracting CNN, FE-CNN)的构建; ③微调网络(fine tuning CNN, FT-CNN)的重训练。④FRT-CNN的线上分类。其中, FE-CNN主要用于低维度隐特征的提取, 而FT-CNN则用于面向目标领域数据集的重训练。各步骤的具体描述如下:

thumbnail 图2

基于特征迁移的卷积神经网络模型构建流程

第1步  CNN初始模型的预训练。基于源领域的完备训练集, 根据2.2节中设置的卷积神经网络结构以及2.3节中的CNN训练过程, 实现源领域上CNN分类器的预训练, 即实现源学习任务TS={YS, fS(·)}。保存该预测模型fS(·)结构及各参数, 作为迁移学习阶段的CNN初始模型。

第2步  特征提取网络(feature extracting CNN, FE-CNN)的获取。该步骤基于源领域上的CNN初始模型, 对其瓶颈网络的结构及参数进行冻结提取。由于本文中源领域与目标领域同属机载网络流量, 两领域跨度较小, 为尽量多保留共享的低维特征, 本文提取CNN初始模型中的C1、C2与P1层作为FE-CNN, 冻结该部分网络结构及参数, 用于流量样本低维隐特征的提取。并将CNN初始模型剩余部分作为FT-CNN, 通过第三步的重训练过程实现CNN向目标域的迁移。

第3步  FT-CNN的重训练。将CNN初始化模型中位于FE-CNN后部的网络作为FT-CNN。基于DT上的欠完备训练集, 首先通过FE-CNN实现样本低维特征的提取, 后通过基于层冻结的CNN微调算法, 实现FT-CNN的重训练。基于层冻结的CNN微调算法将在3.3中介绍。

第4步  FRT-CNN的线上分类。将第3步中重训练所得的FT-CNN挂载于第二步中获取的FE-CNN后部, 从而构建面向DT的CNN分类模型FRT-CNN。将目标领域测试集样本进行预处理后输入FRT-CNN, 实现样本标签的预测。

2.3 基于层冻结的CNN微调算法

FRT-CNN构建过程第三步中通过基于层冻结的CNN微调算法实现FT-CNN的重训练。该算法基于目标领域的欠完备训练集。该算法以CNN初始化模型中的FT-CNN模型为原始结构, 实现FT-CNN中各层参数的微调, 从而有效降低分类器训练过程中对训练样本数量的要求, 完成不同网络场景下机载网络流量数据集的跨领域知识迁移。此外, 为避免交叉熵损失函数在随机梯度下降过程中陷入局部最优, 该算法还引入了模拟退火算法, 保证各层的结构微调收敛于全局最优模型。

首先对算法中需要用到的变量及相关函数进行如下定义:I={(x1, y1), (x2, y2), …, (xn, yn)}表示目标领域的欠完备数据集; 集合Sft={L1, L2, …LN}表示FT-CNN模型, 其所含待微调层数量为N, 集合中的元素Lk为FT-CNN第k层模型, 通过三元组(Wk, bk, θk)表示, 3项元素分别表示权重参数、偏置参数以及层结构。he(xi)与hFT(Xi)分别表示FE-CNN与FE-CNN的前向传播函数; preprocess(·)表示数据预处理函数; C(·)表示交叉熵损失函数。基于层冻结的CNN微调学习算法如下所示:

算法:基于层冻结的CNN微调学习算法

输入:DT上的欠完备数据集I

     特征提取网络模型FE-CNN, 结构为Sfe, 前向传播函数为he(xi);

     微调网络模型FT-CNN, 结构为Sft, 前向传播函数为hFT(Xi);

     训练轮次epoch

     微调学习率:η

     初始温度参数:Tinit

     最低温度:Tmin

     温度下降率:r

1: n=card(I), N=card(Sft)

2: for i=1: n

3:      xi=preprocess()

4:      Xi=he(xi)

5:  end for

6:  for k=1: N

7:      freeze(Sft-Lk)

8:      Tk=Tinit

9:      while(Tk>Tmin)

10:          for j=1: epoch

11:              

12:              

13:              Lk(j) =(Wk(j), bk(j), θk)

14:              Sft(j)=update(Sft(j-1))

15:              if C(Sft(j)) < C(Sft(j-1))

16:                Sopt=Sft(j)

17:              else

18:                if exp((C(Sft(j-1))-C(Sft(j)))/Tk>random(0, 1)

19:                S′opt=Sft(j)

20:                end if

21:                Tk=r×Tk

22:              end if

23:            end for

24:            

25:          end while

26:  end for

输出:Sopt

算法第2~5行对DT上欠完备数据集中的原始流量样本进行数据预处理, 将其映射为灰度图, 并通过FE-CNN实现了低维度特征的提取; 第6~25行对FT-CNN进行微调, 其中第6~8行表示以由前至后的顺序, 每次选取FT-CNN中的一层作为微调对象, 并将其他层的参数进行冻结; 第10~14行通过每一轮次的训练完成该层参数的微调, 并对当前FT-CNN的网络结构进行实时更新; 第15~21行将模拟退火算法引入参数微调, 若当前轮次的微调使FT-CNN模型的损失函数继续降低, 则采纳该次微调; 否则以一定概率采纳该次微调过程, 并保证采纳概率随训练轮次数量增加而递减。从而有效避免当前层的微调模型陷入局部最优。

3 仿真结果与分析

3.1 实验环境及性能评估指标

本文在一台内存为4 GB, 搭载主频为1.8 GHz处理器的64位PC上采用1.13.1版本tensorflow框架以及5.3.0版本Anaconda3环境进行仿真实验。实验采用的数据集为3.1中介绍的机载网络流量数据集AN-set。

相关实验参量取值如表 3所示。

表3

实验相关参量取值

本文采用类可信度、类覆盖度以及整体准确率对分类器准确性进行评估。类可信度λi、类覆盖度μi以及整体准确率ξ分别表示如下

式中:PTi表示类i中被正确分类的样本数量;PFi表示被错误分为类i的其他类样本数量;NFi表示类i中被错误分为其他类别的样本数量。

3.2 卷积神经网络初始化模型仿真分析

本文首先以subset2作为源领域完备数据集, 对FRT-CNN初始化模型进行监督训练。针对流量样本的预处理, 文献[12, 16]中与本文同样采用了将字节流样本进行固定长度截取并映射为灰度图的方法, 其中文献[12]中提出的MMN-CNN算法对不满足所含字节数大于输出灰度矩阵元素个数的流量样本进行了末尾补零的操作, 并最终映射为28×28的灰度图; 文献[16]中采取的数据预处理方法则是通过提取流量样本数据包的有效负载, 并将每个数据包的数据作为行, 同一网络流的多个数据包作为列映射为固定尺寸的灰度图像, 该方法对输出矩阵的空缺元素同样采取补零操作。

为验证本文提出的数据预处理方式对流量原始特征的保留效果, 以上述2种预处理方法作为对照, 对2.2中设计的卷积神经网络结构进行了训练及测试。图 3所示为采用不同预处理方法时, 损失函数以及整体准确率的收敛情况, 结果表明, 在相同的网络结构以及训练集的条件下, 采用本文提出的数据预处理方法时, 损失函数收敛速度最快, 经过20轮次的训练后可以获取最低的损失函数值; 图 3a)所示为模型整体准确率随训练轮次的变化关系, 可以发现, 采用本文提出的数据预处理方法时, 模型整体准确率上升速度最快, 并最终收敛于95%左右, 在3种方法中最高。表 4表 5展示了采用不同预处理方法时训练所得CNN分类器对各类机载网络流量的类可信度与类覆盖度。结果表明, 本文使用的数据预处理方法实现了数据流隐含特征的高效提取, 获得了更优的分类准确性能。

thumbnail 图3

不同预处理方法整体准确率与损失函数对比

表4

不同预处理方法下类可信度对比 单位:%

表5

不同预处理方法下类覆盖度对比 单位:%

3.3 基于FRT-CNN的跨领域流量分类性能分析

为验证FRT-CNN模型分类准确性, 本文以subset2数据子集中的DS_train(2)作为作为源领域训练集完成FRT-CNN初始化模型的训练, 并分别将数据子集subset1, subset3中抽样得到的欠完备数据集DT_train(1), DT_train(3)作为目标领域训练集进行FT-CNN模型的微调, 最后分别以DS_test(1)DS_test(3)对FRT-CNN模型进行分类准确性能评估。验证流程如图 4所示。

thumbnail 图4

FRT-CNN模型训练及验证流程

本文还选取了几类常用的小样本/迁移学习模型作为对比方法, 包括基于数据集扩展的方法[16]、CNN-SVM方法[17]、CNN-FTT方法[18]。其中基于数据集扩展的方法对数据流样本随机选取固定数量的数据包映射为灰度图像作为补充样本加入现有数据集; CNN-SVM方法通过在源领域数据集上预训练CNN模型作为特征提取器, 并以SVM分类器替换全连接层实现识别结果的输出; CNN-FTT通过将预训练CNN中的部分层的参数与结构进行冻结, 并基于目标领域数据集实现剩余层参数的微调; 此外, 本文还以1)将通过源领域完备数据集训练生成的CNN模型直接用于目标领域样本分类的方法(本文称为CNN移植); 2)基于目标领域完备数据集重新训练生成的CNN模型用于目标领域样本分类的方法(称为CNN重构)作为参照。以上方法均基于本文2.2中定义的CNN结构, 实验相关参数依据表 3设置, 总训练轮数为60轮, 各类方法的在目标领域测试集(DS_test(1)DS_test(3))上的整体准确率随训练轮次的变化情况如图 5所示。

thumbnail 图5

各类方法在目标领域测试集上的整体准确率

通过观察可以发现,在2个目标领域测试集中,不同方法所获取的整体准确率变化趋势相近。以在测试集上的实验结果为例,其中采用CNN重构方法时,整体准确率上升速度最快,并在第20轮左右收敛于97%左右,在所有方法中最高。该类方法使用了完备的目标领域训练集进行训练,因此可认为具备了理想的训练条件。采用CNN移植方法时,随着训练轮数的增加,其整体准确率在第10轮左右达到最高约为40%,之后随着训练轮数的提升而持续下降,并在第60轮训练后降至20%以下,原因在于该方法中的CNN分类器基于源领域数据集进行训练,随着训练轮数的提升而出现了过拟合,导致其在目标领域的泛化性能逐渐恶化;而采用目标领域数据集扩充的方法时,尽管避免了过拟合现象的发生,但扩充过程难以保证对目标领域特征空间的覆盖,因此对分类准确率的提升效果并不理想,其可获得的最高分类准确率约为45%左右。

在3类迁移学习方法中,均以预训练后的CNN初始模型作为学习起点,因此在首轮训练后的分类准确率均明显高于其他3种方法,达到40%左右。其中,CNN-SVM方法保留了预训练CNN模型的主体结构,仅对替换全连接层的SVM模型进行重训练,因此收敛速度较快,但同时其整体准确率的收敛值较低,为70%左右。CNN-FFT则通过基于部分层

冻结的参数微调,优化了预训练CNN面向目标领域的特征提取能力,在一定程度上提升了整体准确率,其收敛值达到75%以上。本文所提FRT-CNN方法则通过逐层解冻结的CNN微调算法,进一步扩展了重训练的范围。由于在FT-CNN中待微调层共有3层(C1、FC1、FC2),因此在逐层解冻结的微调过程中,整体准确率变化呈3个阶段,第一阶段为第1至第15轮左右,为C1层微调阶段,整体准确率收敛于65%左右;第二阶段为第16轮至第36轮左右,为FC1层微调阶段,整体准确率收敛值提升至70%左右;第三阶段为37轮至60轮,为FC2层微调阶段,整体准确率最终收敛于82%左右。

4 结论

人工智能为网络流量识别问题带了了全新的解决思路,然而在机载网络环境下,由于数据集获取困难,因此基于机器学习的流量识别方法难以获得实际应用。本文提出以迁移学习方法解决小样本条件下机载网络流量的识别问题,首先通过数据预处理将流量样本转换为灰度图作为卷积神经网络的输入,然后通过预训练过程实现卷积神经网络初始模型的构造,并在保留网络前部模型的条件下对后部模型进行重训练以构造FRT-CNN,从而实现机载网络流量的跨领域学习。为验证所提方法的可行性,本文在实际的机载网络数据集上进行了实验分析,结果表明本文所提方法可以实现异构化网络流量数据集之间知识的迁移,从而在目标领域数据集样本数量有限的条件下有效保证分类准确率。

References

  1. Huo Dajun. Operation of Network Swarm[M]. Beijing: National Defense University Press, 2013 [Google Scholar]
  2. Liang Yixin, Cheng Guang, Guo Xiaojun. Research Progress on Architecture and Protocol Stack of the Airborne Network[J]. Journal of Software, 2016, 27 (1): 96– 111 [Article] (in Chinese) [Google Scholar]
  3. Nguyen T T T, Armitage G. A Survey of Techniques for Internet Traffic Classification Using Machine Learning[J]. IEEE Communications Surveys & Tutorials, 2009, 10 (4): 56– 76 [Article] [CrossRef] [Google Scholar]
  4. Moore A W, Zuev D. Internet Traffic Classification Using Bayesian Analysis Techniques[J]. ACM Sigmetrics Performance Evaluation Review, 2005, 33 1: 50 [Article] [CrossRef] [Google Scholar]
  5. Wu K, Ke J. A Scheme of Real-Time Traffic Classification in Secure Access of Power Enterprise Based on Improved Naïve Bayesian Classification Algorithm[C]//IEEE International Conference on Software Engineering & Service Science, 2017 [Google Scholar]
  6. Xu Peng, Lin Sen. Internet Traffic Classification Using C4.5 Decision Tree[J]. Journal of Software, 2009, 20 (10): 2692– 2704 [Article] (in Chinese) [CrossRef] [Google Scholar]
  7. Tong Da, Qu Y R, Prasanna V K. Accelerating Decision Tree Based Traffic Classification on FPGA and Multicore Platforms[J]. IEEE Trans on Parallel & Distributed Systems, 2017, 28 (11): 3046– 3059 [Article] [CrossRef] [Google Scholar]
  8. Cao Jie, Fang Zhiyi, Qu Guannan, et al. An Accurate Traffic Classification Model Based on Support Vector Machines[J]. Networks, 2017, 27 (1): e1962 [Article] [Google Scholar]
  9. Sun Guanglu, Chen Teng, Su Yangyang, et al. Internet Traffic Classification Based on Incremental Support Vector Machines[J]. Mobile Networks & Applications, 2018, 23 (14): 1– 8 [Article] [CrossRef] [Google Scholar]
  10. Wang Wei, Zhu Ming, Zeng Xuewen. Malware Traffic Classification Using Convolutional Neural Network for Representation Learning[C]//2017 International Conference on Information Networking(ICOIN), 2017: 712–717 [Google Scholar]
  11. Wang Wei, Zhu Ming, Wang Jinlin, et al. End-to-End Encrypted Traffic Classification with One Dimensional Convolution Neural Networks[C]//2017 IEEE International Conference on Intelligence and Security Informatics(ISI), 2017 [Google Scholar]
  12. Wang Yong, Zhou Huiyi, Feng Hao, et al. Network Traffic Classification Method Basing on CNN[J]. Journal on Communications, 2018, 39 (1): 14– 23 [Article]

    WANG Yong, ZHOU Huiyi, FENG Hao, et al. Network Traffic Classification Method Basing on CNN[J]. Journal on Communications, 2018, 39(1):14-23

    (in Chinese) [Google Scholar]
  13. Pan Sinno Jialin, Yang Qiang. A Survey on Transfer Learning[J]. IEEE Trans on Knowledge & Data Engineering, 2010, 22 (10): 1345– 1359 [Article] [Google Scholar]
  14. Shin H C, Roth H R, Gao M, et al. Deep Convolutional Neural Networks for Computer Aided Detection:CNN Architectures, Dataset Characteristics and Transfer Learning[J]. IEEE Trans on Medical Imaging, 2016, 1 (1): 1285– 1298 [Article] [CrossRef] [Google Scholar]
  15. Zhou Feiyan, Jin Linpeng, Dong Jun. Review of Convolutional Neural Network[J]. Chinese Journal of Computers, 2017, 40 (6): 1– 23 [Article] (in Chinese) [Google Scholar]
  16. Li Qin, Shi Wei, Sun Jieping, et al. The Research of Network Traffic Identification Based on Convolutional Neural Network[J]. Journal of Sichuan University, 2017, 54 (5): 959– 964 [Article] (in Chinese) [Google Scholar]
  17. Sharif razavian A, Azizpour H, Sullivan J, et al. CNN Feature Off-the-Shelf: an Astounding Baseline for Recognition[C]//Proceeding of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, UH, USA, 2014: 806–813 [Google Scholar]
  18. Jason Yosinski, Jeff Clune, Yoshua Bengio, et al. How Transferable Are Features in Deep Neural Networks?[C]//Advances in Neural Information Processing System 27, Montreal, Canada, 2014: 3320–3328 [Google Scholar]

All Tables

表1

卷积神经网络各层参数

表2

AN-set数据集样本分布统计

表3

实验相关参量取值

表4

不同预处理方法下类可信度对比 单位:%

表5

不同预处理方法下类覆盖度对比 单位:%

All Figures

thumbnail 图1

卷积神经网络结构模型

In the text
thumbnail 图2

基于特征迁移的卷积神经网络模型构建流程

In the text
thumbnail 图3

不同预处理方法整体准确率与损失函数对比

In the text
thumbnail 图4

FRT-CNN模型训练及验证流程

In the text
thumbnail 图5

各类方法在目标领域测试集上的整体准确率

In the text

Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.

Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.

Initial download of the metrics may take a while.