软件测试中机器学习的运用探讨
时间: 2022-12-16 08:02:40 人气:98
1.2.1 关于软件安全可靠性的研究
在软件安全可靠性研究的30篇文献中, 多数是针对移动应用软件的安全性和可靠性的检测和预测, 少数文献是针对window和linux应用软件[3,14,19]。
对于window和linux应用软件的安全性和可靠性检测和预测, 通常是对api分类和api调用序列进行分析、利用工具从源码中提取信息、监控并记录软件行为等方法提取信息作为模型的输入特征, 利用支持向量机、逻辑回归、随机森林等常用的机器学习模型在虚拟机或沙箱中进行实验和分析。
对于android应用程序[6,8,12], 主要是利用aapt提取apk的元信息, 同时结合应用程序的性能数据、网络流量、软件行为等信息对应用程序进行静态和动态分析, 提取特征集, 利用常用的机器学习算法进行模型构建、训练、预测和评估, 实验结果表明在检测新软件是否是恶意软件, 利用机器学习方法对软件安全性和可靠性的检测和预测相对于传统的杀毒软件更快速且更高效。
1.2.2、 关于软件缺陷的研究
软件缺陷是计算机软件或程序中存在的某种破坏正常运行能力的问题、错误, 或者隐藏的功能缺陷。在软件缺陷方面, 所阅读的部分研究文献针对缺陷预测、缺陷定位和缺陷分类进行了研究。
(1) 软件缺陷预测
软件缺陷预测是用已有的历史数据来预测软件中是否存在缺陷。研究文献中主要以静态分析为主, 动态分析为辅, 利用机器学习算法进行模型构建、训练和评估, 其中静态分析中提取的特征主要包括:面向对象准则、继承准则、代码准则等特征。由于静态分析所得到的特征较多, 且不同的特征对预测缺陷的权重不同, 且分类类别不平衡, 因此, 在将这些特征进行机器学习训练时, 需要对数据进行清洗后才能用于学习和训练, 以避免产生较大的误差。随着软件测试领域逐渐发展, 软件缺陷数据的积累越来越多, 充分利用已积累的缺陷数据, 可以减少开发人员和测试人员的工作量, 提高软件测试的效率。
(2) 软件缺陷定位
软件缺陷定位在软件测试领域是一个较为困难的问题。目前, 大多数的缺陷需要人为查找和排除, 代码走查和审查成为了查找和排除缺陷的重要手段和方法, 但是此方法会耗费大量的人力和时间, 因此, 如何快速有效地定位软件缺陷成为了亟待解决的问题。在研究文献中, 软件缺陷定位的方法分为两类, 一类是li等[1]基于模糊理论进行定位, 即把历史数据中产生的软件缺陷进行抽象和概括;另一类类似于软件缺陷预测的方法, jonsson等[17]和le等[19]以静态分析进行模型构建、训练和评估。
(3) 软件缺陷分类
软件缺陷分类主要是判别提交的缺陷是否是真正的缺陷。在研究文献中, 不同的学者对缺陷的提取特征不同。例如:在开源的项目中, pandey等提取jira和bugzilla中的缺陷描述、发现缺陷的步骤、缺陷隶属的项目等信息作为特征;在众包测试中, wang等提取交叉领域的历史测试数据作为特征;在软件开发项目中, 提出软件的静态分析准则作为特征。在缺陷管理平台的众多缺陷中, 准确地判断缺陷可以较少开发人员和测试人员的工作量。但是, 随着众包测试和开源工具的增多, 检测缺陷的重复提交还需更进一步研究。
(4) 缺陷复现
在缺陷管理平台中, 不同的缺陷复现的难易程度是不一样的, 如闪退或崩溃类型的缺陷。gu等通过对软件历史版本的缺陷复现的路径分析来预测新缺陷复现的难易程度, 在缺陷修复的过程中, 给开发人员提供帮助。
1.2.3、 基于源码的研究
基于源码的研究主要是对源码进行静态分析找出源码中的缺陷。此研究主题最重要的是对源码进行抽象语法数、函数调用图、符号执行等方法的静态代码分析, 提取有效的特征进行模型构建、训练和评估。基于源码的研究大致可分为代码重用、代码相似度的检测、代码审查、缓冲区溢出检测。代码重用和代码相似度检测类似, 即检测源码中的相似的代码, 对相似的代码进行封装, 减少开发的工作量和代码维护成本。在有源码的基础下, 对源码进行分析可为软件质量提供更好的保障。
1.2.4、 其他
(1) 测试用例优化
回归测试在整个软件测试过程中占有较大的比重, 软件开发的各个阶段都会进行多次回归测试。在回归测试过程中, 测试用例优化是用来解决如何在巨大的测试用例库中选择较少的测试用例以达到较大的代码覆盖率和功能覆盖率的问题。在研究文献中, 不同的研究者对测试用例优化问题进行了研究, 以整个测试用例库作为特征集, 通过对用例自然语言处理、执行用例后的代码覆盖率、变异得分等对测试用例库进行降维, 去除冗余的测试用例, 再将得到的数据进行模型构建、训练和评估。
(2) 自动化测试
自动化测试在软件测试过程中有极其重要的作用, 自动化测试能减少测试人员的工作量, 提高测试效率。rosenfeld等利用机器学习基于预定义的activity类别对activity进行分类后, 根据不同的分类进行自动化测试, 以提高自动化测试的缺陷检测率。
(3) 对测试质量评价
评价软件或项目测试质量的好坏对提高测试效率和质量有重要作用。zhou等通过对软件或项目涉及相关人员、测试流程、软件或项目属性等特征进行模型选择、构建和评估, 以此来评估软件或项目的测试质量。一个软件或项目的测试质量的影响因素是多方面且是不稳定的, 因此, 文献中实验结果还有待考证。
(4) 软件质量
软件测试最终目的是提高软件的质量。在研究文献中, 通过对历史软件版本的静态分析和动态分析, 预测下一版本软件的改变趋势, 使得测试人员对软件有更好的了解和测试, 以此提高软件的质量。
(5) 蜕变测试
蜕变测试是利用一些成功的测试用例来产生后续测试用例的一种技术。在研究文献中, 主要是利用机器学习技术去除冗余或相似的蜕变规则以产生有效的蜕变测试用例, 达到找到软件缺陷的目的。同时, nakajima等在测试机器学习程序和软件方面基于蜕变测试为后面的研究者提供了一些思路。
2、 文献中的核心技术
机器学习的一般流程是数据收集、数据特征提取和选择、不平衡数据的处理、模型选择与训练、模型预测与评估。在软件测试的过程中, 会产生过程数据, 同时, 软件本身所具有的属性及软件运行过程中会产生大量的数据, 因此, 可以利用机器学习技术对这些数据进行处理。
通过对上述文献的细致分析和研究, 可以发现利用机器学习技术对软件测试过程的贡献和进一步研究的可能性。
2.1、 实验数据集的选择
文献研究发现数据来源分为两类, 分别是开源数据集和未开源数据集。部分文献的实验数据来自多个数据集。开源数据集是可以免费获取到的, 同时, 在开源数据集上的实验是可重复性的, 使得文献中的结果更具有可信度。未开源数据集主要是来自于商业项目的数据或作者提供的数据集, 在此类数据集上的实验不可重复, 实验结果可信度不高。图2开源数据集柱状图是对开源数据集的分类及每个分类的简要说明。
图2 开源数据集柱状图fig.2 histogram of open source datasets
(1) nasa
nasa数据集是由美国国家航空航天局测量程序所提供的, 并且是公开的。在研究文献中, 相对于开源数据集, 占比10%。
(2) promise
promise数据集是免费且公开的, 可以从promise仓库中获得。在研究文献中, 相对于开源数据集, 占比大约13% (promise仓库:http://code.google.com/p/promisedata/) 。
(3) 常用软件源码
常用的软件源码数据集可从代码仓库github或常用软件的官网上获得, 这些常用的软件包括a-pache, eclipse, ant, jedit等。但是, 需要获得这些常用软件源码的测量数据集时, 需要有更高的权限。在研究文献中, 相对于开源数据集, 占比大约23%。
(4) android软件
android软件数据集可从代码仓库github和android开源项目 (http://source.android.com/index.html) 获得。部分android项目是比较常用且迭代版本较多的软件, 如:email, sms, mozilla。在研究文献中, 相对于开源数据集, 占比大约10%。
(5) window软件
使用window软件数据集的有2篇文献, 且数据集都是用于恶意软件研究的文献, 占比大约3%。
(6) 其他
在研究文献中, 其他类数据集使用较多。这些数据集都来自免费且公开的数据源, 如:
检测僵尸网络的数据集来自http:www.uvic.ca/engineering/ece/isot/datasets/index.p, 部分检测恶意软件的数据集来自defects4j dataset, 部分检测恶意程序的数据集来自kddcup99。在研究文献中, 相对于开源数据集, 占比为40%。
综上所述, 研究文献中大多数的实验数据集是开源的, 因此, 在实验中应选择开源且被实验频率较多的数据集进行研究和实验, 以避免偶然性误差, 确保实验的可重复性。
2.2、 特征提取与选择方法
特征提取与选择是机器学习流程中的重要阶段, 有效的特征提取和选择技术能提高机器学习模型的预测精度。特征提取和选择技术一般分为两大类, 一类是特征降维或特征提取, 即组合不同的属性得到新的属性, 改变原始特征数据集的特征空间;一类是特征选择, 即从原始特征数据集中选择出子集, 没有更改原始特征数据集的特征空间。其中特征选择又分为三大类:一类是filter方法, 即对每一维特征赋予权重, 然后再依据权重排序, 取top k维特征;一类是wrapper方法, 即将特征子集的选择看作是一个优化问题;一类是eembedded方法, 即在模型确定的情况下学习出对提高模型准确性最好的属性。
表1详细列出了80篇文献中采取的特征提取和特征选择技术统计。其中, 在所研究的文献中没有使用eembedded方法, 部分文献中使用了多种特征提取和特征选择技术。
表1 特征提取和特征选择技术统计table 1 technical statistics of feature extraction and feature selection
由表1可知, 在研究文献中, 在特征降维和特征选择的方法中, 使用较多的是特征选择方法, 特征选择中使用较多的方法是信息增益 (ig) 和基于相关性特征选择 (cfs) 。
2.3、 类别不平衡处理方法
类别不平衡的处理方法大致可分为三类, 一类是过采样, 即增加类别较少的样本;一类是欠采样, 即减少类别较多的样本;一类是再缩放, 即为不同类别赋予不同权重的方式。部分文献采用过采样方式处理类别不平衡问题, 过采样中最常用的工具是smote;有的文献采用欠采样方式处理类别不平衡问题;没有文献采用再缩放方式。除此之外, 有的文献在利用数据集进行训练时, 选择的是类别相对平衡的数据集。其余研究文献未进行类别不平衡处理或文献中未提及是否进行类别不平衡处理。
2.4、 机器学习算法
机器学习算法可分为监督学习、半监督学习和无监督学习, 不同的场景需要使用不同类别的方法。表2详细列出了机器学习算法以及所研究文献在软件测试领域中所用到的机器学习算法的对比信息。其中, 百分比1表示涉及到此算法的文献数/涉及到机器学习算法每个分类中总数, 百分比2表示涉及到此算法的文献数/所有机器学习算法分类的总数。
表2 机器学习算法详细信息table 2 algorithm details for machine learning
由表2可知, 从机器学习算法分类上看, 在统计分类中使用较多的算法是逻辑回归 (lr) 和朴素贝叶斯 (nb) ;在神经网络中使用最多的是多层感知器 (mlp) ;在基于支持向量的方法中使用最多的是支持向量机 (svm) ;在决策树的方法中使用最多的是c4.5;在集成学习中使用最多的是随机森林 (rf) ;在混杂学习中使用最多的是k近邻 (knn) 。从整体上看, 在研究文献中, 使用最多的机器学习算法是基于支持向量算法中支持向量机 (svm) , 随后是集成学习中的随机森林算法 (rf) , 神经网络中的多层感知器 (mlp) 与随机森林 (rf) 使用的百分比差别不大。支持向量机 (svm) 、逻辑回归 (lr) 、c4.5, 朴素贝叶斯 (nb) 和随机森林 (rf) 在数据样本较少时也能具有较好的泛化能力, 但是当数据样本过大时, 训练时长会明显增大。其中朴素贝叶斯 (nb) 可以较为容易地处理多分类问题;随机森林 (rf) 可应用在大部分分类器上, 无需参数调整, 但是对离群点较为敏感。神经网络算法虽然能较好拟合数据, 但是易造成过学习、欠学习或局部收敛问题。
2.5、 评估准则
评估准则是用来评估机器学习算法的预测精度和泛化能力。预测精度是指利用机器学习算法对某一数据集预测结果的正确率或错误率, 泛化能力是用来表征学习系统对新数据的适用性, 提高泛化能力是机器学习的目标。表3详细描述了软件测试领域中对所用到机器学习技术的性能评估准则。
表3 性能评估准则使用总结table 3 summary of performance evaluation criteria
由表3可知, 在研究文献中, 在评估机器学习算法的预测精度方面使用较多的是accuracy, precision, recall;在评估机器学习算法的泛化能力方面使用较多的是f-measure及auc。部分文献对机器学习算法的训练和预测所耗费的时间进行了评估, 以证明利用机器学习算法在解决软件测试问题方面的可行性。
3、 总结
由于作者搜索的侧重点不同, 因此可能有少数利用机器学习技术在软件测试领域的相关文献被遗漏, 但是, 从本文对机器学习技术在软件测试领域的应用总结来看, 本文仍可反映机器学习技术在软件测试领域的应用趋势情况。
本文总结了近几年研究者利用机器学习在软件测试领域的研究和应用进展, 同时, 对基于机器学习在软件测试领域的研究进行了分类。根据本文对80余篇文献的总结与概述, 目前机器学习技术在软件测试领域的研究热点主要是关于软件安全可靠性的研究和关于软件缺陷的研究, 其中在关于软件缺陷的研究中, 又以软件缺陷预测为主。通过对机器学习在软件测试领域的主要技术的分析和讨论, 发现在特征提取、选择技术和机器学习算法等方面仍存在问题, 因此, 在未来的工作中, 应着重关注如何优化特征提取、选择技术和机器学习算法以提高预测的精度。
参考文献:
[1] bisio f, gastaldo p, meda c, et al. machine learningbased system for detecting unseen malicious soft ware[m]. applications in electronics pervading industry, environment and society. springer international publishing, 2016:9-15.
[2] jaiswal a, malhotra r. software reliability prediction using machine learning techniques[j]. international journal of system assurance engineeringmanagement, 2017, 1 (3) :1-15.
[3] kumar n, banerjee s. measuring software sundarkumar g g, ravi v, nwogu i, et al. malware detection via api calls, topic models and machine learning[j].2015:1212-1217.
[4] esmalifalak m, liu l, nguyen n, et al. detecting stealthy false data injection using machine learning in smart grid[j]. ieee systems journal, 2014, (99) :1-9.
[5] gao s, thamilarasu g. machine-learning classifiers for security in connected medical devices[c]//international conference on computer communication and networks. 2017:1-5.
[6] ban t, takahashi t, guo s, et al. integration of multi-modal features for android malware detection using linear svm[c]//information security. ieee, 2016:141-146.
[7] xu z, ray s, subramanyan p, et al. malware detection using machine learning based analysis of virtual memory access patterns[c]//design, automationtest in europe conferenceexhibition. ieee, 2017:169-174.
[8] shalaginov a, franke k. automated intelligent multinomial classification of malware species using dynamic behavioural analysis[c]//privacy, security and trust. ieee, 2017:70-77.
[9] khan m s, siddiqui s, mcleod r d, et al. fractal based adaptive boosting algorithm for cognitive detection of computer malware[c]//ieee, international conference on cognitive informaticscognitive computing.ieee, 2017:50-59.
[10] li j, he p, zhu j, et al. software defect prediction via convolutional neural network[c]//ieee international conference on software quality, reliability and security.ieee, 2017:318-328.
[11] alves h, fonseca b, antunes n. experimenting machine learning techniques to predict vulnerabilities[c]//dependable computing. ieee, 2016:151-156.
[12] qin f, zheng z, bai c, et al. cross-project aging related bug prediction[c]//ieee international conference on software quality, reliability and security.ieee, 2015:43-48.
[13] nisa i u, ahsan s n. fault prediction model for software using soft computing techniques[c]//international conference on open source systemstechnologies.ieee, 2016:78-83.
[14] li z, li m, liu y, et al. identify coincidental correct test cases based on fuzzy classification[c]//international conference on software analysis, testing and evolution. ieee, 2016:72-77.
[15] jonsson l, broman d, magnusson m, et al. automatic localization of bugs to faulty components in large scale software systems using bayesian classification[c]//ieee international conference on software quality, reliability and security. ieee, 2016:423-430.
[16] le t d b, lo d, li m. constrained feature selection for localizing faults[c]//ieee international conference on software maintenance and evolution. ieee, 2015:501-505.
[17] pandey n, sanyal d k, hudait a, et al. automated classification of software issue reports using machine learning techniques:an empirical study[j]. innovations in systemssoftware engineering, 2017 (3) :1-19.
[18] mendes t, valente m t, hora a c, et al. identifying utility functions using random forests[eb/ol]. http://www.narcis.nl/publicetion/record id/oai:prue. tue.nl:publications, 2016.
[19] meng q, zhang b, feng c, et al. detecting buffer boundary violations based on svm[c]//international conference on information science and control engineering. ieee, 2016:313-316.