软件学报  2019, Vol. 30 Issue (5): 1342-1358   PDF    
基于深度学习的API误用缺陷检测
汪昕1,2, 陈驰1,2, 赵逸凡1,2, 彭鑫1,2, 赵文耘1,2     
1. 复旦大学 软件学院, 上海 201203;
2. 上海市数据科学重点实验室(复旦大学), 上海 201203
摘要: 开发人员经常需要使用各种应用程序编程接口(application programming interface,简称API)来复用已有的软件框架、类库等.由于API自身的复杂性、文档资料的缺失等原因,开发人员经常会误用API,从而导致代码缺陷.为了自动检测API误用缺陷,需要获得API使用规约,并根据规约对API使用代码进行检测.然而,可用于自动检测的API规约难以获得,而人工编写并维护的代价又很高.针对以上问题,将深度学习中的循环神经网络模型应用于API使用规约的学习及API误用缺陷的检测.在大量的开源Java代码基础上,通过静态分析构造API使用规约训练样本,同时利用这些训练样本搭建循环神经网络学习API使用规约.在此基础上,针对API使用代码进行基于上下文的语句预测,并通过预测结果与实际代码的比较发现潜在的API误用缺陷.对所提出的方法进行实现并针对Java加密相关的API及其使用代码进行了实验评估,结果表明,该方法能够在一定程度上实现API误用缺陷的自动发现.
关键词: API误用     使用规约     缺陷检测     深度学习    
API Misuse Bug Detection Based on Deep Learning
WANG Xin1,2, CHEN Chi1,2, ZHAO Yi-Fan1,2, PENG Xin1,2, ZHAO Wen-Yun1,2     
1. Software School, Fudan University, Shanghai 201203, China;
2. Shanghai Key Laboratory of Data Science(Fudan University), Shanghai 201203, China
Foundation item: National Key Research and Development Program of China (2016YFB1000801)
Abstract: Developers often need to use various application programming interfaces (API) to reuse existing software frameworks, class libraries, and so on. Because of the complexity of the API itself, or the lack of documentation, developers often make some API misuses, which can lead to some code defects. In order to automatically detect API misuse defects, the API use specification is required and the API is tested according to the specification. However, API specifications that can be used for automatic detection are difficult to obtain, and the cost of manual writing and maintenance is high. To address the issue, this study applies the recurrent neural network model of deep learning to the task of learning API use specifications and the task of detecting the API misuse defect. In this study, based on a large number of open source Java code, the training sample of API use specification is extracted based on static analysis method, and then use the training sample to set up the recurrent neural network to learning API use specification. On this basis, this study makes a context-based prediction on the API use code, and finds out the potential API misuse defects by comparing the prediction results with the actual code. The method above is implemented, and it is evaluated with experiments about Java encryption related APIs and their used code. The results show that the proposed approach has the ability to a certain extent to automatically detect API misuse defects.
Key words: API misuse     usage specification     bug detection     deep learning    

在软件开发过程中, 开发人员经常需要使用各种应用程序编程接口(application programming interface, 简称API)来复用已有的软件框架、类库, 以节省软件开发时间, 提高软件开发效率.但由于API自身的复杂性、文档资料的缺失或自身的疏漏等原因[1-4], 开发人员经常会误用API.API的误用情形多种多样[5], 例如多余的API调用、遗漏的API调用、错误的API调用参数、缺少前置条件判断、忽略异常处理等.这些API误用在实际项目中常常导致了功能性错误、性能问题、安全漏洞等代码缺陷[5, 6].例如在使用文件流API时, 如果最后遗漏了对文件流进行关闭的API调用, 那么将导致内存泄露问题.

为了自动检测API误用缺陷, 需要获得API使用规约[7], 并根据规约对API使用代码进行检测.然而, 可用于自动检测的API规约难以获得, 而人工编写并维护的代价又很高.相关研究工作[8-10]关注于利用数据挖掘、统计语言模型等方法自动挖掘或学习API使用规约并用于缺陷检测, 但存在合成能力不足等问题.

本文将深度学习中的循环神经网络模型应用于API使用规约的学习及API误用缺陷的检测.在大量的开源Java代码基础上, 通过静态分析构造API使用规约训练样本, 同时利用这些训练样本搭建循环神经网络结构学习API使用规约.在此基础上, 本文针对API使用代码进行基于上下文的语句预测, 并通过预测结果与实际代码的比较发现潜在的API误用缺陷.本文对所提出的方法进行实现, 并针对Java加密相关的API及其使用代码进行了实验评估, 结果表明, 该方法能够在一定程度上实现API误用缺陷的自动发现.

本文第1节对本文使用的深度学习背景知识进行说明.第2节介绍相关工作.第3节对本文所提出的方法及其实现进行说明.第4节介绍本文中设计的两个实验——深度学习模型训练实验和API误用缺陷检测实验的设计与结果分析.最后, 在第5节对本文进行总结与展望.

1 背景知识

深度学习(deep learning, 简称DL)是一类通过连续多层变换的非线性处理单元对数据进行复杂特征提取, 并通过这些组合特征解决问题的机器学习算法[11].

1.1 循环神经网络

循环神经网络(recurrent neural networks, 简称RNN)属于深度学习技术的一个重要分支.通过对数据中的时序信息的利用以及对数据中语义信息的深度表达, RNN在处理和预测序列数据上实现了突破, 并在语音识别、语言模型、机器翻译等方面发挥出色[12-15].

1.2 长短时记忆网络

RNN利用状态值保存迭代计算时的历史信息, 利用时序信息辅助当前决策.但简单的RNN存在长期依赖(long-term dependencies)问题.1997年, Hochreiter和Schmidhuber提出的长短时记忆网络(long short term memory, 简称LSTM)[16], 经过计算[16], 能够进行前向传播, 并对历史信息进行遗忘, 对输入信息进行状态更新, 有效解决了长期依赖问题.

1.3 深层循环神经网络

深层循环神经网络(deep RNN)是RNN的一种变种, 通过拓展浅层循环体, 设置多个循环层, 将每层RNN的输出作为下一层RNN的输入, 进一步处理抽象, 增强RNN从输入中提取高维度抽象信息的能力[12].

1.4 神经网络模型的优化 1.4.1 损失函数

损失函数定义了深度学习神经网络模型的效果和优化目标.本文将神经网络模型应用于分类问题, 用N个神经元的输出表示N个不同的API调用的评判概率.应用于分类问题的常用损失函数是交叉熵(cross entropy), 它表示了两个概率分布之间的距离, 可用于计算正确答案概率分布与预测答案概率分布之间的距离.在训练过程中, 使用Softmax回归处理层将神经网络的前向输出转换为大小为N的概率分布形式.

1.4.2 优化算法

在神经网络模型中, 优化过程分为两个阶段:一是前向传播阶段, 在这个阶段, 神经网络模型前向计算预测值, 并通过预测值与目标值计算损失函数; 二是反向传播阶段, 在这个阶段, 采用梯度下降法(gradient descent)[17]的思想, 通过损失函数对每个可优化的参数进行梯度计算, 同时利用学习率进行参数更新, 从而达到优化模型的目的.

在神经网络模型优化过程中, 选取适当的初始值、学习率、迭代次数, 能进一步调整模型的预测能力.同时, 也要注意过拟合问题对模型预测能力的影响——当模型进入过拟合状态, 模型的表达能力将局限在训练数据中, 反而不利于模型的泛化预测能力.

2 相关工作

不少研究工作关注于利用数据挖掘、统计语言模型等方法自动挖掘或学习API使用规约并用于缺陷检测, 但存在合成能力不足等问题.这方面有代表性的研究工作包括以下这些:

Li等人[8]研究了基于频繁项集的API使用规约挖掘技术, 并研发了一个挖掘和检测工具PR-Miner.PR- Miner通过将代码库中的函数映射为数据子项, 并对代码中频繁共现的数据子项进行统计和挖掘, 根据数据子项的频繁共现关系推断API调用之间的关联关系.最终, PR-Miner可以得到以API调用的关联关系为基础的使用规约.基于该工具, 他们在Linux kernel, PostgreSQL等大型软件系统的代码中发现了23个确认的Bug.

Zhong等人[9]研究了基于自然语言处理的API使用规约提取技术, 并研发了一个API使用规约提取工具Doc2Spec.Doc2Spec通过分析自然语言编写的API文档, 提取相关的API使用规约.基于该工具, 他们分析了J2SE4、J2EE5、JBoss6、iText7以及Oracle JDBC driver8这5个Java库的Javadocs, 提取出API使用规约, 并基于这些API使用规约在真实代码中人工发现了35个确认的Bug.

Wang等人[10]研究了N-gram语言模型, 并研发了一个缺陷检测工具Bugram.Bugram利用N-gram语言模型, 基于API调用token只与在它之前的n个token相关的假设, 对软件项目中出现的API调用token序列进行出现概率的计算, 同时将较低概率的token序列的出现与程序中API的异常调用、误用和特殊用法联系起来, 以此进行缺陷的自动化检测.基于该工具, 他们在16个开源Java项目中发现了25个确认的Bug以及17个可能存在的代码重构建议.

然而, 这些研究中提出的技术方法存在一定的局限性.频繁项集挖掘技术关注于挖掘代码中数据子项的频繁共现关系, 但对API使用的顺序信息没有加以利用; 而N-gram语言模型利用到了API使用的顺序信息, 但是对多样和变长的代码上下文存在模型的合成能力不足的问题.

本文将循环神经网络模型应用于API使用规约的学习及API误用缺陷的检测.循环神经网络模型能有效提取序列数据中的抽象特征, 以概率分布的形式进行预测, 能有效处理多样和变长的上下文, 具有较强的合成能力.改进后的循环神经网络有效地解决了自然语言处理中的长期依赖问题, 被广泛应用于模式识别等领域.因此, 我们期望该模型也能有效学习API调用组合、顺序及控制结构等方面的使用规约.

3 方法与实现 3.1 方法概览

本文所提出的API误用缺陷检测方法概览如图 1所示, 其中主要包括3个阶段——训练数据构造、模型训练与预测、缺陷检测.

Fig. 1 Overview of our approach 图 1 本文方法概览

●   在训练数据构造阶段, 基于大量开源Java代码数据集, 对源代码进行静态分析, 构造抽象语法树, 并进一步构造为API语法图, 用于API调用序列的抽取, 最后, 将API调用序列构造为深度学习模型需要的训练数据.

●   在模型训练与预测阶段, 训练深度学习模型, 基于该模型和API使用的上下文对API调用序列中某处的API调用进行预测, 得出该位置的API调用概率列表.

●   在缺陷检测阶段, 从待检测代码中抽取用于预测的API调用序列, 基于模型训练与预测阶段的模型预测对每个位置进行API调用预测, 并获取每个位置的API调用概率列表, 将原代码中的API调用序列与预测得出的概率列表进行比对, 得出最终的API误用检测报告.

3.2 训练数据构造

在训练数据构造阶段, 将数据从源代码的形式依次构造为抽象语法树、API语法图, 并基于构造得出的API语法图提取出与API调用相对应的API调用序列; 随后, 将API调用序列构造为可用于模型训练的训练数据.如图 1所示, 训练数据构造阶段分为4个子阶段:静态代码分析、API语法图构造、API调用序列抽取、数据构造.

3.2.1 静态代码分析

抽象语法树(abstract syntax tree, 简称AST)将Java源代码映射成树状结构, 是静态解析源代码的有效工具.在静态代码分析阶段, 本文使用JavaParser[18]对源代码文件进行解析, 并获取表示源代码语法结构的AST.

3.2.2 API语法图构造

在API语法图构造阶段, 在AST的基础上进行进一步解析构造, 经过静态代码分析和API语法图构造, 代码从源代码形式转化为API语法图形式.如图 2所示, 展示了本文中一个API语法图抽取的例子.

Fig. 2 Example for API syntax graph extraction 图 2 API语法图抽取例子

图中的代码通过Scanner API读取每行文件内容并打印到输出控制台中, 最后关闭Scanner, 释放资源.在该代码中使用到了java.io.File, java.util.Scanner, java.io.PrintStream这些API, 经过转化, 抽取出的API语法图如图中图状结构所示.

在构造API语法图的过程中涉及到如下定义.

(1) 节点

节点分为3种类型.

●   方法节点, 表示API语法图的来源(文件路径、类、方法).

●   API节点, 表示API对象创建、API方法调用、API类变量访问.

●   控制节点, 表示控制结构(如IF, ELSE, WHILE, FOR, FOREACH, TRY等).

(2) 边

节点之间可以由有向边连接, 方向从父节点指向子节点.边分为两种类型.

●   顺序边, 表示流(控制流)的方向.

●   控制边, 表示控制结构之间的顺序关系(如IF→ELSE).

(3) API语法图

一个根节点, 能构成一个最简的API语法图.

边从父节点指向子节点, 没有子节点的节点称为叶子节点.

向API语法图中的一个节点向该图中另一个节点加一条边, 图中不构成环路, 这个图仍是一个API语法图.

向API语法图中加入一个节点, 由图中任意一个节点向该节点加一条边, 图中不构成环路, 这个图仍是一个API语法图.

两个API语法图, 从一个API语法图的叶子节点出发, 向另一API语法图的根节点加边, 称为移植.移植后, 得到组合了两个API语法图的API语法图.

根据定义进行UML建模, 设计API语法图类以及相关类如图 3所示.

Fig. 3 Class diagram of API syntax graph 图 3 API语法图相关类图

其中,

●   Node表示API语法图上的节点, 分为3种节点类型, 包括方法节点(MethodNode)、API节点(APINode)以及控制节点(ControlNode).

●   Edge表示父节点连接子节点的边, 可以为顺序类型边或者控制结构类型边.假设从图上从一个节点出发, 深度遍历找到所有没有子节点与之连接的节点, 这些节点为这个节点的叶子节点(leave).

●   Graph表示API语法图, 该图上的节点由Node表示, 其中, 一个特殊的根节点root表示一个API语法图的开始.从Graph a的叶子节点到Graph b的根节点都加上边, 这个操作称为移植(transplant).

在API语法图构造阶段, 基于AST以及控制流分析, 将源代码抽象表示为API语法图, 流程的具体步骤如下.

(1)    基于JavaParser, 静态分析代码为AST.

(2)    基于JavaParser对每个类中的方法进行抽取, 将信息存储到方法节点中, 并以该节点为根节点, 构建API语法图g.

(3)    对每个方法根据以下规则, 迭代地构建API语法图g'.

   a)   如果当前处理语句中有嵌套的语句, 先构造出嵌套在内层的语句的API语法图, 移植到g'上, 再迭代地根据后续规则构造出外层的语句的API语法图, 移植到g'上.

   b)   如果当前处理语句是API对象创建(API object creation), 则构造API节点, 并以“完整类名.New ([完整参数类类型])”的形式表示节点, 将以该节点为根节点的API语法图移植到g 上.

   c)   如果当前处理语句是API方法调用(API method call), 则构造API节点, 并以“完整方法名([完整参数类类型])”的形式表示节点, 将以该节点为根节点的API语法图移植到g 上.

   d)   如果当前处理语句是API类变量访问(API field access), 则构造API节点, 并以“完整类名.类变量”的形式表示节点, 将以该节点为根节点的API语法图移植到g'上.

   e)   如果当前处理语句是控制结构, 则根据以下主要规则, 构建相应的API语法图.

      ⅰ   “if”(判断结构), 构造控制节点“IF”, 并设置为g'的根节点.根据当前处理语句的子结构, 分别构造以控制节点“CONDITION”、“THEN”、“ELSE”为根节点的3个API语法图, 并用控制边将这3个API语法图移植到g'上.

      ⅱ   “while”(循环结构), 构造控制节点“WHILE”, 并设置为g'的根节点.根据当前处理语句的子结构, 分别构造以控制节点“CONDITION”、“BODY”为根节点的两个API语法图, 并用控制边将这两个API语法图移植到g'上.

      ⅲ   “try”(异常处理结构), 构造控制节点“TRY”, 并设置为g'的根节点.根据当前处理语句的子结构, 分别构造以控制节点“TRYBLOCK”、“CATCH”、“FINALLY”为根节点的API语法图, 并用控制边将这些API语法图移植到g'上.

      ⅳ   “for”(包含变量初始化、条件判断、变量更新的循环结构), 构造控制节点“FOR”, 并设置为g'的根节点.根据当前处理语句的子结构, 分别构造以控制节点“INITIALIZATION”、“COMPARE”、“BODY”、“UPDATE”为根节点的API语法图, 并用控制边将这些API语法图移植到g'上.

      ⅴ   “for each”(循环集合访问结构), 构造控制节点“FOREACH”, 并设置为g'的根节点.根据当前处理语句的子结构, 分别构造以控制节点“VARIABLE”、“ITERABLE”、“BODY”为根节点的API语法图, 并用控制边将这些API语法图移植到g'上.

(4)    将API语法图g'移植到API语法图g中, 获得每个类中方法对应的API语法图.最终获取的API语法图将作为下一阶段的基础.

3.2.3 API调用序列抽取

定义API调用序列(API sequence)如下.

给定API语法图, 从根节点出发, 根据顺序边以及表示顺序的控制边对API语法图进行深度遍历得到的节点标签序列, 称为这个API语法图上的API调用序列.表示顺序的控制边有以下几种:IF→CONDITION、WHILE→CONDITIO、TRY→TRYBLOCK、FOR→INITAILIZATION、FOREACH→VARIABLE.

例如在图 2的例子中, 经过API语法图构造以及API调用序列抽取, 得到以下两个API调用序列.

●   “java.io.File.new(java.lang.String)→java.util.Scanner.new(java.io.File)→WHILE→CONDITION→java.util.Scanner.hasNextLine()→BODY→java.util.Scanner.nextLine()→java.io.PrintStream.println(java.lang.String)→java.util.Scanner.close()→EOS”.

●   “java.io.File.new(java.lang.String)→java.util.Scanner.new(java.io.File)→WHILE→CONDITION→java.util.Scanner.hasNextLine()→java.util.Scanner.close()→EOS”.

在API调用序列抽取阶段, 基于API语法图, 抽取API语法图中的API调用序列.主要思想是对API语法图进行深度遍历, 提取所有存在API调用节点的API调用序列作为与该API语法图对应的API调用序列集合.所有提取的API调用序列以EOS控制节点结束.

3.2.4 训练数据产生

训练数据构造阶段将API调用序列转换为训练数据, 该阶段包括了词汇表的建立以及训练数据的构造两个部分.

(1)    构建词汇表.为了将API调用序列转化为深度学习模型能够统一识别的序列输入, 将原始数据集中的代码片段转化为API调用序列后, 经过统计序列中出现的API调用词频, 建立API调用与API调用编号一一对应的词汇表, 并持久化到本地的词汇表文件中.

(2)    构造训练数据.如图 4中构造训练数据算法流程图所示, 基于词汇表将API调用序列转换为API调用编号序列, 其中每个API调用的编号与词汇表中该调用的行号对应.对构造好的编号序列进行遍历, 构造〈API调用前文编号序列, API调用编号〉形式的数据, 并作为训练数据持久化至本地训练数据文件中, 方便之后的模型训练和预测.这里的API调用前文指的是在该序列中API调用之前的所有API调用组成的序列, API调用前文的编号序列形式称为API调用前文编号序列.

Fig. 4 Flowchart of training data build algorithm 图 4 构造训练数据算法流程图

3.3 模型训练与预测

在模型训练与预测阶段, 基于TensorFlow框架, 使用Python3语言搭建深度学习模型对训练数据构造中获得的训练数据进行学习, 得到训练好的深度学习模型, 并利用该模型对特定时间步上的API调用进行预测, 得到该位置上的API调用概率列表.该阶段主要分为模型训练和模型预测两个阶段.

3.3.1 模型训练

本文中采用的深度学习模型为深层循环网络结构配合长短时记忆网络的应用, 这里简称为深层长短时记忆循环网络(deep LSTM).结构示意如图 5所示.示意图中采用了双层深层循环神经网络的结构, 在每个循环体结构中应用LSTM模型, 将每个时间步上的API调用序列的标签作为一个词, Deep LSTM的输入为包含 个时间步的词向量, 表示前t个API调用序列的输入, 输出取第t个时间步的输出, 表示基于前文内容, 下一个API调用序列上的节点可能情况的概率分布.

Fig. 5 Structure of deep LSTM 图 5 Deep LSTM结构

模型的搭建选取深度学习框架TensorFlow 1.6.0作为实现框架.

模型的计算流程如下.

(1)    经过词向量层(word embedding), 将输入的API调用前文编号序列中的每个API调用编号嵌入到一个实数向量中, 以此降低输入的维度, 同时增加语义信息.

(2)    经过词向量层转化的输入向量经过dropout层, 丢弃部分信息以增强模型的健壮性.

(3)    使用TensorFlow提供的动态RNN接口实现神经网络主要结构, 其中包含了深层LSTM处理单元.

(4)    循环神经网络的输出需要经过一个全连接层(dense)转化, 与词表大小保持一致, 这个与词表大小一致的输出称为logits; 随后, logits经过Softmax处理以及交叉熵计算, 可以分别得到API调用的概率分布以及损失值; TensorFlow将基于给定的优化函数, 对参数进行优化.

(5)    同时, 在训练过程中加入预测正确率(accuracy)作为训练时的反馈, 同时也作为优化训练模型的参考.

至此, 我们搭建并训练了一个应用于API调用序列预测的深度学习模型.

3.3.2 模型预测

在模型预测阶段, 基于模型训练中的训练好的深度学习模型, 并将用于预测的API调用前文序列作为输入, 预测下一位置上的API调用的概率分布, 将这个概率分布进行排序, 得出下一位置上的API调用概率列表.该API调用概率列表将作为之后缺陷检测的重要部分.

3.4 缺陷检测

本阶段的基础是训练数据构造阶段和模型训练与预测阶段.

图 1所示, 缺陷检测阶段经过训练数据构造阶段的静态代码分析、API语法图构造、API调用序列抽取, 得到原代码中的API调用序列, 基于模型训练与预测阶段的模型预测, 对API调用序列中除了具有固定语法顺序搭配的控制流结构(例如IF→CONDITION中IF后紧跟的CONDITION所在位置, WHILE→CONDITION中WHILE后紧跟的CONDITION所在位置等等)之外的每个位置进行API调用预测并获取每个位置的API调用概率列表, 将原代码中每个API调用序列上的每个位置的API调用与预测得出的API调用概率列表进行比对, 应用定义好的代码缺陷检测规则, 报告出候选的代码缺陷, 得出最终的API误用检测报告.

缺陷检测实现部分涉及不同的实现语言——Java和Python, 为了模型之间较方便地协作调用, 在本文的实现中采用如下技术框架进行模块之间的沟通:基于Python语言中的Web端框架Flask[19]搭建Web服务端, 将API调用概率列表的预测包装为Web API供客户端调用.

本文中实现的缺陷检测算法流程如图 6所示, 算法中的具体步骤如下.

Fig. 6 Flowchart of bug detection algorithm 图 6 缺陷检测算法流程图

(1)    从待检测的源代码中抽取API语法图.

(2)    从API语法图中抽取API调用序列.

(3)    对每一个API调用序列, 从第2个位置开始, 进行缺陷检测.

(4)    基于检测位置的API调用前文, 预测该位置可能出现的API调用概率列表.

(5)    判断该位置的API调用在API调用概率列表中的排名是否在可接受范围(该范围在算法开始前由人工定义)内:如果该API调用的出现在可接受范围内, 则继续检测下一位置; 如果该API调用的出现超出可接受范围, 则作为一个缺陷并进行该位置的缺陷报告, 缺陷报告包括了代码缺陷在源代码中的位置(起止行数)以及对应的API调用.

(6)    结束检测后, 可根据缺陷报告进行进一步的评估.

在实验过程中, 将重点对算法中API调用在API调用概率列表中可接受范围的设定进行实验.

4 实验评估

本文中的实验评估分为两部分:首先是深度学习模型训练, 目的在于尝试优化深度学习模型对API调用序列预测的准确性和可靠性; 其次是代码缺陷检测实验, 目的在于评估检测深度学习模型在API误用缺陷检测上的效果和可用性.

4.1 实验对象

JCE(Java cryptography extension)是JDK提供的一组包, 它们提供用于加密、密钥生成和协商及消息验证码(MAC)算法的框架和实现, JCE提供的Java密码学APIs(Java cryptography APIs)在javax.crypto包下.研究[20-22]说明:Java Cryptography APIs通过分离开发人员和API底层实现细节, 开发人员可以轻松地使用加解密技术.这些API提供了多种模式和配置选项, 但因此, 对开发人员来说使用和组合这些API组件的任务可能具有挑战性.

本文中将实验对象聚焦于Java Cryptography APIs, 展示深度学习模型在缺陷检测上的效果和能力.

4.2 深度学习模型训练实验 4.2.1 实验数据

Git是一个自由开源的分布式版本控制系统, 它的设计目的是无论小型还是大型的项目, 都能通过Git快速高效地管理.GitHub是一个基于Git的大型开源代码托管平台以及版本控制系统, GitHub上的开源代码是挖掘API调用规约的一大数据来源[23, 24].

在本文的深度学习模型训练实验中, 以“javax.crypto”为关键词, 从GitHub上收集了14 422个java代码文件, 这些文件的最后修改时间在2018年1月1日之前(稳定版本), 这些文件组成的训练原始文件总大小为50MB.从训练原始文件中抽取38 602条API调用序列, 构造388 973条训练数据, 词表大小为1 564.

4.2.2 实验设计

深度学习模型的搭建选取深度学习框架TensorFlow 1.6.0作为实现框架, 语言为Python, 开发IDE为Jupyter-notebook编辑器, 搭建模型为深层循环神经网络和长短时记忆网络的结合.

实验探究隐层大小(HIDDEN_SIZE)、深层循环网络层数(NUM_LAYER)、学习率(LR)以及迭代次数(NUM_EPOCH)对模型效果的影响.对模型效果的评判效果以验证集上的分类准确率(accuracy)为准, 分类准确率为模型预测Top-1为目标词的准确率.通过调整深度学习模型的部分参数, 对模型进行调整训练, 训练集为总数据集的90%, 验证集为总数据集的10%.

4.2.3 实验模型分析

本次实验最终选择的参数配置为HIDDEN_SIZE=250, NUM_LAYER=2, LR=0.002, NUM_EPOCH=20.如图 7所示, 横轴为训练迭代次数(epoch), 纵轴为损失(loss).该模型在训练中的损失不断下降趋于收敛.

Fig. 7 Loss of DL model 图 7 深度学习模型损失

该配置下, 模型效果如图 8所示, 横轴为迭代次数, 纵轴为准确率.

Fig. 8 Accuracy of DL model (HIDDEN_SIZE=250, NUM_LAYER=2, LR=0.002) 图 8 深度学习模型准确率(HIDDEN_SIZE=250, NUM_LAYER=2, LR=0.002)

经过20次迭代后, 模型准确率达到80.3%.该参数组合在验证集上效果最优, 因此最终用于缺陷预测的模型参数为:HIDDEN_SIZE=250, NUM_LAYER=2, LR=0.002, NUM_EPOCH=20.

4.3 代码缺陷检测实验

本节进行基于深度学习模型的API误用相关代码缺陷检测实验.进行该部分实验前, 对实验中的测试标准进行定义.

●   定义TP为检测文件API误用缺陷位置正确的不重复缺陷报告数.

●   定义FP为检测文件API误用缺陷位置错误的不重复缺陷报告数.

●   定义FN为未进行报告的缺陷报告数.

1.查准率(precision)定义为

$ P=\frac{T P}{T P+F P} $ (1)

2.召回率(recall)定义为

$ R=\frac{T P}{T P+F N} $ (2)

3.查准率和召回率的调和均值(F1)定义为

$ F 1=\frac{2 T P}{2 T P+F P+F N} $ (3)

查准率和召回率往往体现的是实验结果的一个侧面, 比如召回率较高的模型在查准率上不一定很高.因此在本文的实验中, 采用二者的调和均值F1进行API误用缺陷检测的实验评价.

4.3.1 实验数据

本次实验中, 根据相关文献中Java Cryptography API误用的真实数据[5], 选用了从SourceForge和GitHub上的优质项目(大于10星)中整理的关于Java Cryptography APIs的误用代码片段8个, 其中包含API误用14个, 将这14个API误用作为计算模型查准率、召回率以及F1值的测试集.实验所用的测试集整理如表 1所示, 表格中标明了每个测试用例的代码来源、API误用方法来源、误用引入缺陷的具体API以及API误用的说明, 所有测试用例源码可通过代码来源在托管平台上下载.

Table 1 Information of test case 表 1 测试用例信息

这些测试用例中包含4种类型的API误用(不互斥).

     a.  使用了多余的API调用;

     b.  使用了错误的API调用;

     c.  遗漏了关键的API调用;

     d.  忽略了对API调用中可能抛出的异常的处理.

其中, 测试用例1使用了多余的API调用; 测试用例2忽略了对API调用中可能抛出的异常的处理; 测试用例3、测试用例5、测试用例7~测试用例9、测试用例11、测试用例13使用了错误的API调用; 测试用例4、测试用例6、测试用例10、测试用例12、测试用例14遗漏了关键的API调用.

4.3.2 实验设计

人工整理API误用测试用例, 将每个API误用标注成标准化的格式“文件路径, 方法, API误用缺陷位置, 误用API”, 用于计算查准率、召回率和F1值.

在进行API误用缺陷检测时, DeepLSTM将预测出API调用序列上某个位置上的API调用概率列表, 为进行缺陷检测, 定义API调用在API调用概率列表中可以接受的排名范围, 在本文中称为可接受阈值(acceptable threshold).假设实验中的缺陷检测模型的可接受水平设置为k, 那么当API调用在API调用概率列表中的排名在Top-1~Top-k之间时(包括Top-k), 认为该API调用在本次API误用缺陷检测中处于API调用的可接受范围内; 反之, 认为该API调用属于API误用代码缺陷.

为验证模型的有效性, 设置以下模型作为实验的对比模型.

(1)    基准模型(baseline).该模型假设API调用序列上的每个位置都可能是潜在的API误用, 该假设覆盖到所有的API误用缺陷, 召回率恒定为1, 在测试集上的查准率为0.088 6, F1值为0.163.

(2)    N-gram检测模型.Bugram[10]基于N-gram语言模型实现了对存在API误用的异常序列的检测.本文关注于对API调用序列上某一位置可能存在的API误用的检测, 因此, 本文实现Bugram应用的N-gram预测模型作为对比实验, 使用与深度学习模型训练时相同的API调用序列, 训练N-gram模型, 基于前N个词元预测下一个词元.实验中取N={3, 4, 5}分别对应3-gram模型、4-gram模型和5-gram模型, 并进行Jelinek-Mercer平滑处理[25].N-gram检测模型应用N-gram预测模型对API调用序列上某个位置的API调用概率列表进行预测, 同样的, 应用可接受阈值(Top-k)进行缺陷检测.

在本实验中, 比较不同模型的API误用缺陷检测效果, 并探究可接受阈值的取值对代码缺陷检测模型的F1值的影响.

4.3.3 实验结果分析

经测试, API误用缺陷检测的实验结果如图 9所示, 图中折线表示不同的实验模型, 横轴表示可接受阈值(top-k)的取值, 图 9(a)是各模型的F1值, 图 9(b)是各模型的查准率, 图 9(c)是各模型的召回率.

Fig. 9 Result of API misuse bug detection experiment 图 9 API误用缺陷检测实验结果

从结果中可以看出:

在一定范围内, DeepLSTM的查准率均高于基准模型且召回率大于等于50%, 有一定的缺陷检测能力.本实验中4-gram模型较3-gram模型和5-gram模型缺陷检测效果较好, 但在本实验中, 它们均不如基准模型(查准率最高约和基准持平).而相较而言, DeepLSTM模型在本次实验所采用的模型中有一定的检测能力且效果最好.

当可接受阈值取到Top-8时, DeepLSTM缺陷检测效果最好.

为了进一步探究API误用类型与模型能力的关系, 实验中, 将DeepLSTM模型对应每个可接受阈值(top-k)的具体API误用缺陷报告情况整理在表 2中, 表格中检测正确的API误用用“√”表示, 未检出的API误用用“-”表示.

Table 2 API misuse bug detection reports statistics 表 2 API误用缺陷检测报告情况统计

基于整理后的API误用缺陷检测报告情况, 按照测试集中API误用的误用类型对缺陷检测报告情况进行进一步的可视化统计分析, 如图 10所示.

Fig. 10 Analysis of relationship between acceptable thresholdand type of API misuse 图 10 可接受阈值与API误用类型关系分析

纵轴表示了不同类型的API误用缺陷, 横轴表示检测出以及未检出的该类型API误用数量在该类型API误用总数中的占比, 用颜色深蓝色、浅绿色分别表示检测出和未检出的两种情况, 图中有10个独立的子图来分别表示每个可接受阈值(top-k)对应的API误用缺陷检测报告情况.

分析该图, 可以看出:

●   随着k取值的增大, 在某些API误用的检测上, 模型的效果保持基本不变(错误的API调用), 一定程度说明了本实验中采用的缺陷检测方法对检测该类API误用的有效性:当一个API误用在API调用序列中不应该出现(使用了错误的API)时, 则应用本实验中按位置预测并比较检测API误用是可行且有效的.

●   但是与之相反的, 随着k取值的增大, 在某些API误用的检测上, 模型效果不断降低(遗漏API调用), 这一定程度上也说明了本实验中采用的缺陷检测方法对检测该类API误用的局限性:当一个关键性API在API调用序列中遗漏, 仅靠当前的API调用序列作为预测的前文, 很难推断出下一位置是否遗漏了某个API.例如, 某个关键性API可能在当前位置更靠后几个调用中出现, 这种情况对目前采用的仅对一个位置的API误用缺陷进行检测的方法就具有很大的挑战性.

●   随着k取值的增大, 在某些API误用的检测上, 模型效果有较大的突变(多余的API调用、忽略异常处理), 这与本实验中采用的测试集有一定的关系——多余的API调用和忽略异常处理的测试用例都仅有1个.但是在k取到一定范围(top-8)之前, 本实验中采用的缺陷检测方法对忽略异常处理类型的API误用缺陷检测效果还是不错的.

●   就每个独立子图而言, 也可以验证以上几点结论:本实验采用的API误用缺陷检测方法, 对检测错误的API调用类型的API误用效果较好, 而在发现遗漏API调用类型的API误用上, 能力稍有欠缺.

综上, 本实验应用深度学习模型学习大量代码中的API使用规约, 并应用在API误用缺陷检测上的方法.虽然由于大量开源代码中可能存在些许误用的API代码, 影响到训练数据的质量, 对模型的效果产生着一定的影响, 但是本实验中, 模型在以检测Java加密相关的API误用代码缺陷为例的实验中仍然起到了一定的效果, 以可接受阈值为8时效果最佳(F1值、准确率).在本实验中, 模型对检测错误的API调用类型的API误用效果较好, 而在发现遗漏API调用类型的API误用上能力稍有欠缺, 这与每种API误用类型内在的规律特征密不可分.

5 结束语

本文将深度学习中的循环神经网络模型应用于API使用规约的学习及API误用缺陷的检测.将API调用组合、顺序及控制结构等方面的使用规约建模为API语法图和API调用序列.在大量的开源Java代码基础上, 对代码进行静态分析, 并构造大量API使用规约训练样本, 对循环神经网络进行训练.在实验中通过尝试不同参数组合, 选定并训练出较优的循环神经网络模型, 并用于基于前文的API调用预测, 通过预测结果与实际代码进行比较来发现潜在的API误用缺陷.随后, 在以检测Java加密相关的API误用代码缺陷为例的实验中证明了该方法的有效性.实验表明, 本方法检测错误的API调用类型的API误用时最为稳定有效.

本文提出的方法在一定程度上能自动检测API误用缺陷, 并在某类API误用的检测中较为有效, 但是还存在一些不足和可改进之处——在发现遗漏API调用类型的API误用上, 能力稍有欠缺.在未来研究中, 可考虑对多个位置的API调用进行预测比对, 减少模型由于单个位置的预测带来的API是否漏用的不确定性.

参考文献
[1]
Li Z, Wu JZ, Li MS. Study on key issues about API usage. Ruan Jian Xue Bao/Journal of Software, 2018, 29(6): 1716-1738(in Chinese with English abstract). http://www.jos.org.cn/1000-9825/5541.htm [doi:10.13328/j.cnki.jos.005541]
[2]
Zhou Y, Gu R, Chen T, Huang Z, Panichella S, Gall H. Analyzing APIs documentation and code to detect directive defects. In: Proc. of the 39th Int'l Conf. on Software Engineering. 2017. 27-37.[doi:10.1109/ICSE.2017.11]
[3]
Liu S, Bai G, Sun J, Dong JS. Towards using concurrent Java API correctly. In: Proc. of the 21st Int'l Conf. on Engineering of Complex Computer Systems. 2016. 219-222.[doi:10.1109/ICECCS.2016.32]
[4]
Sacramento P, Cabral B, Marques P. Unchecked exceptions: Can the programmer be trusted to document exceptions. In: Proc. of the 2nd Int'l Conf. on Innovative Views of NET Technologies. 2006.
[5]
Amann S, Nadi S, Nguyen HA, et al. MUBench: A benchmark for API-misuse detectors. In: Proc. of the 13th Int'l Conf. on Mining Software Repositories. 2016. 464-467.[doi:http://dx.doi.org/10.1145/2901739.2903506]
[6]
Gao Q, Zhang H, Wang J, et al. Fixing recurring crash bugs via analyzing q&a sites (T). In: Proc. of the 201530th IEEE/ACM Int'l Conf. on Automated Software Engineering. 2015. 307-318.[doi:10.1109/ASE.2015.81]
[7]
Zhong H, Zhang L, Mei H. Mining invocation specifications for API libraries. Ruan Jian Xue Bao/Journal of Software, 2011, 22(3): 408-416(in Chinese with English abstract). http://www.jos.org.cn/1000-9825/3931.htm [doi:10.3724/SP.J.1001.2011.03931]
[8]
Li Z, Zhou Y. PR-miner:Automatically extracting implicit programming rules and detecting violations in large software code. SIGSOFT Software Engineering Notes, 2005, 30(5): 306-315. [doi:10.1145/1081706.1081755]
[9]
Zhong H, Zhang L, Xie T, Mei H. Inferring resource specifications from natural language API documentation. In: Proc. of the 2009 IEEE/ACM Int'l Conf. on Automated Software Engineering. 2009. 307-318.[doi:10.1109/ASE.2009.94]
[10]
Wang S, Chollak D, Movshovitz-Attias D, Tan L. Bugram: Bug detection with n-gram language models. In: Proc. of the 201631st IEEE/ACM Int'l Conf. on Automated Software Engineering. 2016. 708-719.[doi:10.1145/2970276.2970341]
[11]
[12]
Zheng ZY, Liang BW, Gu SY. TensorFlow:Googledeep Learning Framework, Put It into Practice. 2nd ed.. Beijing: Publishing Houseof Electronic Industry, 2018.
[13]
Graves A, Jaitly N, Mohamed A. Hybrid speech recognition with deep bidirectional LSTM. In: Proc. of the 2013 IEEE Workshop on Automatic Speech Recognition and Understanding. 2013. 273-278.[doi:10.1109/ASRU.2013.6707742]
[14]
Luong MT, Pham H, Manning CD. Effective approaches to attention-based neural machine translation. In: Proc. of the Empirical Methods in Natural Language Processing. 2015. 1412-1421.[doi:10.18653/v1/D15-1166]
[15]
Cho K, Van Merriënboer B, Gulcehre C, Bahdanau D, Bougares F, Schwenk H, Bengio Y. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In: Proc. of the Empirical Methods in Natural Language Processing. 2014. 1724-1734.[doi:10.3115/v1/D14-1179]
[16]
Hochreiter S, Schmidhuber J. Long short-term memory. Neural Computation, 1997, 9(8): 1735-1780. [doi:10.1162/neco.1997.9.8.1735]
[17]
Li H. Statistical Learning Method. Beijing: Tsinghua University Press, 2012.
[18]
Smith N, Bruggen DV, Tomassetti F. JavaParser: Visited analyse, transform and generate your Java code base. 2017. https://enterprise.leanpub.com/javaparservisited
[19]
Grinberg M. Flask Web Development. Oreilly Vlg Gmbh & Co., 2014.
[20]
Nadi S, Kr S, Mezini M, Bodden E. Jumping through hoops: Why do Java developers struggle with cryptography APIs? In: Proc. of the 38th Int'l Conf. on Software Engineering. 2016. 935-946.[doi:10.1145/2884781.2884790]
[21]
Egele M, Brumley D, Fratantonio Y, Kruegel C. An empirical study of cryptographic misuse in Android applications. In: Proc. of the Conf. on Computer and Communications Security. 2013. 73-84.[doi:10.1145/2508859.2516693]
[22]
Fahl S, Harbach M, Muders T, Smith M, Baumgärtner L, Freisleben B. Why eve and mallory love Android: An analysis of android SSL (in) security. In: Proc. of the Conf. on Computer and Communications Security. 2012. 50-61.
[23]
Gousios G, Spinellis D. Mining software engineering data from GitHub. In: Proc. of the 2017 IEEE/ACM 39th Int'l Conf. on Software Engineering Companion. 2017. 501-502.[doi:10.1109/ICSE-C.2017.164]
[24]
Fowkes J, Sutton C. Parameter-free probabilistic API mining across GitHub. In: Proc. of the 201624th ACM SIGSOFT Int'l Symp. on Foundations of Software Engineering. 2016. 254-265.[doi:10.1145/2950290.2950319]
[25]
Chen SF, Goodman J. An empirical study of smoothing techniques for language modeling. Computer Speech & Language, 1999, 13(4): 359-394. [doi:10.1006/csla.1999.0128]
[1]
李正, 吴敬征, 李明树. API使用的关键问题研究. 软件学报, 2018, 29(6): 1716-1738. http://www.jos.org.cn/1000-9825/5541.htm [doi:10.13328/j.cnki.jos.005541]
[7]
钟浩, 张路, 梅宏. 软件库调用规约挖掘. 软件学报, 2011, 22(3): 408-416. http://www.jos.org.cn/1000-9825/3931.htm [doi:10.3724/SP.J.1001.2011.03931]
[12]
郑泽宇, 梁博文, 顾思宇. TensorFlow:实战Google深度学习框架. 第2版, 北京: 电子工业出版社, 2018.
[17]
李航. 统计学习方法. 北京: 清华大学出版社, 2012.