2. 中国科学院大学, 北京 100190
2. University of Chinese Academy of Sciences, Beijing 100190, China
信息时代, 各个数据中心、互联网公司都存储着大量数据(比如用户活动日志、网页库等).以FaceBook为例, 其每天新增数据量超过500TB[1].新收集到的数据会周期性地(比如每隔1小时、每隔1天等)添加到数据仓库中.这些持续增长的数据蕴藏了巨大的价值.比如, 广告系统的用户活动日志中包含用户编号、广告编号、是否曝光、是否点击等信息, 通过分析每条广告的曝光量、点击量、广告费等信息, 可以使广告主了解其所投放的广告实时状态; 又如, 电影评分网站利用网络爬虫收集论坛中的影评, 实时更新各个电影的评分, 使得想要观影的用户及时获得各个电影的最新评价.
大数据分析与查询系统Hive[2]是目前最常用的分布式数据仓库查询引擎之一, 最适合处理大批量的分析类查询任务.Hive提供简洁且功能强大的类SQL查询语法(HiveQL).用户使用HiveQL语法书写的查询, 经过Hive解析、优化后, 转化为一系列能够在不同分布式计算框架(比如MapReduce[3], Spark[4], Tenzing[5])上执行的分布式查询任务(如图 1所示).图中的抽象语法树(AST)、查询块(QB)和操作符树(OpTree)为Hive逻辑查询阶段的3种中间表示形式.
由于数据仓库里的数据是周期性增长的, 为了及时把握分析结果的变化, 对数据分析查询也需要周期性地重复.本文将这种周期性重复地对数据仓库中不断增长的数据的分析场景称为周期性增量查询场景.在此过程中, 势必会引入对旧数据的重复分析.以图 2所示的查询语句为例, 该查询取自标准测试集TPC-H, 用HiveQL语法书写, 作用是分析巴西的电镀钢材在美洲市场中占的市场份额.该查询涉及的8张表中, 以lineitem表(别名l)的规模最大, 是规模次大的orders表的4.5倍.查询语句中, 加粗的注释为本文针对周期性增量查询场景扩展的专用描述语法(详见第2.1节).该语法描述的功能是指定从1995年1月1日起, 每隔一季度, 重复执行一遍查询.假定每季度的数据量增长相当.如果每次重复该查询, 都分析从1995年1月1日起到查询执行时间点之间的所有数据, 则仅仅当年重复扫描的数据量就会达到lineitem表规模的6倍, 由于重复分析历史数据而引入的时间开销为第1季度查询开销的3.4倍.
为避免由重复分析历史数据而引入的不必要的开销, 需要为主流的大数据分析与查询系统, 扩展针对周期性增量查询场景的支持.当前, 针对周期性增量查询场景的处理支持, 以重用历史数据的中间结果、优化冗余计算为核心设计思路, 下文统称为增量优化技术.增量优化技术, 按照实现层次, 可以分为两大类:(1) 基于分布式查询系统所依托的分布式计算框架(也称为查询的执行引擎)设计的增量优化技术, 代表性工作有Percolator[6], CBP[7], IncMR[8], Incoop[9], DryadInc[10]; (2) 针对有向无环图(DAG)形式的查询工作流图设计的增量优化技术, 代表性工作有Nectar[11], Nova[12].这些增量技术虽然各具优势, 但在用户透明性和优化收益方面还存在改进空间.部分技术(如CBP, Nova等)需要用户参与优化过程, 比如, 需要用户来选择历史数据中间结果存储点、设计增量处理逻辑, 因此, 不具备用户透明性.其他技术(如IncMR, DryadInc等)或者会存储多余的历史数据中间结果, 为优化过程带来额外的开销; 或者不能最大限度地重用历史结果, 造成优化收益不理想.
本文针对上述问题, 从兼顾用户透明性和优化收益的角度出发, 设计了一种以查询操作符的语义特征和增量数据特点为指导的、查询执行引擎无关的周期性查询增量优化技术(下文简称语义规则指导的增量优化技术).该技术首先扩展了查询语法, 供用户描述查询的重复周期和增量表.下文将该扩展语法称为增量描述语法.通过解析增量描述语法, 本文在构建查询计划的过程中, 将查询划分成增量无关部分和增量相关部分, 并在保持查询语义不变的前提下, 尽可能地扩大增量无关部分.然后, 结合基于查询操作符的计算语义和输出语义设计的增量优化规则(第3.1节)、代价模型(第4.3节)以及物理查询任务的划分结果, 在增量相关部分识别历史数据中间结果的存储位置、历史数据中间结果与新增数据中间结果的合并位置.根据识别结果, 在查询计划中自动插入用于完成存储、合并功能的操作符子树, 生成优化后的增量查询计划.最后, 将增量无关部分的查询计划和增量查询计划分别转化成可以在主流分布式计算框架上执行的查询任务, 前者仅执行1次, 后者按照增量描述语法所描述的周期调度执行.
本文在主流的分布式查询系统Hive上实现了上述技术.实验结果表明:对于扩展了增量语法描述的TPC-H测试集, HiveInc相对于优化前, 可以获得平均2.93倍、最高5.78倍的加速; 与经典优化技术IncMR, DryadInc相比, 分别可以获得1.69和1.61倍的加速.
本文第1节介绍相关工作的优势与不足.第2节介绍本文设计的增量描述语法以及语义规则指导的增量优化技术的处理流程.第3节介绍语义指导的增量优化规则以及基于该规则设计的增量查询计划生成算法.第4节介绍包括增量描述语法解析、增量相关部分识别、拆分操作符的代价选择在内的其他技术细节.第5节介绍基于Hive的原型实现.第6节分析实验数据.第7节总结全文.
1 相关工作目前, 针对大数据查询的增量优化研究工作, 按照实现层次的不同可以分为两大类:(1) 基于执行引擎实现的增量查询优化技术, 代表性的工作有CBP[7], IncMR[8], Incoop[9], DryadInc[10]; (2) 基于DAG形式查询工作流图(图中节点代表一个可以在分布式计算框架上执行的任务)实现的增量优化技术, 如Nectar[11], Nova[12].
CBP[7]将数据处理流程看作由一系列有状态的操作符(stateful operator)组成的DAG.每个操作符都记录状态, 新数据到来以后用操作符对应的函数将状态和新数据合并, 并更新状态, 状态可以理解为操作符的历史数据.更新状态的算法由用户实现.以图 2所示的查询为例, 用户需要实现lineitem表的新数据与其他表进行连接的算法, 以及新的连接中间结果与历史中间结果的合并算法.
IncMR[8]和Incoop[9]都基于Hadoop[13]实现, 支持针对MapReduce的增量优化.IncMR的实现方法是:记录每一个map任务的输出, 当新数据到来后, 只需启动用于处理新数据的map任务, 然后将新map任务的输出和已存储的map输出一起作为reduce任务的输入.IncMR会尽量将reduce任务调度在有历史结果的节点上, 以减少数据迁移的代价.Incoop将reduce任务组织为一棵名为contraction tree的二叉树的形式.树的根节点对应reduce函数, 中间节点对应combiner函数, 叶节点对应map任务的输出.为实现增量优化, Incoop需要存储每个MapReduce作业的map输出以及contraction tree上每一个中间节点的计算结果.以图 2所示的查询为例, 该查询会被Hive划分成8个MapReduce作业.为了实现增量优化, IncMR和Incoop需要存储其中每个作业的map输出.
DryadInc[10]基于Dryad[14]实现, 输入都是DAG形式的分布式任务图.DryadInc支持两种增量优化处理办法: IDE和MER.IDE采用启发式的历史数据存储策略:如果图中某个阶段的所有进程都受新输入数据的影响, 则存储该阶段的输入; 重用时, 选择图中最大的并且已经存储了历史输出的子DAG.MER由用户指定存储/重用位置, 以及重用位置上合并历史数据和新输入数据中间结果的函数.具体到图 2所示的查询, 最理想的存储位置是聚合操作的输入, 但IDE会选择存储第1个连接操作(lineitem为其直接输入)的输入, 导致后续的6个连接操作都需要重复处理历史数据.
Nectar[11]基于DryadLINQ[15]实现, 增量作用在查询DAG图, 基于代价选择对查询的优化改写方式.对于一个查询, Nectar首先尝试存储查询树的所有前缀子树的中间结果以及生成该中间结果所需的时间; 新数据到来后, 从查询树的最大前缀子树t(即查询树本身)开始, 寻找是否已经存了t作用在当前数据集D或者D的某个子集上的历史结果, 若有则停止遍历, 若没有则迭代分析t的最大前缀子树, 直至收敛.对于同一个查询, Nectar可能会找出多种对历史结果的重用方法, 可能是重用小数据集的长路径计算结果, 也可能是重用大数据集的短路径计算结果.Nectar根据所记录的生成各个中间结果所需的时间, 选择节省时间最多的历史结果重用方法.Nectar同样存在无差别存储所有子树的计算结果的问题.Nectar的优势在于支持包括周期性增量查询之外的多种查询场景, 如查询DAG图之间的数据复用、移动窗口查询, 等.
Nova[12]是一个抽象层次更高的增量式工作流管理(workflow manager)系统.工作流是由任务(task)和管道(channel)构成的一个DAG, 由用户指定每一个任务处理的输入数据的类型(new, all)、对输入数据的处理方式(non-incremental, stateless incremental, stateful incremental)以及输出数据的类型(base, delta).此外, 用户还要指定每个管道调用的数据处理函数(merge, chain, diff).
此外, 还有一些其他增量处理技术(如Percolator[6], HaLoop[16], Trill[17], Redoop[18]), 与本文关注的应用场景不同, 故本节不做介绍.
表 1从用户透明性、重用粒度选择和历史数据存储选择这3方面总结了上述工作, 从中可以看出, 它们或者需要用户来选择历史数据中间结果存储点、设计增量处理逻辑, 增加了普通用户的使用困难; 或者会存储多余的历史数据中间结果, 从而带来不必要的开销.本文针对上述问题, 设计了一套以查询操作符语义为指导的增量优化规则.优化规则遵循语义等价、推迟合并和同位存储这3条原则, 以确保在保持查询语义的前提下, 最大限度地重用历史数据的查询结果.并且设计了一个用于控制历史结果的存储规模的代价模型, 降低优化过程中的额外开销, 进一步提高优化收益.优化过程对用户透明.
2 系统概述
针对相关研究工作在用户透明性和优化效果方面的不足, 本节为用户设计了一种增量描述语法以及一种以查询语义为指导的自动优化周期性增量查询的方法.
2.1 增量描述语法增量描述语法设计成SQL语句注释的形式.用户可以在注释中指定周期性查询的开始时间、间隔周期和结束时间.描述增量语义的注释既可以添加在查询语句的结束位置, 也可以添加在某一数据表尾部.当添加在某一数据表尾部时(即图 1所示的情况), 表示仅将该数据表作为增量优化算法的输入对象; 否则, 表示将查询中所有包含周期性增量数据的表都作为增量优化算法的输入对象.
以下注释写法均符合增量描述语法.
(1) /*+INCREMENTAL(after 2014/3/4, 12:5:20 INTERVAL 3/M)*/, 代表从2014年3月4日的12点5分20s开始, 每隔3分钟执行一遍查询, 结束时间没有设置, 代表查询将周期性重复, 直到用户手动终止.
(2) /*+INCREMENTAL(2014/3/4-2014/3/5)*/, 代表从2014年3月4日0点起, 到2014年3月5日0点, 期间按照默认间隔周期, 重复执行查询.
(3) /*+INCREMENTAL(after 2014/3/4)*/, 代表从2014年3月4日0点起, 到用户手动终止前, 按照默认间隔周期, 重复执行查询.
2.2 增量优化流程本文设计的增量优化流程如算法1所示(如图 3所示).
算法1包括4个主要步骤(原理图如图 4所示).
1) 增量查询语法解析(算法1第1行、第2行).
本步骤扩展了主流分布式查询系统的语法前端, 用以解析用户采用第2.1节所介绍的增量描述语法所描述的信息.解析得到的周期性查询起止时间与间隔周期以及增量优化算法的输入表信息(简称增量表), 将附着在解析得到的查询语法树上, 并随着优化的进行, 传递给新生成的查询中间表示, 分别用于增量查询计划的周期性调度(步骤4) 和增量相关部分的识别(步骤2).使用扩展的语法解析器解析SQL查询, 得到标注了增量表的查询树和增量信息, 增量信息包括查询开始执行时间StartTime、查询执行间隔Interval、查询结束时间StopTime.比如, 图 2所示查询中的增量语法描述经扩展的语法前端解析后, 得到的抽象语法树如图 5所示, 图中使用缩进表示父子关系.
图 2所示查询的整个语法树可以简化地表示为图 6(1)所示的树型结构, 其中, 增量表l用方框标出(限于篇幅, 图中对语法树和查询计划都进行了简化.语法树的叶子节点代表输入表, 其余节点代表对应基本逻辑操作符的语法标识符.查询计划上的节点代表基本查询操作符, 叶子节点代表扫描对应表的操作符).
2) 增量相关部分识别(算法1第3行).
本步骤以步骤1生成的包含增量信息的查询语法树为输入, 将查询语法树划分成增量数据流可以达到的增量相关部分和不受增量数据影响的增量无关部分.其中, 仅增量相关部分由1条以上(含1条)的增量路径构成.增量路径是语法树上以增量表标识符为起点的路径, 路径的长度为路径包含的能够转化成基本逻辑操作符的标识符的数量.增量相关部分的规模为各条增量路径的长度之和, 如果两条增量路径之间有重叠, 则重叠部分的长度仅计算1次.增量相关部分需要周期性重复执行, 增量无关部分可以只执行1次, 把执行结果存储起来, 供后续查询复用.可见, 即便不对增量相关部分的进行增量优化, 仅扩大增量无关部分, 也可以降低查询代价.因此, 本步骤在识别增量路径的过程中, 根据“增量外移规则”对查询语法树进行等价变换.增量相关部分将交由步骤3处理, 增量无关部分将从语法树中提取出来, 转换成独立的查询, 查询结果写入增量无关部分存储表中.比如, 图 6(1)中查询语法树, 经过等价变换, 增量相关部分的规模从10缩小到6(图 6(2)中黑色部分), 交由步骤3处理; 增量无关部分(图中灰色子树)转换成两个独立的查询计划, 直接交步骤4处理.
3) 增量查询计划的生成(算法1第4行).
本步骤的输入包括:步骤2识别的增量相关部分、根据查询操作符的计算语义和输出语义设计的状态转换表形式的增量优化规则以及用于判断如何生成拆分操作符的代价模型.增量优化规则是本文方法的核心, 决定增量路径上历史数据中间结果的存储位置和合并位置.增量查询规则的设计遵循语义等价、延迟存储和同位存储这3条原则.规则细节见第3节.增量查询计划生成算法根据增量优化规则选定的存储位置、合并位置以及存储对象, 结合对代价模型公式以及物理查询任务划分点的分析, 确定最终的存储、合并位置, 然后为存储位置上的操作符插入用于存储规则所指定的输入的拆分操作符子树; 将合并位置上操作符替换成用于读取已存储的历史数据中间结果, 并将它们与新增数据当前处理结果合并的合并操作符子树, 生成增量查询计划.图 6(3)为增量相关部分经增量查询计划生成算法处理后生成的增量查询计划.算法根据增量查询规则选择TOK_GBY_ sum为存储兼合并位置, 生成物理查询计划后表示为GBY_sumOp.GBY_sumOp的拆分操作符子树有两种可选形式, 即图 6(3)中标注的形式①、形式②.算法将根据代价模型(第4.3节)选择其中存储、合并开销较小的形式.
4) 查询计划的调度执行(算法1第5行~第9行).
本步骤的输入包括:步骤2生成的增量无关部分的查询计划、步骤3生成的增量查询计划以及步骤1解析得到增量信息.增量无关执行一次并存储结果, 待增量查询计划使用(算法第5行).增量查询计划依照用户指定的开始时间、执行间隔和结束时间周期性调度执行.每次执行前, 对于需要扫描增量表的查询任务, 识别增量表对应路径下上次执行后新增的文件列表.修改对应物理任务的输入, 令其只扫描新增文件列表(算法第7行).然后, 将物理查询计划提交到分布式查询引擎中执行.如图 6(4)所示的中间表示代表查询计划, 右边两棵树是增量无关部分的查询计划, 只需执行1次, 查询结果分别写入临时表noInc0和noInc1中, 原查询计划中的对应位置修改为对表noInc0和noInc1的扫描, 左边树是增量查询计划, 要周期调度执行, 每次执行时只扫描增量表l新增数据, 记为Δl.
3 增量优化规则与算法本节介绍语义指导的增量优化规则(第3.1节)以及基于规则设计的增量查询计划生成算法(第3.2节).
增量优化规则的输入是查询语法树上的增量相关部分, 输出为历史查询中间结果的存储位置和合并位置.增量查询计划生成算法将根据增量优化规则的输出拆分查询语法树:在存储位置对应的操作符与其待存储的输入之间插入用于拆分原始查询语法树、存储历史查询中间结果的操作符子树(下文统称拆分操作符); 将合并位置上操作符的输入子树替换成用于读取、处理历史数据查询中间结果, 再合并历史数据中间结果与新增数据当前处理结果的操作符子树(下文统称合并操作符), 生成增量查询计划.
3.1 增量优化规则定义.增量路径是查询语法树上一条以增量表标识符为起点、以语法树根节点为终点的路径.
一棵查询语法树上可能包含多条增量路径, 增量路径之间允许有重叠.由同一棵查询语法树上的增量路径构成的集合称为增量相关部分.
增量路径的长度为路径上包含的能够被转化成基本逻辑操作符的标识符的数量.基本逻辑操作符是指完成单一特定功能的操作符.表 2所示为Hive中部分基本逻辑操作符与语法树上标识符之间的对应关系(一条增量路径上的所有TOK_WHERE标识符在计算路径长度时只算1次).这些基本逻辑操作符在转化成物理查询计划时, 可以由一个独立的map或reduce阶段或者一个独立的MapReduce作业来完成.
增量相关部分的规模为它所包含各条增量路径的长度之和.如果两条增量路径有重叠, 则重叠部分的长度仅计算1次.
增量优化规则与增量查询计划生成算法的设计遵循语义等价、推迟合并和同位存储这3条基本原则.语义等价是优化规则的设计基础, 即确保插入的拆分操作符和合并操作符不会违反原始查询的语义.推迟合并和同位存储的目的是在维持语义等价的前提下提高优化收益:在选择存储/合并位置时, 一方面令存储位置与合并位置重叠, 并尽量推迟它们在增量路径上的位置, 可以避免对历史数据的重复处理开销, 提高优化收益; 另一方面, 存储/合并历史数据中间结果可能引入额外开销(比如新的物理查询任务), 为了降低或避免额外开销, 应尽量将存储/合并位置选择与物理查询任务划分点相同的位置上.
设计的依据是各语法标识符对应的基本逻辑操作符(下文简称操作符)的计算语义和输出语义.其中, 操作符的计算语义决定当选择该操作符作为存储/合并位置时, 应插入何种拆分/合并操作符, 以维持查询语义等价; 操作符的输出语义决定是否必须选择该操作符作为存储/合并位置, 即如果提前或推迟存储/合并位置, 是否会影响对查询语义的维护.表 3按照操作符的计算语义, 将常用操作符分成Ⅰ型操作符和Ⅱ型操作符.其中, D代表上一次查询结束后, 增量表中存储的数据; ΔD代表从上一次查询结束到本次查询开始之前新增加的数据.
Ⅰ型操作符满足对集合并的分配律OPI(D∪ΔD)=OPI(D)∪OPI(ΔD).代表性的Ⅰ型操作符有扫描操作符(TableScanOperator, 记作TS)、过滤操作符(FilterOperator, 记作FIL)和连接操作符(JoinOperator)等.注意:连接操作符存在单输入增量(记作Join)和多输入增量(记作MiJoin)两种情况, 都属于Ⅰ型操作符.当选择Ⅰ型操作符作为合并位置时, 通过UNION操作符就可以完成对新旧数据查询中间结果的合并(记作UNION合并).以两个输入都有增量(D1, D2代表历史输入, ΔD1, ΔD2代表新增输入)的MiJoin为例, 有:
$ MiJoin({D_1} \cup \Delta {D_1}, {D_2} \cup \Delta {D_2}) = Join\left( {{D_1}, {D_2}} \right) \\ \cup Join({D_1}, \Delta {D_2}) \cup Join(\Delta {D_1}, {D_2}) \cup Join(\Delta {D_1}, \Delta {D_2}) $ |
除Ⅰ型操作符外的操作符统称Ⅱ型操作符.代表性的Ⅱ型操作符有聚合操作符(GroupByOperator, 记作GBY)、排序操作符(OrderByOperator, 记作ORDERBY)、取前x个操作符(LimitOperator, 记作LIMITx).如果选择一个Ⅱ型操作符作为合并位置, 必须使用专门的合并操作符(见后文表 6)合并新旧数据的查询中间结果(记作非UNION合并).
表 4定义了操作符的3种输出语义.输出语义由输出数据的完整性以及输出数据中包含的来自历史数据的中间结果的可重用性两种性质构成.一个操作符的输出语义由该操作符的计算语义以及孩子操作符的输出语义共同决定.
完整性代表该操作符的输出包含了后续操作符在本轮查询中需要处理的所有输入.输入被增量描述语法描述为增量表的操作符, 输出不具有完整性.如果一个操作符的任一孩子操作符的输出不具有完整性, 则该操作符的输出也不具有完整性.将某一操作符的输出性质从不完整转化为完整的唯一途径是选择该操作符作为合并位置.
可重用性代表输出中由历史数据产生的部分并未与由新增数据产生的部分融合, 而是可以独立地被后续操作符所使用.Ⅰ型操作符满足对集合并的分配律, 由新增数据产生的输出可以作为一个独立的部分追加在历史输出之后.如果一个Ⅰ型操作符的所有孩子操作符的输出都具有可重用性, 则该操作符本身也具有输出可重用性; 如果其中任一孩子操作符不具有输出可重用性, 则该Ⅰ型操作符的输出也不可重用.增量路径上的Ⅱ型操作符以及位于非UNION合并之后的操作符的输出都不具有可重用性.
综上, 增量优化规则的核心思路可以归纳为:对于一个具有输出可重用性的操作符, 合并位置允许推迟或提前, 在尚未知晓物理查询任务划分位置的情况下, 优选推迟; 对于一个输出不可重用的操作符, 如果其输出不完整, 则必须被选合并位置; 令存储位置与合并位置重合.
基于操作符的计算语义和输出语义设计的增量优化规则见表 5.
优化规则在自底向上遍历查询语法树的过程中实施.对于每个操作符, 根据其左、右孩子操作符输出的完整性和可重用性以及操作符本身所属的类型, 决定是否选择其作为存储位置或重用位置以及操作符的输出语义.对于只有1个孩子的操作符, 默认该孩子为左孩子, 将不存在的右孩子的输出语义预设为完整的、可重用的(即状态11).规则设计的一个特例是, 选择所有孩子的输出都不具有完整性但满足可重用性的MiJoin作为存储兼合并位置.以两个孩子的MiJoin为例, 根据语义, 存储、合并位置都可以继续推迟, 推迟后虽然可以节省重复执行Join(D1, D2)的代价, 但也会增加合并代价:合并过程中的Join(ΔD1, D2)和Join(D1, ΔD2)在执行时会各生成一个新的物理查询任务.尤其是在增量路径上有多个连续的MiJoin时, 推迟合并可能导致变换后的查询计划及其复杂, 不利于查询效率和语义维护.除特例外, 规则默认选择的都是增量路径上能够维持优化前后语义等价的最迟存储、合并位置.在物理查询任务生成过程中, 规则选定的位置可以提前到与最近一个任务划分点重合.
表 5中的L表示当前操作符的左输入, R表示当前操作符的右输入, S表示存储位置, M表示合并位置, [Ⅰ]和[Ⅱ]分别代表当前操作符的类型.比如,
● 当左孩子的输出语义为01、右孩子的输出语义为01时, 处理规则“11(LS+RS+M)”代表以当前操作符为存储、合并位置, 存储对象是当前操作符的左输入和右输入, 设置当前操作符输出语义为11.
● 当一个操作符的左孩子的输出语义为01、右孩子的输出语义为11时, 需要进一步考虑操作符类型:若当前操作符是Ⅰ型, 则不进行任何存储或合并变换, 仅将操作符的输出语义置为01;若为Ⅱ型, 则以当前操作符为存储、合并位置, 存储对象是当前操作符的左输入, 设置当前操作符的输出语义为11.
下一节将介绍如何根据规则, 选择存储、合并位置, 执行增量优化变换.
3.2 增量查询计划的生成算法图 7所示为增量查询计划生成算法的伪码.
算法以增量相关部分(IP)和上一节设计的增量优化规则(rules)为输入.增量优化规则包括表 5所示的状态转换表(Rules.position)和表 6所示的Ⅱ型操作符的拆分合并操作符形式(Rules.function).算法主体为负责识别存储/合并位置的FindCachePosition函数以及负责插入拆分、合并操作符的doSplitMerge函数.
函数FindCachePosition按照拓扑序、自底向上遍历查询语法树(SyntaxTree).对于作为叶子节点的扫描操作符, 如果其被标记为增量输入, 则将操作符的输出数据语义初始化为不完整的、可重用的(01), 其余扫描操作符的输出语义置为完整的、可重用的(11)(算法2第11行、第12行).对于非叶子节点操作符, 读取其左、右孩子节点操作符的输出语义.对于只有单个孩子节点的操作符, 设置其右孩子的输出为完整的、可重用的(11)(算法2第14行、第15行).用操作符类型(Ⅰ型、Ⅱ型)和左、右孩子操作符输出语义查寻状态转换表, 获得处理规则(rule).规则由存储位置(Rule.store)、合并位置(Rule.merge)和规则实施后输出语义(Rule.dataStatus)构成(算法2第16行).如果存储/合并位置非空, 则根据代价模型(第4.3节)选择拆分、合并操作符(算法2第18行).表 6列出了部分典型Ⅱ型操作符应使用的拆分、合并操作符.其中, 拆分操作符有两种:一种是只带存储功能的朴素拆分操作符, 另一种是附带合成器功能的拆分操作符.合成器的作用类似于MapReduce中的combine函数, 可以缩小待存储数据的规模.两种拆分操作符对应的合并操作符也可能不同.以GBY为例, 朴素拆分操作符是FS, 对应的合并操作符是GBYkey, func; 带合成器的拆分操作符是GBYkey, combiner.FS, 对应的合并操作符是GBYkey, merge.其中, 合成器对应的combiner函数以及合并操作符中的merge函数由GBY的聚合函数func来决定, 详见表 7.代价模型(第4.3节)将决定究竟选择哪一种拆分操作符以及它对应的合并操作符.如果选择结果为使用带合成器的拆分操作符, 则后续不再调整存储/合并位置, 将该位置以及需要存储的对象传递给doSplitMerge函数(算法2第19行).如果选择结果为使用朴素的拆分操作符, 则将存储/合并位置以及待存储的对象缓存起来, 待物理查询任务划分完毕后, 再根据任务划分点决定是否将存储/合并位置提前(算法2第20行).
doSplitMerge函数对每一个选定的存储/合并位置, 将语法树从该位置断开:在存储位置对应的操作符与作为存储对象的输入之间插入拆分操作符, 拆分操作符的输出写入到指定存储表; 将合并位置上的操作符替换成合并操作符, 再为合并操作符添加一个用于扫描指定存储表的孩子操作符(算法2第27行~第32行).对于变换产生的所有语法树, 分别将它们转化成逻辑查询计划(算法2第4行), 转化过程中, 将缓存的(即还有待调整的)存储/合并位置映射到逻辑查询计划中的基本逻辑操作符节点上, 再在生成物理查询任务的过程中, 将可提前的存储/合并位置提前到最近的任务划分点(算法2第5行), 输出优化后的增量查询计划.
图 8(1)所示为图 6(3)中增量查询计划的生成过程:首先, 初始化叶子节点的输出语义, noInc1, p, noInc0是非增量表, 初始化状态11, l是增量表, 初始化为01.当遍历到GBY_sumOp时, 其左孩子输出语义为01, 不存在的右孩子的输出语义为11, 对应的处理规则为“10(LS+M)”.如果代价模型判断结果为使用附带合成器的拆分操作符, 则采用图中标注为① 的变换方式; 否则, 采用图中标注为② 的变换方式.
算法2同样适用于包含多个增量表的查询.图 8(2)所示查询包含两个增量表(l1, l2), 经算法2处理后选择了两个存储兼合并位置:GBY_countOp和JoinOp0.其中, JoinOp0存储其右输入; GBY_countOp的拆分、合并操作符也有两种选择, 图中只画出使用朴素拆分操作符的情况.
4 技术细节本节介绍语义规则指导的增量优化方法中, 除增量优化规则之外的技术细节, 包括增量描述语法解析、增量相关部分的识别和代价模型设计.
4.1 增量描述语法解析为了解析第2.1节所扩展的语法表述, 我们对语法解析器扩展4条解析规则.新增解析规则见表 8.
表中第1列是解析规则, 第2列是该规则可处理的HiveQL语法示例, 第3列是第2列的示例经过解析规则处理后得到的语法树子树(缩进代表标识符间的父子关系).解析规则1、规则2用于解析增量描述语法中指定的增量表, 规则3、规则4用于解析增量查询的起始时间、结束时间和周期.第3列中的黑体标识符为增量描述语法引入的新标识符.后续算法将通过识别这些新标识符来获得对应的信息.
4.2 增量相关部分的识别本节介绍增量相关部分的识别算法, 以及如何在识别过程中, 根据增量外移规则, 扩大增量无关部分.
增量外移规则适用于增量路径上由满足交换律和结合律的多目操作符构成的路径前缀, 最典型的是由Join操作符(即语法树上TOK_JOIN标识符)构成的增量路径前缀(Join操作符满足Join(a, b)=Join(b, a)和Join(a, Join(b, c))=Join(Join(a, b), c), 其中, a, b, c代表Join的输入).增量外移规则规定:对于两个相邻的Join(分别记作InnerJoin和OuterJoin, InnerJoin是OuterJoin的左孩子), 如果满足:1) InnerJoin有且只有1个孩子的输出不具有完整的; 2) OuterJoin的右孩子具有完整性; 3) OuterJoin的左连接条件只来自于InnerJoin具有输出完整性的孩子这3个条件, 则可以将查询语法树上InnerJoin的不具备输出完整性的输入子树与OuterJoin的右子树交换, 缩短增量路径, 扩大增量无关部分.
增量路径识别算法伪码如图 9所示, 算法的输入是查询语法树SyntaxTree, 输出包括一个增量相关部分(记作IP)和一系列增量无关部分的根节点(保存在noIncList中).算法按照拓扑序、自底向上遍历查询语法树(SyntaxTree):将扫描增量表的(包含TOK_INCRE)标识符加入IP, 其余表扫描标识符加入noIncList(算法3第1行、第2行); 对于只有1个孩子的标识符, 其归属与孩子的归属相同, 但由于noIncList只保存增量无关部分的根节点, 所以当将一个标识符加入noIncList时, 要将它的孩子从nonIncList中删除(算法3第3行、第4行); 对于有两个孩子的标识符, 如果两个孩子都属于IP, 则将其本身也加入IP(算法3第6行、第7行); 如果两个孩子都属于noIncList, 则用其本身替换noIncList中的左、右孩子(算法3第8行、第9行); 如果两个孩子中的一个属于IP增量路径, 且当前标识符为TOK_JOIN, 则进一步判断当前标识符与它的父亲是否满足增量外移规则必须满足的3个条件:若满足, 则执行交换并更新noIncList; 若不满足, 则更新IP(算法3第10行~第13行).完成遍历后, 将noincList中的节点引导的增量无关子树从查询语法树中提取出来, 剩下的就是增量相关部分.
4.3 拆分操作符的选择
算法2在根据增量优化规则选择存储位置后, 对于某些Ⅱ型操作符提供了两种可选的拆分操作符:朴素的拆分操作符和附带合成器的拆分操作符.使用带合成器拆分操作符的优势是控制需要存储的历史数据中间结果的规模, 但缺点是在被转化成物理查询任务时可能引入一个额外的执行合成操作的查询任务或者一个map/ reduce阶段.使用朴素的拆分操作符可以在物理查询任务生成后, 根据任务划分点调整存储、合并位置, 因此不会引入额外的优化开销.但是当所存储数据到达一定规模时, 有可能增加合并操作符的扫描负担.综上, 当读取未经合成的历史数据的开销超过因附带合成器的拆分操作符执行合成操作带来的额外开销时, 选择附带合成器的拆分操作符能够获得更高的优化收益; 反之, 可以继续使用朴素拆分操作符.
公式(1) 为拆分操作符的代价选择公式.
$ \frac{{S(M + DM)}}{{mDSz}}-\frac{{S(DM)}}{{mDSz}}-\frac{{S(M' + DM')}}{{mDSz}} > \mathit{\Gamma } $ | (1) |
公式左部的第1项代表合并操作符处理未经合成的历史数据和本次新增数据的开销, 该开销主要取决于合并操作符的输入数据的规模(包括已存储的历史中间结果M的规模和本轮新增数据产生ΔM的规模)以及系统中可以同时处理的最大数据规模mDSz.mDSz由系统中可以同时运行的最大任务数量(maxTaskNum)和每个任务可处理的数据规模(splitSz)决定.mDSz的计算方法以及公式(1) 中其他符号的含义和计算方法见表 9.
公式(1) 左部的第2项代表对本次新增数据执行合成操作的开销, 第3项代表合并操作符处理合成后的历史数据(M')和本次新增数据(ΔM)的开销, 计算方法同第1项.左部计算结果代表使用附带合成器的拆分操作符所能带来的收益.但在从朴素拆分操作符转变成选用附带合成器的拆分操作符的过程中也会引入额外的开销, 即历史数据M需要被合成M'.这部分开销会均摊到以后的每个增量周期, 由公式右部的Γ表示.Γ可以由用户设置, 默认值为0.公式(1) 成立时, 选用附带合成器的拆分操作符可以获得比朴素拆分操作符更高的优化收益.
公式(1) 的最佳应用时机是每轮增量处理之前, 但公式中ΔM的规模只有在本轮查询执行后才能获得, M'和ΔM'的规模只有在选择并执行了附带合成器的拆分操作符之后才能获得.对此, 我们默认在首轮查询中选用朴素拆分操作符, 在之后的每个查询周期, 分别用上一周期中合并操作符的输入数据规模S(M)和输出规模S(Merge(M))来估算本轮查询可能生成的ΔM和ΔM'规模, 得到的估算公式如公式(2) 所示.
$ \frac{{((1 + \alpha ) \times S(M))}}{{mDSz}}-\frac{{(\alpha \times S(M))}}{{mDSz}}-\frac{{(2 \times S(Merge(M)))}}{{mDSz}} > 0 $ | (2) |
一旦选择使用附带合成器的拆分操作符, 后续的每轮增量处理就将沿用这一处理方式, 不再重新判断.
5 实现细节我们以Apache Hive[19]为基础实现了本文方法的原型系统HiveInc(https://github.com/acthires/HiveInc).图 10所示为HiveInc的原理图.图中的右半部分为Hive的固有逻辑, 用于接收HiveQL查询(CliDriver), 并依次将查询转化为抽象语法树(ParseDriver)、查询块(SemanticAnalyzer.doPhase1)、操作树(SemanticAnalyzer.genPlan)以及由MapReduce作业构成的DAG形式的物理查询计划(MapReduceCompiler).图中的左半部分为HiveInc为支持增量处理所做的扩展:虚线箭头表示对固有逻辑的扩展, 实线箭头代表输入输出流(灰色实线箭头表示Hive原本的输入输出流).其中, 增量查询计划生成算法分3部分实现.
1) 识别增量相关部分以及根据状态转换表形式的增量优化规则识别存储、合并位置实现在AST上.在识别增量相关部分的过程中, 我们只将能够生成独立分布式任务的增量无关部分(TOK_JOIN或TOK_QUERY引导的增量无关子树)从查询语法树中提取出来.
2) 根据拆分合并函数表和代价模型选择并插入拆分操作符、合并操作符实现在AST转化成QB的过程中, 如果用户选择使用代价模型, doSplitMerge为每个存储、合并位置生成两种执行计划:一种使用朴素拆分方法, 另一种使用附带合成器的拆分方法.默认使用前者, 每一轮增量处理过程中, 根据对上一轮运行结果的统计更新代价公式, 如果判断为真, 则改为使用后者.用户也可以选择不使用代价模型而是默认使用某一种拆分、合并操作符的处理方式.
3) 根据物理查询任务的划分点调整存储、合并位置实现在物理查询计划的生成过程中.
6 实验分析实验环境采用由4台曙光I840-G20服务器搭建的集群.每个节点上配有4个主频为2.0GHz的8核Intel E7处理器, 4条8GB的DDR4内存.其中, 原型可用的核数为每节点8个, 可用内存为每节点12GB.集群上安装的用于存储查询数据、执行查询任务的Hadoop[13]版本为Apache Hadoop-2.6.2.测试用例集(https://github.com/ acthires/HiveInc/tree/master/TestCases)基于标准测试集TPC-H[20]设计.TPC-H是学术界和工业界普遍使用的评测数据仓库系统性能的测试集, 根据真实的工业使用环境设计, 包含8张基本关系表和22个查询用例.实验选用TPC-H中除Q15(Q15必须写成两条查询语句的形式, 但目前我们的原型不支持多语句间的增量优化, 故暂不使用)外的21个查询用例, 数据表由自带的dbgen数据生成工具生成.我们按照第2.1节介绍的增量描述语法, 为每个测试用例添加了描述增量表、增量起止时间和间隔周期的注释.其中, 默认选择规模最大的表为增量表.如果最大的表被多次使用, 则该查询为一个包含多表增量的查询.各个查询用例的编号、用途以及涉及的SQL操作符见表 10.
6.1 优化分析
图 11所示为HiveInc原型对初始数据20GB, 经过9个增量周期, 每个周期增加数据规模与增量表的初始规模相等的测试集的优化加速比.对于测试集中的每个查询, 图 11分别展示了10次查询的平均加速比, 以及当历史数据与新增数据规模比值分别呈1比1、2比1、4比1和8比1时的加速比.其中, 所有21个查询经过10次增量的平均加速比为2.93, 单个查询的平均加速比最高可达5.78(Q9);单次增量的平均加速比随着历史数据与新增数据比值的提高而提高, 最高可达10.29(Q19的第8个增量周期).
根据优化前后10次查询需要处理的数据规模, 在假定对历史数据没有任何冗余处理的前提下, 计算出的理想加速比为5.5.但图 11中, q9, q19的平均加速比都显著高于理想加速比, q7的平均加速比接近理想加速比.造成上述现象的原因如下:一方面, 这3个查询本身具有增量路径长、路径上生成的物理查询任务的输入数据量大的特点, 增量对查询时间的影响大, 优化余地也大; 另一方面, HiveInc不仅能够提取出部分耗时但与增量无关的查询操作, 而且存储、合并位置之后不再包含耗时的查询操作, 存储的数据规模也始终保持在一个较低且恒定的水平.以q9为例, 优化前的q9在每轮增量查询时会生成7个物理查询任务, 其中6个与增量有关.优化前, 查询时间的增长与输入数据量的增长几乎呈线性(图 12(1)).优化后, 与增量无关, 用于连接nation表和supplier表的部分在语法树阶段就被单独提取出来, 且只执行1次; 且由于存储、合并位置选在所有连接完成之后的GBY处, 前4个连接任务都只需要处理新增数据; 需要存储的数据量也一直维持在较低的水平, 代价判断结果始终选择朴素的拆分操作符.从图 12(1)可以看出, 经HiveInc优化后, q9每个增量周期的查询执行时间时钟维持1 000s左右.
对于q1, q3, q5, q6, q8, q10, q12, q14这8个查询, HiveInc选择的存储、合并位置之后同样不包耗时的查询操作, 但由于这些查询的增量路径偏短, 优化前查询时间受增量数据的影响不如前述的3个查询明显, 因此, 平均加速比也略低于前3个查询, 维持在3倍~4倍之间.以q8为例(图 12(2)), 虽然优化后每轮增量查询的执行时间维持在362s左右, 但由于优化前每轮增量查询的时间较首轮查询仅增加43%, 理论上的平均加速比最高也只能到2.36倍.但从图 11可以看出, 当历史数据与增量数据的规模比达到8:1时, q8单次优化加速为7.28;由于优化后的查询时间几乎恒定, 随着增量周期的增长, q8的单次加速比和平均加速比都将稳固提高.
剩余的平均加速比低于3倍的查询又可以分为两类.
● 第1类包括q4, q17, q18, q20, q21.对于这类查询, HiveInc为了维护优化前后的语义等价而选择了1个或多个相对靠前的存储、合并位置, 合并后仍然需要执行一些耗时的查询操作, 导致优化后, 查询时间仍然随数据量的增长而增长.以q17为例(如图 12(3)所示), 其中包含两个增量表, 分别被GBY和Join使用, GBY的输出同时又是Join的输入.根据查询语义, Join的输出不完整也不可重用, 存储、合并位置不能再推迟.因此, HiveInc选择GBY任务和Join任务的输入为存储、合并位置, 存储对象包括GBY任务的输入、JOIN任务除GBY输出外的另外两个输入.从第1个增量周期起, 选择根据代价公式, 选用附带合成器的拆分操作符, 但生成的4个查询任务中仍然有3个需要重复处理历史数据.随着历史数据规模的增加, 每轮增量的查询时间增加的时间约为首轮查询的50%.
● 第2类查询包括剩余的q2, q11, q13, q16, q22.这5个查询由于输入数据规模和增量表本身的规模都比较小, 优化前后, 系统资源都足以一次性处理每个查询任务的所有数据.以q13为例(如图 12(4)所示), 优化前, 每个增量周期, 查询时间仅增加不到20%;优化后, 虽然每个增量周期的查询时间只增加4%, 但10次查询的平均加速比只能达到1.62.对于这类查询, 只有在数据规模增加到一定程度, 或系统资源受限时, HiveInc才能发挥优化效果.
图 13对比了HiveInc使用代价模型选择拆分操作符(图中记作HiveInc)与默认选用附带合成器的拆分操作符(图中记作合成器拆分)、默认选用朴素拆分操作符(图中记作朴素拆分)作用在上述测试集上的加速比.从中可见, 两种默认选择方式相对于优化前所能获得的平均优化收益分别为使用代价模型收益的95%和88%.
图 14对比了HiveInc使用代价模型选择拆分操作符与默认选用附带合成器的拆分操作符时需要存储的历史数据中间结果规模.对于每个查询, 代价模型在每个增量周期存储的历史数据中间结果平均为1 177MB, 为合成器拆分需要存储的规模(1385MB)的85%.这是由于部分查询使用合成器拆分操作符后, 存储中间结果的位置与物理任务划分点不重合.因此, 对于那些不需要从一开始就使用合成器缩小历史中间结果规模的查询, 默认使用合成器拆分反而会额外存储更多的数据.
图 15所示为HiveInc使用代价模型选择拆分操作符与默认选用朴素拆分操作符时合并操作符分别需要扫描数据规模.对于每个查询, 使用代价模型后, 合并操作符在每个增量周期需要扫描的平均数据规模为1.17GB, 仅占朴素拆分(30.7GB)的3.8%.可见, 缩小合并操作符的扫描开销是代价模型相对朴素拆分操作符能够获得更高优化收益的一个重要原因.
图 16所示为q21在初始数据量为10GB、9个增量周期的数据量依次为10G, 20G, 10G, 25G, 30G, 20G, 25G, 20G, 30G时, HiveInc使用代价模型选择拆分操作符、默认选用附带合成器拆分操作符、默认选用朴素拆分以及优化前的各个增量周期的执行时间, 其中, 合成器拆分、朴素拆分以及优化前的平均执行时间分别是HiveInc的1.04, 1.33, 1.85倍.HiveInc从第1个增量周期(T1) 开始选择使用合成器拆分.从图中可以看出, T1以前, 使用合成器拆分的执行时间高于朴素拆分; T1以后, 使用朴素拆分的执行时间迅速增加.可见, HiveInc的代价模型选择是合理的.又由于使用代价模型需要存储的历史数据量比默认使用合成器拆分存储数据量小, 因此, T1以后HiveInc的执行时间也低于合成器拆分的执行时间.只有在T1当次执行时, 由于要从朴素拆分变为合成器拆分, HiveInc的执行时间略高于其他方法, 但这部分开销被以后每个增量周期的收益所抵消.
6.2 对比
本文模拟了IncMR[8]和DryadInc[10]的IDE策略的优化效果.仍选用初始数据20GB, 9个增量周期, 每个周期增加数据规模与增量表的初始规模相等的TPC-H测试集.图 17所示为HiveInc, IncMR和DryadInc作用在21个查询上的平均加速比, 以HiveInc的加速比为标准化基数.从中可见, IncMR和DryadInc的平均优化加速分别只能达到HiveInc的59%和62%.对于21个查询中的13个, HiveInc优化加速更高的原因在于, 其选择的存储、合并位置都是最优的.而IncMR和DryadInc只有第1个查询任务的Map阶段可以只处理新增数据, 其Reduce阶段以及后续每个查询任务都需要处理所有数据.对于剩余的8个查询(q4, q12, q14, q16, q17, q18, q20, q21), HiveInc选择的存储、合并位置相对靠前, 且只能选在查询任务的划分点处; IncMR和DryadInc由于修改了查询执行引擎, 可以重用查询任务内部部分map tasks的计算结果, 优化收益更高.可见, 如果将HiveInc和相关工作联用, 可以优势互补, 获得更高的优化收益.
图 18对比了HiveInc, IncMR和DryadInc对于每个查询, 在每个增量周期, 需要存储的历史数据中间结果的平均规模.从中可见, HiveInc需要存储的数据量仅占IncMR的5.5%, 占DryadInc的9.1%.这一方面受益于本文设计的增量优化规则可以找到查询相关部分中最优的历史中间结果存储点; 另一方面, 当历史数据规模太大时, 代价模型会自动选择使用附带合成器的拆分操作符, 缩小数据规模.
7 总结
本文针对数据仓库中固定表增量的周期性查询场景, 设计并实现了一种语义指导的增量优化方法.实验结果表明, 该方法相对于优化前, 可以获得平均2.93倍、最高5.78倍的加速; 与经典优化技术IncMR, DryadInc相比, 分别可以获得1.69倍和1.61倍的加速.
目前, HiveInc原型可以支持连接、聚合等主要的SQL操作符以及其他Apache Hive 0.13版本可以接收的SQL操作符, 比如ROLLUP, CUBE等.我们正在将原型移植到最新版的Hive上, 以便更加全面地支持各类SQL语句.本文的下一步工作还包括:完善对包含多条查询语句的查询用例的优化支持以及对多种增量场景的支持, 比如移动窗口形式的增量优化场景.
[1] | Facebook process more than 500TB data daily. 2012(in Chinese). http://tech.sina.com.cn/i/2012-08-23/10597538323.shtml |
[2] | Thusoo A, Sarma JS, Jain N, Shao Z, Chakka P. Hive:A warehousing solution over a map-reduce framework. Proc. of the VLDB Endowment, 2013, 2(2): 1626–1629 . [doi:10.14778/1687553.1687609] |
[3] | Dean J, Ghemawat S. MapReduce:Simplified data processing on large clusters. Proc. of the Operating Systems |
[4] | Zaharia M, Chowdhury M, Das T, Dave A, Ma J, Mccauley M. Resilient distributed datasets:A fault-tolerant abstraction for in-memory cluster computing. In:Proc. of the 9th USENIX Conf. on Networked Systems Design and Implementation, Vol.70. Vancouver:USENIX Association, 2012. |
[5] | Chattopadhyay B, Lin L, Liu W, Mittal S, Aragonda P, Lychagina V. Tenzing:A SQL implementation on the MapReduce framework. Proc. of the VLDB Endowment, 2011, 4(12): 1318–1327 . |
[6] | Peng D, Dabek F. Large-Scale incremental processing using distributed transactions and notifications. In:Proc. of the 9th USENIX Conf. on Operating Systems Design and Implementation. Vancouver:USENIX Association, 2010. 1-15. |
[7] | Logothetis D, Olston C, Reed B, Webb KC, Yocum K. Stateful bulk processing for incremental analytics. In:Proc. of the 1st ACM Symp. on Cloud Computing. Indianapolis:ACM Press, 2010. 51-62.[doi:10.1145/1807128.1807138] |
[8] | Yan C, Yang X, Yu Z, Li M, Li X. IncMR:Incremental data processing based on MapReduce. In:Proc. of the 2012 IEEE 5th Int'l Conf. on Cloud Computing. IEEE Computer Society. 2012. 534-541.[doi:10.1109/CLOUD.2012.67] |
[9] | Bhatotia P, Wieder A, Rodrigues R, Acar UA, Pasquin R. Incoop:MapReduce for incremental computations. In:Proc. of the 2nd ACM Symp. on Cloud Computing. Cascais:ACM Press, 2011. 1-14.[doi:10.1145/2038916.2038923] |
[10] | Popa L, Budiu M, Yu Y, Isard M. DryadInc:Reusing work in large-scale computations. In:Proc. of the 2009 Conf. on Hot Topics in Cloud Computing. San Diego:USENIX Association, 2009. |
[11] | Gunda PK, Ravindranath L, Thekkath CA, Yu Y, Zhuang L. Nectar:Automatic management of data and computation in datacenters. In:Proc. of the 9th USENIX Conf. on Operating Systems Design and Implementation. Vancouver:USENIX Association, 2010. 1-8. |
[12] | Olston C, Chiou G, Chitnis L, Liu F, Han Y, Larsson M. Nova:Continuous Pig/Hadoop workflows. In:Proc. of the 2011 ACM SIGMOD Int'l Conf. on Management of data. Athens:ACM Press, 2011. 1081-1090.[doi:10.1145/1989323.1989439] |
[13] | Apache. Hadoop:Open-Source implementation of MapReduce. 2016. http://hadoop.apache.org/ |
[14] | Isard M, Budiu M, Yu Y, Birrell A, Fetterly D. Dryad:Distributed data-parallel programs from sequential building blocks. In:Proc. of the 2nd ACM SIGOPS/EuroSys European Conf. on Computer Systems 2007. Lisbon:ACM Press, 2007. 59-72.[doi:10.1145/1272996.1273005] |
[15] | Yu Y, Isard M, Fetterly D, Budiu M, Erlingsson Ú, Gunda PK, Currey J. DryadLINQ:A system for general-purpose distributed data-parallel computing using a high-level language. In:Proc. of the 8th USENIX Conf. on Operating Systems Design and Implementation. San Diego:USENIX Association, 2008. 1-14. |
[16] | Bu Y, Howe B, Balazinska M, Ernst MD. HaLoop:Efficient iterative data processing on large clusters. Proc. of the VLDB Endowment, 2010, 3(1-2):285-296.[doi:10.14778/1920841.1920881] |
[17] | Chandramouli B, Goldstein J, Barnett M, Deline R, Fisher D, Platt JC. Trill:A high-performance incremental query processor for diverse analytics. Proc. of the VLDB Endowment, 2014, 8(4):401-412.[doi:10.14778/2735496.2735503] |
[18] | Lei C, Zhuang Z, Rundensteiner EA, Eltabakh MY. Redoop infrastructure for recurring big data queries. Proc. of the VLDB Endowment, 2014, 7(13):1589-1592.[doi:10.14778/2733004.2733037] |
[19] | Apache. Hive:A data warehouse software facilitates querying and managing large datasets residing in distributed storage. 2016. http://hive.apache.org/ |
[20] | TPC-H. 2016. http://www.tpc.org/tpch/ |
[1] | Facebook每天数据处理量超500TB. 2012. http://tech.sina.com.cn/i/2012-08-23/10597538323.shtml |