RELATEED CONSULTING
相关咨询
选择下列产品马上在线沟通
服务时间:8:30-17:00
你可能遇到了下面的问题
关闭右侧工具栏

新闻中心

这里有您想知道的互联网营销解决方案
Spark中关于Parquet的应用与性能初步测试

Spark 中关于Parquet的应用

我们提供的服务有:成都网站建设、网站制作、微信公众号开发、网站优化、网站认证、弓长岭ssl等。为近1000家企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的弓长岭网站制作公司

Parquet简介

 

Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目

http://parquet.apache.org/ 

Spark关于Parquet的支持

这里我们使用的版本为spark2.0.1,是2016年10月3日发布的最新版本。

Spark可以很好的使用和生成Parquet文件。下面的截图来自官方文档。


Spark 中关于Parquet的应用与性能初步测试

上图的例子中spark读取了一个位于examples/src/main/resources/users.parquet文件夹下的Parquet文件,并对数据进行了筛选后保存在了namesAndFavColors.parquet文件夹中,注意一下,官方文档路径取名加了.parquet,可能会被误解成是一个文件,其实是文件夹,这里自己试一下就可以证实。

Spark也支持将jdbc的数据转换成Parquet文件,下面的例子我们将SQLserver中的测试表1转换成Parquet文件。代码如下

Spark 中关于Parquet的应用与性能初步测试

生成好了的文件如下图所示,这里的实验环境为Windows,spark local模式,可以看到,文件名格式为*.snappy.parquet,这里的snappy表示的是压缩的方式,当然,这个压缩方式也是有很多种选择的,不过spark在这里选择了用snappy的压缩方式压缩成parquet文件作为默认策略。

Spark 中关于Parquet的应用与性能初步测试 

 

我们看下测试表1在SQLserver中的信息,如下图所示:

Spark 中关于Parquet的应用与性能初步测试 

 

可以看到这是一张7000w级别的表,表大小为6.5G,压缩过后的大小为768M,压缩后的大小为原文件大小的11%,节约了89%的空间。整个压缩时间耗时约11min,对于大数据平台来说,存储空间也是很重要的资源,而且对于网络传输有很大提升,在分布式计算中,网络传输有时会成为性能瓶颈。

我们再用另外一张测试表2做实验

Spark 中关于Parquet的应用与性能初步测试

这是一张2.5亿级别的表,表大小为9G,压缩后的大小为3.99G,节约了56%的空间,耗时约17min这是因为列存储格式文件大小不仅和行数有关,也和具体数据有关,不同的数据会有不同的压缩率。

 

Spark Sql支持直接在sql语句中读取Parquet文件,如下图所示

Spark 中关于Parquet的应用与性能初步测试

注意,这个语法是spark2.0开始才支持的新特性,利用这个特性,我们可以跳过建表这个过程直接读取文件的数据。

性能相关

下面我们介绍一下性能。

我们使用三个场景来测试Parquet的性能,这里我们并没有直接去取parquet文件,而是用createOrReplaceTempView方法将其创建为一个view。测试结果如下。

 

SELECT YEAR(LOGOUT_DT) YR , MONTH(LOGOUT_DT) MTH,Modename,sum(WinCount+LoseCount+DrawCount) GameCount,sum(GameTime) GameTime,sum(GameTime) / sum(WinCount+LoseCount+DrawCount) Avg_GameTime FROM 测试表1 WHERE LOGOUT_DT BETWEEN '2015-01-01' AND '2016-01-01' GROUP BY YEAR(LOGOUT_DT) ,MONTH(LOGOUT_DT) ,Modename limit 1000;

 

 

我们再看一下一个对比试验:

Phoenix(poc环境,10台阿里云,集群环境)

110s

spark local(8G,4核,i3-4170,单机模式)

52s

spark 3node(8G,4核,i3-4170,集群环境)

12s

spark 5node (8G,4核,i3-4170,集群环境)

12s

hive 普通存储5node (8G,4核,i3-4170,集群环境)

133s

hive 列存储5node(parquet)(8G,4核,i3-4170,集群环境)

43s

 

Parquet不仅可以提高spark的查询速度,也可以提高hive的查询速度

集群的计算速度大于单机的计算速度(机器配置相同)

增加计算节点不一定会提高计算速度


分享文章:Spark中关于Parquet的应用与性能初步测试
本文路径:http://scyingshan.cn/article/gcjpjh.html