本篇内容介绍了“Spark中RDD依赖分为哪几种”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
创新互联坚持“要么做到,要么别承诺”的工作理念,服务领域包括:成都网站制作、成都做网站、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的阳春网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!
一、以RDD为基石的Spark编程模型
在Spark中一切都是基于RDD的:
什么是RDD呢?官方给出的解释是:
也就是说每个RDD都至少有以下三个函数实现:
Spark自带了非常多的RDD:
RDD主要分为两种:
其中的transformations是lazy execution的,需要具体的action去触发,每个action操作都是一个单独的job;
接下来我们看一个具体的RDD操作的例子:
RDD中有两个比较特殊的RDD:
这两个RDD的特殊之处在于皆是控制性操作的RDD:
二,RDD的依赖和运行时
在Spark中RDD是具备依赖关系的,而依赖分为两种:
“Narrow”依赖的一个好处就是可以进行内部的pipeline操作:
运行的时候是以RDD为统一抽象并行化运行:
更进一步的详细RDD并行化计算过程如下所示:
正如所有的分布式结构一样,Spark分布式集群也是主从结构的:
Spark运行时组件如下所示:
Spark运行时候的事件流如下所示:
“Spark中RDD依赖分为哪几种”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注创新互联网站,小编将为大家输出更多高质量的实用文章!
网页题目:Spark中RDD依赖分为哪几种
网站链接:http://scyingshan.cn/article/gpdoid.html