spark面试题面试题(spark面试问题汇总(持续更新....))

spark面试题面试题(spark面试问题汇总(持续更新....))目录 一 Spark 有几种部署方式 请分别简要论述 二 Spark 提交作业参数 三 如何理解 Spark 中 RDD 的血缘关系 四 简述 Spark 的宽窄依赖 以及 Spark 如何划分 stage 每个 stage 又根据什么决定 task 个数 五 请列举 Spark 的 transformati 算子 并简述功能 七 请描述 Repartition 和 Coalesce 联系与区别 八

大家好,我是讯享网,很高兴认识大家。



目录

一. Spark有几种部署方式?请分别简要论述

二. Spark提交作业参数

三. 如何理解Spark中RDD的血缘关系?

四. 简述Spark的宽窄依赖,以及Spark如何划分stage,每个stage又根据什么决定task个数?

五. 请列举Spark的transformation算子,并简述功能

七. 请描述Repartition和Coalesce联系与区别

八. 分别简述Spark中的缓存机制与checkpoint机制,并指出两者的区别与联系。

九. 简述Spark中共享变量(广播变量和累加器)的基本原理与用途。

十. 当Spark涉及到外部数据库的操作时,如何减少Spark运行中的数据库连接数?

十一. SparkSQL中join操作与left join操作的区别?

十二. 请手写出wordcount的Spark代码实现(Scala)

十三. 如何使用Spark实现topN的获取(描述思路或使用伪代码)


spark主要有如下四种部署方式,分别如下:

1. Local

Spark运行在一台机器上,通常用于代码测试或者学习。

2. Standalone

构建一个基于Master与Slaves的资源调度集群,Spark任务提交给Master运行。

3. Yarn

Spark客户端直连Yarn,不需要额外构建Spark集群。包含yarn-client和yarn-cluster两种模式,主要区别在于Driver程序的运行节点。


讯享网

4. Mesos

国内公司用的比较少。

在提交任务时的几个重要参数如下:

如下所示为个提交任务的样例

RDD在血缘依赖方面分为两种,分别是窄依赖(Narrow Dependencies)与宽依赖(Wide Dependencies),它在数据容错以及划分任务时候起到重要作用。

Stage划分: 根据RDD之间的依赖关系的不同将Job划分成不同的Stage,当遇到宽依赖时划分新的Stage。

Task个数:每个Stage是一个TaskSet,Stage根据分区数被划分成多个Task。

  1. map(func)

返回一个新的RDD,上游RDD中的每一个输入元素经过func函数转换后返回新的RDD.

2. mapPartitions(func)

与map类似,但其在RDD的每一个分区上独立运行。对于有m个元素,n个分区的RDD,mapPartitions被调用n次(调用次数与分区个数一致)。

3. reduceByKey(func,[numTask])

在一个(K,V) 的RDD上调用,返回一个(K,V)的RDD,reduce函数可以将具有相同key值的元素聚合到一起,reduce任务的并行度可以通过第二个可选的参数来配置。

4. aggregateByKey (zeroValue:U,[partitioner: Partitioner]) (seqOp: (U, V) => U,combOp: (U, U) => U

在kv对的RDD中,按key将value进行分组合并,合并时将每个value和初始值作为seq函数的参数进行计算,返回的结果作为一个新的kv对,然后再将结果按照key进行合并,最后将每个分组的value传递给combine函数进行计算(先将前两个value进行计算,将返回结果和下一个value传给combine函数,以此类推),将key与计算结果作为一个新的kv对输出。

六. Spark常用算子reduceByKey与groupByKey的区别,哪一种更具优势?

  1. reduceByKey

按照key进行聚合,在shuffle之前有预聚合(combine)操作,返回结果为RDD[k,v]。

2. groupByKey

按照key进行分组后直接shuffle(无预聚合)。

预聚合可以提高执行性能,在不影响业务逻辑的情况下,建议优先使用reduceByKey。

两者都可以用于改变RDD的partition数量,repartition底层调用的就是coalesce方法:coalesce(numPartitions, shuffle = true)

repartition一定会发生shuffle,coalesce根据传入的参数来判断是否发生shuffle。

一般情况下增大RDD的分区数量使用repartition算子,减少分区数量时使用coalesce算子。

Spark中的缓存机制包括cache与persist,与checkpoint机制一样都是用于RDD持久化。

其中缓存机制不会截断血缘关系。

checkpoint 会截断血缘关系,在checkpoint之前必须没有任何任务提交才会生效,checkpoint过程会额外提交一次任务。

累加器(accumulator)是Spark中提供的一种分布式的变量机制,其原理类似于mapreduce,即分布式的改变,然后聚合这些改变。累加器的一个常见用途是在调试时对作业执行过程中的事件进行计数。而广播变量用来高效分发较大的对象。

共享变量出现的原因:

通常在向 Spark 传递函数时,比如使用 map() 函数或者用 filter() 传条件时,可以使用驱动器程序中定义的变量,但是集群中运行的每个任务都会得到这些变量的一份新的副本,更新这些副本的值也不会影响驱动器中的对应变量。

Spark的两个共享变量,累加器与广播变量分别为结果聚合与广播这两种常见的通信模式突破了这一限制。

使用foreachPartition代替foreach,在foreachPartition内获取数据库的连接。

SparkSQL中的join算子用于返回的是前面一个集合和后面一个集合可以成功匹配的数据(无法匹配的数据被过滤)。

left join返回结果以第一个RDD为主,第二个RDD中关联不上的记录置为空。

多插一句,部分场景下可以使用left semi join替代left join。

由于 left semi join 是 in (keySet) 的关系,遇到右表重复记录,左表会跳过,性能更高,而 left join 则会一直遍历。需要注意的是left semi join 中最后 select 的结果中只会出现左表中的列。

方法1:

(1)按照key对数据进行聚合(groupByKey)

(2)将value转换为数组,利用scala的sortBy或者sortWith进行排序(mapValues),需要注意如果数据量太大,会发生OOM。

方法2:

(1)取出所有的key

(2)对key进行迭代,每次取出一个key利用spark的排序算子进行排序

方法3:

(1)自定义分区器,按照key进行分区,使不同的key进到不同的分区

(2)对每个分区运用spark的排序算子进行排序

 

小讯
上一篇 2025-04-17 11:02
下一篇 2025-05-25 09:58

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/194086.html