林子雨-Spark入门教程(Python版)-学习笔记(二)

第3章 Spark编程基础

从文件加载数据

从文件系统中加载数据创建RDD——textFile()方法,该方法把文件的URI作为参数
注意:
(1)本地文件系统的路径,必须要保证在所有的worker节点上都有该文件。
(2)textFile()方法的输入参数,可以是文件名,也可以是目录,也可以是压缩文件等。比如,textFile(“/my/directory”), textFile(“/my/directory/.txt”), and textFile(“/my/directory/.gz”).
(3)textFile()方法也可以接受第2个输入参数(可选),用来指定分区的数目。默认情况下,Spark会为HDFS的每个block创建一个分区(HDFS中每个block默认是128MB)。可以提供一个比block数量更大的值作为分区数目,但是,不能提供一个小于block数量的值作为分区数目

操作

转换操作

  • filter(func):筛选出满足函数func的元素,并返回一个新的数据集
    eg:
    林子雨-Spark入门教程(Python版)-学习笔记(二)

  • map(func):将每个元素传递到函数func中,并将结果返回为一个新的数据集
    eg:每一次迭代返回一个迭代器
    林子雨-Spark入门教程(Python版)-学习笔记(二)

  • flatMap(func):与map()相似,但每个输入元素都可以映射到0或多个输出结果
    eg : 最后只返回一个迭代器,相对于对map的结构再进行扁平化
    林子雨-Spark入门教程(Python版)-学习笔记(二)

  • groupByKey():应用于(K,V)键值对的数据集时,返回一个新的(K, Iterable)形式的数据集
    eg: 将相同的key放在一起,v构成一个list
    林子雨-Spark入门教程(Python版)-学习笔记(二)

  • reduceByKey(func):应用于(K,V)键值对的数据集时,返回一个新的(K, V)形式的数据集,其中的每个值是将每个key传递到函数func中进行聚合
    eg: 相同key进行计算,函数参数必须
    林子雨-Spark入门教程(Python版)-学习笔记(二)

行动操作

  • count() 返回数据集中的元素个数
  • collect() 以数组的形式返回数据集中的所有元素
  • first() 返回数据集中的第一个元素
  • take(n) 以数组的形式返回数据集中的前n个元素
  • reduce(func) 通过函数func(输入两个参数并返回一个值)聚合数据集中的元素
  • foreach(func) 将数据集中的每个元素传递到函数func中运行

持久化

  • persist
    persist()方法对一个RDD标记为持久化,之所以说“标记为持久化”,是因为出现persist()语句的地方,并不会马上计算生成RDD并把它持久化,而是要等到遇到第一个行动操作触发真正计算以后,才会把计算结果进行持久化,持久化后的RDD将会被保留在计算节点的内存中被后面的行动操作重复使用。
    一般而言,使用cache()方法时,会调用persist(MEMORY_ONLY)
    -unpersist
    unpersist()方法手动地把持久化的RDD从缓存中移除

分区

RDD分区的一个分区原则是使得分区的个数尽量等于集群中的CPU核心(core)数目
spark.default.parallelism这个参数的值,来配置默认的分区数目,一般而言:
*本地模式:默认为本地机器的CPU数目,若设置了local[N],则默认为N;
*Apache Mesos:默认的分区数为8;
*Standalone或YARN:在“集群中所有CPU核心数目总和”和“2”二者中取较大值作为默认值;

键值对操作

reduceByKey(func)
groupByKey()
keys()
values()
sortByKey()
mapValues(func)
join

共享变量

需要在多个任务之间共享变量,或者在任务(Task)和任务控制节点(Driver Program)之间共享变量

广播变量

广播变量(broadcast variables)允许程序开发人员在每个机器上缓存一个只读的变量,而不是为机器上的每个任务都生成一个副本。
通过调用SparkContext.broadcast(v)来从一个普通变量v中创建一个广播变量。这个广播变量就是对普通变量v的一个包装器,通过调用value方法就可以获得这个广播变量的值
林子雨-Spark入门教程(Python版)-学习笔记(二)

累加器

累加器是仅仅被相关操作累加的变量,通常可以被用来实现计数器(counter)和求和(sum)
SparkContext.accumulator()来创建。运行在集群中的任务,就可以使用add方法来把数值累加到累加器上,但是,这些任务只能做累加操作,不能读取累加器的值,只有任务控制节点(Driver Program)可以使用value方法来读取累加器的值
林子雨-Spark入门教程(Python版)-学习笔记(二)