解析数据FRAM添加新的列和更新列pyspark
问题描述:
我有下面的代码创建如同下面的数据帧:解析数据FRAM添加新的列和更新列pyspark
ratings = spark.createDataFrame(
sc.textFile("myfile.json").map(lambda l: json.loads(l)),
)
ratings.registerTempTable("mytable")
final_df = sqlContext.sql("select * from mytable");
The data frame look something like this
我存储的created_at
和user_id
成清单:
user_id_list = final_df.select('user_id').rdd.flatMap(lambda x: x).collect()
created_at_list = final_df.select('created_at').rdd.flatMap(lambda x: x).collect()
,并通过列表中的一个解析调用另一个功能:
for i in range(len(user_id_list)):
status=get_status(user_id_list[I],created_at_list[I])
我想在我的称为状态数据帧创建一个新的列,并更新相应的user_id_list
和created_at_list value
我知道我需要使用此功能的价值 - 但不知道如何着手
final_df.withColumn('status', 'give the condition here')
答
不要创建列表。简单地将UDF功能提供给数据帧
import pyspark.sql.functions as F
status_udf = F.udf(lambda x: get_status(x[0], x[1]))
df = df.select(df.columns + [status_udf(F.col('user_id_list'), \
F.col('created_at_list value')).alias('status')])