解析数据FRAM添加新的列和更新列pyspark

问题描述:

我有下面的代码创建如同下面的数据帧:解析数据FRAM添加新的列和更新列pyspark

ratings = spark.createDataFrame(
    sc.textFile("myfile.json").map(lambda l: json.loads(l)), 
) 



ratings.registerTempTable("mytable") 

final_df = sqlContext.sql("select * from mytable"); 

The data frame look something like this

我存储的created_atuser_id成清单:

user_id_list = final_df.select('user_id').rdd.flatMap(lambda x: x).collect() 
created_at_list = final_df.select('created_at').rdd.flatMap(lambda x: x).collect() 

,并通过列表中的一个解析调用另一个功能:

for i in range(len(user_id_list)): 
    status=get_status(user_id_list[I],created_at_list[I]) 

我想在我的称为状态数据帧创建一个新的列,并更新相应的user_id_listcreated_at_list value

我知道我需要使用此功能的价值 - 但不知道如何着手

final_df.withColumn('status', 'give the condition here') 

不要创建列表。简单地将UDF功能提供给数据帧

import pyspark.sql.functions as F 
status_udf = F.udf(lambda x: get_status(x[0], x[1])) 
df = df.select(df.columns + [status_udf(F.col('user_id_list'), \ 
       F.col('created_at_list value')).alias('status')])