当前位置: 首页> 科技> 名企 > 大数据Spark范式

大数据Spark范式

时间:2025/7/12 14:34:00来源:https://blog.csdn.net/YENTERTAINR/article/details/141020303 浏览次数:0次

文章目录


大数据Spark范式


from pyspark.sql import SparkSession
import jsondef filter_debate(x):data = json.loads(x)return data["subject"]if __name__ == '__main__':spark = SparkSession.builder.appName("NonDebateFilter").getOrCreate()sc = spark.sparkContext# 假设${DATA_ID:12455}是一个环境变量或需要替换的具体路径前缀input_path = "${DATA_ID:00001}:Auser/data_en/*"rdd = sc.textFile(input_path)filtered_rdd = rdd.map(debate)# 取消注释以保存所有过滤后的记录,而不是只取前100条output_path = "${DATA_ID:00001}:Auser/data_en/01"filtered_rdd.saveAsTextFile(output_path)# 如果确实只需要前100条记录进行打印或其它处理,可以在保存后单独处理# for i in filtered_rdd.take(100):#     print(i)sc.stop()
关键字:大数据Spark范式

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: