当前位置: 首页> 教育> 就业 > 计算机毕业设计hadoop+spark+hive物流大数据分析平台 物流预测系统 物流信息爬虫 物流大数据 机器学习 深度学习

计算机毕业设计hadoop+spark+hive物流大数据分析平台 物流预测系统 物流信息爬虫 物流大数据 机器学习 深度学习

时间:2025/7/13 15:01:27来源:https://blog.csdn.net/spark2022/article/details/139252469 浏览次数:0次

流程:
1.Python爬虫采集物流数据等存入mysql和.csv文件;
2.使用pandas+numpy或者MapReduce对上面的数据集进行数据清洗生成最终上传到hdfs;
3.使用hive数据仓库完成建库建表导入.csv数据集;
4.使用hive之hive_sql进行离线计算,使用spark之scala进行实时计算;
5.将计算指标使用sqoop工具导入mysql;
6.使用Flask+echarts进行可视化大屏实现、数据查询表格实现、含预测算法;

核心算法代码分享如下:

package com.car.processimport org.apache.spark.sql.{DataFrame, SaveMode, SparkSession}object Table01 {def main(args: Array[String]): Unit = {// 创建spark入口   读取hive的元数据  查询hive中ods层的表val hiveSession: SparkSession = SparkSession.builder().appName("table01").master("local").config("spark.hadoop.hive.metastore.uris", "thrift://bigdata:9083").enableHiveSupport().getOrCreate();/*** insert overwrite table tables01* select province,count(1) num* from  ods_comments* group by province*/// 网友分布中国地图val dataFrame: DataFrame = hiveSession.sql("""|select from_province,count(1) num|from  hive_chinawutong.ods_chinawutong|group by from_province|""".stripMargin)dataFrame.show()// 写入到mysql中dataFrame.write.format("jdbc").option("url", "jdbc:mysql://bigdata:3306/hive_chinawutong?useSSL=false").option("user", "root").option("password", "123456").option("driver", "com.mysql.jdbc.Driver").option("dbtable", "table01").mode(SaveMode.Overwrite).save()}}

关键字:计算机毕业设计hadoop+spark+hive物流大数据分析平台 物流预测系统 物流信息爬虫 物流大数据 机器学习 深度学习

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: