数据的加载与保存
加载数据的方法
选项参数:可以通过选项参数传入URL地址、用户名、密码和数据表名称等。
路径参数:可以传入加载数据的路径。
MySQL语句:可以直接导入MySQL语句来加载数据。
保存数据的方法通用方法:使用df.write方法保存数据。
格式和选项:可以指定保存的数据格式和选项参数。
保存模式:可以选择不同的保存模式(如追加、覆盖、忽略、报错)。
数据源格式默认数据源格式:Spark SQL默认使用一种能够存储嵌套数据的格式,不需要指定格式。
具体数据加载和查询JSON数据加载JSON文件:使用spark.read.json方法加载JSON文件。val path = "/opt/module/spark-local/people.json" val peopleDF = spark.read.json(path)
查询数据:可以通过SQL语句查询JSON数据。val resDF = spark.sql("SELECT name FROM people WHERE age BETWEEN 13 AND 19")
CSV数据加载CSV文件:可以配置CSV文件的列表信息并读取CSV文件。
注意事项:CSV文件的第一行通常设置为数据列信息。
MySQL数据连接MySQL:通过JDBC从关系型数据库中读取数据。
版本匹配:确保Spark和MySQL的驱动版本匹配。
加载数据:使用spark.read.format("jdbc")方法加载MySQL数据。
写入数据:使用df.write.format("jdbc")方法将数据写入MySQL。
具体操作步骤
导入依赖:确保导入所需的依赖包。
配置对象:创建配置对象并设置相关参数。
加载数据:使用不同的方法加载数据(如选项参数、路径参数、MySQL语句)。
保存数据:选择保存模式并保存数据。