在Azure Databricks中实现缓慢变化维度(SCD)的三种类型
在Azure Databricks中使用PySpark实现缓慢变化维度(SCD)的三种核心类型,需结合Spark SQL和DataFrame API的特性,并利用Delta Lake的事务支持。以下是具体设计与实现步骤,以及测试用例:
通过以下步骤,可在Azure Databricks中高效实现SCD逻辑,确保数据历史可追溯且符合业务需求。
类型1:覆盖旧值(Overwrite Old Value)
设计要点
- 直接更新目标表中变化的字段,不保留历史记录。
- 使用
MERGE INTO
操作(Delta Lake特性)实现高效更新。
实现步骤
- 读取数据:加载源数据(增量数据)和维度表(目标表)。
- 匹配键:根据业务键(如
customer_id
)匹配源数据和目标表。 - 更新记录:若匹配成功且属性变化,更新目标表字段。
- 写入结果:使用
MERGE
操作完成更新。
代码示例
from pyspark.sql import SparkSession
spark = SparkSession.builder.getOrCreate()# 加载源数据和目标表
source_df = spark.read.format("delta").load("source_path")
target_df = spark.read.format("delta").load("target_path")# 创建临时视图
source_df.createOrReplaceTempView("source")
target_df.createOrReplaceTempView("target")# 执行MERGE操作
merge_sql = """
MERGE INTO target AS t
USING source AS s
ON t.customer_id = s.customer_id
WHEN MATCHED AND t.address <> s.address THENUPDATE SET t.address = s.address
WHEN NOT MATCHED THENINSERT (customer_id, name, address) VALUES (s.customer_id, s.name, s.address)
"""spark.sql(merge_sql)
测试用例
- 场景1:客户地址变更,验证目标表中旧地址被覆盖。
- 场景2:新增客户插入,验证记录正确添加。
- 场景3:无变化数据,确认无操作执行。
类型2:创建新记录(SCD Type 2)
设计要点
- 为每个变化生成新记录,维护
start_date
、end_date
和is_current
标志。 - 使用窗口函数检测变化,
MERGE
操作插入新记录并更新旧记录状态。
实现步骤
- 添加版本标识:在目标表中增加
start_date
、end_date
和is_current
字段。 - 检测变化:对比源数据与目标表,标记变化的记录。
- 关闭旧记录:将变化记录的
end_date
设为当前日期,is_current
设为False
。 - 插入新记录:为新记录设置
start_date
为当前时间,end_date
为NULL
,is_current
为True
。
代码示例
from pyspark.sql import functions as F
from pyspark.sql.window import Window# 加载数据
source = spark.read.format("delta").load("source_path")
target = spark.read.format("delta").load("target_path")# 检测变化:假设通过last_updated_time判断
changes = source.join(target, "product_id", "left_outer") \.filter((source.price != target.price) | target.product_id.isNull())# 关闭旧记录
closed_records = target.join(changes, "product_id", "inner") \.withColumn("end_date", F.current_date()) \.withColumn("is_current", F.lit(False)) \.select(target["*"], "end_date", "is_current")# 生成新记录(新增或变化)
new_records = changes.withColumn("start_date", F.current_date()) \.withColumn("end_date", F.lit(None).cast("date")) \.withColumn("is_current", F.lit(True)) \.select("product_id", "price", "start_date", "end_date", "is_current")# 合并并写入Delta表
final_df = closed_records.unionByName(new_records)
final_df.write.format("delta") \.mode("overwrite") \.saveAsTable("product_dimension")
测试用例
- 场景1:产品价格首次插入,验证
is_current=True
且end_date=NULL
。 - 场景2:价格变更后,旧记录
is_current=False
,新记录时间连续。 - 场景3:多次变更,检查历史版本数量及时间连续性。
类型3:添加有效日期(SCD Type 3)
设计要点
- 为每个记录维护
valid_from
和valid_to
日期,仅保留有限历史(如最新一次变更)。 - 更新时修改旧记录的
valid_to
,插入新记录。
实现步骤
- 初始化字段:在目标表中添加
valid_from
和valid_to
。 - 检测变化:对比新旧数据,找出属性变化的记录。
- 关闭旧记录:将旧记录
valid_to
设为当前日期。 - 插入新记录:设置新记录的
valid_from
为当前日期,valid_to
为NULL
。
代码示例
# 加载数据
employee_source = spark.read.format("delta").load("source_path")
employee_target = spark.read.format("delta").load("target_path")# 检测职位变化
changes = employee_source.join(employee_target, "employee_id", "left") \.filter(employee_source.position != employee_target.position)# 关闭旧记录(设置valid_to)
closed = changes.select(employee_target["*"]) \.withColumn("valid_to", F.current_date())# 插入新记录
new_records = changes.select(employee_source["*"]) \.withColumn("valid_from", F.current_date()) \.withColumn("valid_to", F.lit(None).cast("date"))# 合并数据并写入
closed.unionByName(new_records) \.write.format("delta") \.mode("overwrite") \.saveAsTable("employee_dimension")
测试用例
- 场景1:员工职位首次记录,
valid_to
为空。 - 场景2:职位变更后,旧记录
valid_to
更新,新记录valid_from
正确。 - 场景3:查询特定时间点的职位状态,验证时间段准确性。
混合方法实现示例
结合类型1和类型2,对关键属性使用类型2,非关键属性使用类型1:
# 关键属性(如地址)使用类型2
address_changes = detect_address_changes(source, target)
close_old_address_records(address_changes)
insert_new_address_records(address_changes)# 非关键属性(如电话)使用类型1
phone_updates = detect_phone_changes(source, target)
update_phone_records(phone_updates)
关键优化点
- Delta Lake特性:利用
MERGE INTO
、ACID事务、Z-Order优化查询性能。 - 数据版本管理:使用
DESCRIBE HISTORY
查看SCD操作历史。 - 增量处理:仅处理变化的数据分区,减少计算量。