当前位置: 首页 > news >正文

第10期:Classifier-Free Guidance(CFG)——扩散模型的文本引导增强术

“如何让扩散模型更强地听话?”

在第9期中,我们成功实现了 CLIP + Diffusion 的文本引导图像生成模型。虽然能生成与文本描述大致匹配的图像,但你会发现:

  • 有时图像与文本契合度不高;

  • 控制力不够,输入 "a red car" 也可能出现黄色或蓝色;

  • 文本引导效果“太温柔”了。

这时候,Classifier-Free Guidance(简称 CFG)就派上用场了。

一、什么是 Classifier-Free Guidance?

传统的条件扩散方法(如 Guided Diffusion)使用一个额外的分类器去引导模型生成符合某个类别的图像。这种方式虽然有效,但缺点明显:

  • 需要额外训练分类器;

  • 无法用于文本这样的复杂条件;

  • 效率较低。

CFG 的核心思想是:

不训练额外的分类器,而是利用 同一个模型同时学习条件生成和无条件生成,然后在推理时动态融合两者。

方法概述:

  1. 训练阶段

    • 有条件样本时,使用文本条件训练。

    • 一定概率下去除条件,作为无条件训练样本。

  2. 推理阶段

    • 同时用模型计算条件预测和无条件预测;

    • 用一个超参数 guidance_scale 进行融合:final_output = uncond + guidance_scale * (cond - uncond)

二、实现 CFG 的扩散采样流程(完整代码)

我们沿用第9期的 ConditionalUNet 模型,添加无条件路径,并实现带 guidance_scale 的采样流程。

1. 修改 UNet 支持 None 条件

class ConditionalUNet(nn.Module):def __init__(self, cond_dim=512):super().__init__()self.cond_dim = cond_dimself.init = nn.Conv2d(3, 64, 3, padding=1)self.down1 = UNetBlock(64, 128, cond_dim)self.down2 = UNetBlock(128, 256, cond_dim)self.middle = UNetBlock(256, 256, cond_dim)self.up1 = UNetBlock(512, 128, cond_dim)self.up2 = UNetBlock(256, 64, cond_dim)self.out = nn.Conv2d(64, 3, 1)def forward(self, x, t, cond=None):if cond is None:cond = torch.zeros(x.size(0), self.cond_dim).to(x.device)x1 = self.init(x)x2 = self.down1(x1, cond)x3 = self.down2(x2, cond)x4 = self.middle(x3, cond)x = self.up1(torch.cat([x4, x3], dim=1), cond)x = self.up2(torch.cat([x, x2], dim=1), cond)return self.out(x)

2. 添加 Classifier-Free Guidance 的采样函数

@torch.no_grad()
def sample_with_cfg(text, model, steps=T, guidance_scale=5.0):model.eval()x = torch.randn(16, 3, 32, 32).to(device)text_emb = get_text_embedding([text] * x.size(0))uncond_emb = torch.zeros_like(text_emb)for i in reversed(range(steps)):t = torch.full((x.size(0),), i, device=device, dtype=torch.long)# 条件和无条件输出pred_cond = model(x, t, text_emb)pred_uncond = model(x, t, uncond_emb)pred = pred_uncond + guidance_scale * (pred_cond - pred_uncond)alpha = alphas_cumprod[t][:, None, None, None].to(x.device)sqrt_alpha = torch.sqrt(alpha)sqrt_one_minus_alpha = torch.sqrt(1 - alpha)x_0 = (x - sqrt_one_minus_alpha * pred) / sqrt_alphax_0 = x_0.clamp(-1, 1)if i > 0:noise = torch.randn_like(x)beta = betas[t][:, None, None, None].to(x.device)x = torch.sqrt(alpha) * x_0 + torch.sqrt(beta) * noiseelse:x = x_0return x

3. 可视化结果对比

import torchvision
import matplotlib.pyplot as pltsamples = sample_with_cfg("a red sports car", model, guidance_scale=5.0)
samples = (samples + 1) / 2grid = torchvision.utils.make_grid(samples, nrow=4)
plt.figure(figsize=(6, 6))
plt.imshow(grid.permute(1, 2, 0).cpu().numpy())
plt.axis('off')
plt.title("Generated: 'a red sports car'")
plt.show()

三、CFG 的优缺点分析

项目优点缺点
无需额外分类器✅ 简化训练流程❌ 推理中需双前向
可用于复杂条件✅ 支持文本、图像guidance_scale 需要调参
效果提升明显✅ 提升文本一致性-

 四、拓展方向预告

  • 多条件引导(文本 + 类别 + 图像);

  • 用交叉注意力提升文本感知;

  • 使用 pretrained 文本嵌入(如 T5/BERT)增强语义理解;

  • 更大的 UNet backbone(例如 Stable Diffusion 的 UNet2DConditionModel);

  • 多阶段生成(先粗图,再细化);

总结

  • 本期我们详细介绍了 Classifier-Free Guidance(CFG) 方法;

  • 展示了如何融合条件和无条件的输出提升控制力;

  • 用一段简洁代码实现了比第9期更强的文本引导效果;

  • CFG 是当前主流扩散文本生成方法(如 Imagen、Stable Diffusion)中核心组件。

相关文章:

  • 玛哈特整平机:工业制造中的关键设备
  • Python遥感开发之Hurst指数的实现
  • Nginx 报错403 排查与解决
  • 多模态大语言模型arxiv论文略读(二十八)
  • TIM_ITConfig() 和 TIM_Cmd()
  • 什么是事件循环
  • matlab 环形单层柱状图
  • 聊一聊接口自动化测试脚本如何进行维护的?
  • Moldflow模流分析教程
  • 轨道六要素的物理意义与几何表示
  • Win10驱动程序强制签名怎么禁用/开启?
  • IEEE:新进展!AI 模型可以生成 3D 脑部MRI 图像,同时解决数据稀缺和隐私问题
  • 第32讲:卫星遥感与深度学习融合 —— 让地球“读懂”算法的语言
  • 打靶日记 zico2: 1
  • Pandas数据合并与重塑
  • 2025.04.19-阿里淘天春招算法岗笔试-第一题
  • 《Android 应用开发基础教程》——第二章:Activity 与生命周期详解
  • MATLAB 控制系统设计与仿真 - 38
  • ACM ICPC算法基础包括哪几类
  • Git命令归纳
  • 俄罗斯与乌克兰互换246名在押人员
  • 摩根大通首席执行官:贸易战损害美国信誉
  • 卡洛·金茨堡:女巫与萨满——我的学术之路
  • 虚假营销屡禁不止,市场监管总局严厉打击直播电商违法行为
  • 商务部:美国对小额包裹关税政策将严重影响美国消费者的利益
  • 上海将构建专业化首饰回收网络,推动二手黄金珠宝流通交易