当前位置: 首页 > news >正文

深度学习中的数值稳定性处理详解:以SimCLR损失为例

文章目录

    • 1. 问题背景
      • SimCLR的原始公式
    • 2. 数值溢出问题
      • 为什么会出现数值溢出?
      • 浮点数的表示范围
    • 3. 数值稳定性处理方法
      • 核心思想
      • 数学推导
    • 4. 代码实现分解
      • 代码与公式的对应关系
    • 5. 具体数值示例
      • 示例:相似度矩阵
      • 方法1:直接计算exp(x)
      • 方法2:减去最大值后计算
      • 验证结果等价性
    • 6. 为什么减去最大值有效?
      • 关键原理
    • 7. 实际应用场景
    • 8. 实现建议
    • 总结

在深度学习实现中,特别是涉及指数和对数运算的损失函数计算过程中,数值稳定性是一个核心问题。本文以SimCLR对比学习损失为例,详细解析数值稳定性处理的原理、实现和重要性。

1. 问题背景

SimCLR是一种自监督学习方法,其核心是InfoNCE损失函数。这个损失函数的计算涉及大量指数运算,容易导致数值溢出或下溢问题。

SimCLR的原始公式

SimCLR的核心损失函数(InfoNCE损失)公式为:

L i = − log ⁡ exp ⁡ ( s i m ( z i , z j ) / τ ) ∑ k = 1 2 N exp ⁡ ( s i m ( z i , z k ) / τ ) ⋅ 1 k ≠ i L_i = -\log \frac{\exp(sim(z_i, z_j)/\tau)}{\sum_{k=1}^{2N} \exp(sim(z_i, z_k)/\tau) \cdot \mathbf{1}_{k \neq i}} Li=logk=12Nexp(sim(zi,zk)/τ)1k=iexp(sim(zi,zj)/τ)

其中:

  • z i z_i zi是锚点特征
  • z j z_j zj是与 z i z_i zi对应的正样本特征
  • τ \tau τ是温度参数
  • s i m ( ) sim() sim()是相似度函数(通常是点积)
  • 1 k ≠ i \mathbf{1}_{k \neq i} 1k=i表示排除自身对比的指示函数

2. 数值溢出问题

为什么会出现数值溢出?

当我们计算 exp ⁡ ( x ) \exp(x) exp(x)时:

  • 如果 x x x很大(如 x = 100 x = 100 x=100), exp ⁡ ( 100 ) ≈ 2.7 × 1 0 43 \exp(100) \approx 2.7 \times 10^{43} exp(100)2.7×1043,可能超出浮点数表示范围
  • 如果 x x x是很小的负数(如 x = − 100 x = -100 x=100), exp ⁡ ( − 100 ) ≈ 3.7 × 1 0 − 44 \exp(-100) \approx 3.7 \times 10^{-44} exp(100)3.7×1044,可能导致下溢为0

在SimCLR中, s i m ( z i , z k ) / τ sim(z_i, z_k)/\tau sim(zi,zk)/τ可能很大,特别是当:

  • 特征向量高度相似( s i m sim sim接近1)
  • 温度参数 τ \tau τ很小(如0.07)

浮点数的表示范围

浮点数的表示范围是有限的:

  • 单精度浮点数(32位):约 ± 3.4 × 1 0 38 \pm 3.4 \times 10^{38} ±3.4×1038
  • 双精度浮点数(64位):约 ± 1.8 × 1 0 308 \pm 1.8 \times 10^{308} ±1.8×10308

3. 数值稳定性处理方法

SimCLR实现中使用了一种简单而有效的数值稳定性处理技术,代码如下:

# 数值稳定性处理
logits_max, _ = torch.max(anchor_dot_contrast, dim=1, keepdim=True)
logits = anchor_dot_contrast - logits_max.detach()

核心思想

这种处理的核心思想是:

  1. 找出每行相似度的最大值
  2. 将每行的所有值减去这个最大值
  3. 然后再进行指数计算

数学推导

这种操作是数学等价的。对原始公式进行变换:

L i = − log ⁡ exp ⁡ ( s i m ( z i , z j ) / τ ) ∑ k = 1 2 N exp ⁡ ( s i m ( z i , z k ) / τ ) ⋅ 1 k ≠ i \begin{align} L_i &= -\log \frac{\exp(sim(z_i, z_j)/\tau)}{\sum_{k=1}^{2N} \exp(sim(z_i, z_k)/\tau) \cdot \mathbf{1}_{k \neq i}} \\ \end{align} Li=logk=12Nexp(sim(zi,zk)/τ)1k=iexp(sim(zi,zj)/τ)

引入最大值 M i = max ⁡ k ( s i m ( z i , z k ) / τ ) M_i = \max_k (sim(z_i, z_k)/\tau) Mi=maxk(sim(zi,zk)/τ)

L i = − log ⁡ exp ⁡ ( s i m ( z i , z j ) / τ − M i + M i ) ∑ k = 1 2 N exp ⁡ ( s i m ( z i , z k ) / τ − M i + M i ) ⋅ 1 k ≠ i = − log ⁡ exp ⁡ ( M i ) ⋅ exp ⁡ ( s i m ( z i , z j ) / τ − M i ) exp ⁡ ( M i ) ⋅ ∑ k = 1 2 N exp ⁡ ( s i m ( z i , z k ) / τ − M i ) ⋅ 1 k ≠ i = − log ⁡ exp ⁡ ( s i m ( z i , z j ) / τ − M i ) ∑ k = 1 2 N exp ⁡ ( s i m ( z i , z k ) / τ − M i ) ⋅ 1 k ≠ i \begin{align} L_i &= -\log \frac{\exp(sim(z_i, z_j)/\tau - M_i + M_i)}{\sum_{k=1}^{2N} \exp(sim(z_i, z_k)/\tau - M_i + M_i) \cdot \mathbf{1}_{k \neq i}} \\ &= -\log \frac{\exp(M_i) \cdot \exp(sim(z_i, z_j)/\tau - M_i)}{\exp(M_i) \cdot \sum_{k=1}^{2N} \exp(sim(z_i, z_k)/\tau - M_i) \cdot \mathbf{1}_{k \neq i}} \\ &= -\log \frac{\exp(sim(z_i, z_j)/\tau - M_i)}{\sum_{k=1}^{2N} \exp(sim(z_i, z_k)/\tau - M_i) \cdot \mathbf{1}_{k \neq i}} \end{align} Li=logk=12Nexp(sim(zi,zk)/τMi+Mi)1k=iexp(sim(zi,zj)/τMi+Mi)=logexp(Mi)k=12Nexp(sim(zi,zk)/τMi)1k=iexp(Mi)exp(sim(zi,zj)/τMi)=logk=12Nexp(sim(zi,zk)/τMi)1k=iexp(sim(zi,zj)/τMi)

因为分子和分母中的 exp ⁡ ( M i ) \exp(M_i) exp(Mi)相互抵消,所以最终结果不变。

4. 代码实现分解

完整的SimCLR损失计算代码(包含数值稳定性处理):

# 计算相似度矩阵并除以温度系数
anchor_dot_contrast = torch.div(
    torch.matmul(anchor_feature, contrast_feature.T),
    self.temperature)

# 数值稳定性处理
logits_max, _ = torch.max(anchor_dot_contrast, dim=1, keepdim=True)
logits = anchor_dot_contrast - logits_max.detach()

# 创建和应用掩码
mask = mask.repeat(anchor_count, contrast_count)
logits_mask = torch.scatter(
    torch.ones_like(mask),
    1,
    torch.arange(batch_size * anchor_count).view(-1, 1).to(device),
    0
)
mask = mask * logits_mask

# 计算损失
exp_logits = torch.exp(logits) * logits_mask
log_prob = logits - torch.log(exp_logits.sum(1, keepdim=True))
mean_log_prob_pos = (mask * log_prob).sum(1) / mask.sum(1)
loss = -(self.temperature / self.base_temperature) * mean_log_prob_pos
loss = loss.view(anchor_count, batch_size).mean()

代码与公式的对应关系

  1. anchor_dot_contrast s i m ( z i , z k ) / τ sim(z_i, z_k)/\tau sim(zi,zk)/τ
  2. logits_max M i = max ⁡ k ( s i m ( z i , z k ) / τ ) M_i = \max_k (sim(z_i, z_k)/\tau) Mi=maxk(sim(zi,zk)/τ)
  3. logits s i m ( z i , z k ) / τ − M i sim(z_i, z_k)/\tau - M_i sim(zi,zk)/τMi
  4. exp_logits exp ⁡ ( s i m ( z i , z k ) / τ − M i ) ⋅ 1 k ≠ i \exp(sim(z_i, z_k)/\tau - M_i) \cdot \mathbf{1}_{k \neq i} exp(sim(zi,zk)/τMi)1k=i
  5. log_prob log ⁡ exp ⁡ ( s i m ( z i , z k ) / τ − M i ) ∑ k exp ⁡ ( s i m ( z i , z k ) / τ − M i ) ⋅ 1 k ≠ i \log \frac{\exp(sim(z_i, z_k)/\tau - M_i)}{\sum_{k} \exp(sim(z_i, z_k)/\tau - M_i) \cdot \mathbf{1}_{k \neq i}} logkexp(sim(zi,zk)/τMi)1k=iexp(sim(zi,zk)/τMi)

5. 具体数值示例

为了直观理解,我们用一个简化的例子来说明为什么减去最大值能防止数值溢出。

示例:相似度矩阵

假设有一个计算得到的相似度矩阵(已除以温度τ=0.07):

sim(z_i, z_k)/τ = [
    [80, 50, 60, 70, 40],
    [60, 90, 70, 80, 50],
    [70, 60, 85, 75, 55],
    [50, 40, 60, 75, 45]
]

方法1:直接计算exp(x)

直接计算exp(sim(z_i, z_k)/τ)

exp(sim(z_i, z_k)/τ) ≈ [
    [5.54e+34, 5.18e+21, 1.14e+26, 2.51e+30, 2.35e+17],
    [1.14e+26, 1.22e+39, 2.51e+30, 5.54e+34, 5.18e+21],
    [2.51e+30, 1.14e+26, 5.91e+36, 3.58e+32, 1.14e+24],
    [5.18e+21, 2.35e+17, 1.14e+26, 3.58e+32, 3.49e+19]
]

这些值极其巨大,相加时很容易溢出。例如第一行的和约为5.54e+34,已经接近单精度浮点数的上限。

方法2:减去最大值后计算

找出每行的最大值:

max_values = [80, 90, 85, 75]

减去最大值:

adjusted_logits = [
    [0, -30, -20, -10, -40],
    [-30, 0, -20, -10, -40],
    [-15, -25, 0, -10, -30],
    [-25, -35, -15, 0, -30]
]

计算exp(adjusted_logits)

exp(adjusted_logits) ≈ [
    [1.0, 9.36e-14, 2.06e-9, 4.54e-5, 4.25e-18],
    [9.36e-14, 1.0, 2.06e-9, 4.54e-5, 4.25e-18],
    [3.06e-7, 1.39e-11, 1.0, 4.54e-5, 9.36e-14],
    [1.39e-11, 6.31e-16, 3.06e-7, 1.0, 9.36e-14]
]

这些值都在[0,1]范围内,完全避免了溢出问题。同时,正样本对和负样本对之间的相对比例关系保持不变。

验证结果等价性

例如,对于第一行计算最终的归一化概率:

原始方法:

P(z_0 -> z_0) = exp(80) / sum(exp(row_0)) ≈ 1.0
P(z_0 -> z_1) = exp(50) / sum(exp(row_0)) ≈ 9.35e-14
...

减去最大值后:

P(z_0 -> z_0) = exp(0) / sum(exp(adjusted_row_0)) ≈ 1.0
P(z_0 -> z_1) = exp(-30) / sum(exp(adjusted_row_0)) ≈ 9.35e-14
...

两种计算方法得到的概率分布是相同的,但后者避免了数值溢出风险。

6. 为什么减去最大值有效?

关键原理

减去最大值的处理之所以有效,是因为:

  1. 将范围控制在安全区间

    • 减去最大值后,所有值都≤0
    • 因此所有exp(x)的结果都≤1,避免了上溢
    • 同时最大值对应的exp(0)=1,避免了整体下溢为0
  2. 保持相对比例关系

    • 对每行减去相同的常数不改变值之间的相对大小
    • 对于exp()函数来说,这等价于同时除以一个常数因子
    • 在计算Softmax或对数概率时,这个常数因子在分子和分母中抵消
  3. 数学等价性

    • exp(a-b) = exp(a)/exp(b)的性质保证了结果的正确性
    • 这相当于将原始公式的分子和分母同时除以exp(max_value)

7. 实际应用场景

这种数值稳定性技术不仅适用于SimCLR,还广泛应用于:

  1. Softmax计算:几乎所有需要计算Softmax的地方都需要
  2. 交叉熵损失:分类任务中常用
  3. 注意力机制:Transformer中的attention计算
  4. 所有对比学习方法:MoCo、BYOL、CLIP等

8. 实现建议

在实现涉及指数计算的函数时,建议:

  1. 始终使用数值稳定性处理
  2. 对每个batch/样本独立进行处理(找到每行/每个样本的最大值)
  3. 使用.detach()阻止梯度通过最大值操作传播
  4. 注意掩码操作,确保不包括自身对比或特定的负样本

总结

数值稳定性处理是深度学习实现中一个看似简单但至关重要的技术。通过简单地减去每行的最大值,我们可以有效防止数值溢出/下溢问题,同时保持计算结果的数学等价性。这种技术尤其重要,因为随着模型和批量大小的增加,数值问题更容易出现,而且往往难以诊断。

相关文章:

  • 火山引擎旗下的产品
  • Simscape单摆模型搭建
  • 快速启动 Rust + WebAssembly 项目
  • [从零开始学数据库] 基本SQL
  • 谷歌发布大模型提示工程《Prompt Engineering》白皮书
  • STM32F4移植FATFS管理SD卡
  • AI测试引擎中CV和ML模型的技术架构
  • 【Linux】VIM 编辑器,编辑加速引擎
  • 赚钱的底层逻辑
  • 开关二极管热插拔保护方案
  • MySQL-存储引擎和索引
  • [dp11_最长子序列(不连续)] 最长数对链 | 最长定差子序列 最长的斐波那契子序列的长度
  • Nginx底层架构(非常清晰)
  • redis系列--1.redis是什么
  • qt(vs2010) 手动配置moc生成规则
  • 数据大屏只能撑撑场面?
  • Uniapp:本地存储
  • 卫星电话扬帆智慧海洋,构筑蓝海通信新生态
  • 48V/2kW储能电源纯正弦波逆变器详细设计方案-可量产
  • 【7】深入学习Buffer缓冲区-Nodejs开发入门
  • 思南读书会500期了,这是上海最具温度的阅读文化样本
  • 专访|《触碰你》导演长井龙雪:“秩父铁三角”不只是朋友
  • 日本多地发生无差别杀人事件,中使馆提醒中国公民加强安全防范
  • 释新闻|加州诉特朗普政府:美国最大经济体为何打响关税阻击战?
  • 湖南省委书记人民日报撰文:坚定不移贯彻总体国家安全观,更好统筹高质量发展和高水平安全
  • 鲁比奥称美国已向各方提出了“持久和平的框架”