当前位置: 首页 > news >正文

探索大语言模型(LLM):循环神经网络的深度解析与实战(RNN、LSTM 与 GRU)

一、循环神经网络(RNN)

1.1 基本原理

循环神经网络之所以得名,是因为它在处理序列数据时,隐藏层的节点之间存在循环连接。这意味着网络能够记住之前时间步的信息,并利用这些信息来处理当前的输入。
想象一下,我们正在处理一段文本,每个单词就是一个时间步的输入。RNN 在读取每个单词时,不仅会考虑当前单词的含义,还会结合之前已经读过的单词信息,从而更好地理解整个句子的语境。
用数学公式来表示,假设我们有一个输入序列 x 1 , x 2 , . . . , x T x_1,x_2,...,x_T x1,x2,...,xT,在时间步t,RNN 的隐藏状态 h t h_ t ht的计算方式如下: h t = σ ( W x h x t + W h h h t − 1 + b h ) h_t=σ(W_{xh}x_t+W_{hh}h_{t−1}+b_h) ht=σ(Wxhxt+Whhht1+bh)
其中,σ是激活函数(通常为 tanh 或 sigmoid), W x h W_{xh} Wxh是输入到隐藏层的权重矩阵, W h h W_{hh} Whh是隐藏层到隐藏层的权重矩阵, b h b_h bh是偏置项。输出 y t y_t yt通常通过以下公式计算:
y t = W h y h t + b y ​ y_t =W_{hy}h_t+b_y ​ yt=Whyht+by

这里 W h y W_{hy} Why是隐藏层到输出层的权重矩阵, b y b_y by是输出层的偏置项。

1.2 前向传播过程

以前文提到的文本处理为例,假设我们有一个简单的句子 “我喜欢深度学习”,我们将每个单词通过词向量表示后作为输入 x t x_t xt依次输入到 RNN 中。在第一个时间步,输入 “我” 对应的词向量 x 1 x_1 x1,结合初始隐藏状态 h 0 h_0 h0(通常初始化为零向量),通过上述公式计算得到隐藏状态 h 1 h_1 h1。接着,输入 “喜欢” 对应的词向量 x 2 x_2 x2,此时结合 h 1 h_1 h1计算 h 2 h_2 h2,以此类推,直到处理完整个句子。最终的隐藏状态
h T h_T hT可以用于预测句子的情感倾向(比如是积极还是消极)等任务。

1.3 训练过程

RNN 的训练通常使用反向传播通过时间(Backpropagation Through Time, BPTT)算法。BPTT 算法本质上是标准反向传播算法在时间序列上的扩展。它通过计算损失函数(比如交叉熵损失)关于网络参数( W x h W_{xh} Wxh , W h h W_{hh} Whh , W h y W_{hy} Why , b h b_h bh , b y b_y by等)的梯度,然后使用梯度下降等优化算法来更新参数,使得损失函数逐渐减小。在计算梯度时,由于隐藏层状态在时间步之间的循环连接,梯度会在时间维度上进行反向传播,这也是 BPTT 名称的由来。

1.4 面临的挑战

RNN 虽然具有记忆能力,但在处理长序列时,会面临梯度消失或梯度爆炸的问题。简单来说,当反向传播的时间步数增多时,梯度在传递过程中可能会变得非常小(梯度消失),导致前面时间步的信息对当前时间步的影响几乎可以忽略不计,使得模型难以学习到长距离的依赖关系;或者梯度变得非常大(梯度爆炸),导致参数更新不稳定,模型无法正常训练。

挑战类型描述对模型的影响
梯度消失反向传播时梯度逐渐变小难以学习长距离依赖关系,模型性能下降
梯度爆炸反向传播时梯度逐渐变大参数更新不稳定,模型无法正常训练

二、长短期记忆网络(LSTM)

2.1 结构与原理

为了解决 RNN 的梯度问题,LSTM 应运而生。LSTM 引入了一种特殊的结构 —— 细胞状态(Cell State),它就像一条信息高速公路,能够让信息在序列中相对轻松地流动,从而有效捕捉长期依赖关系。
LSTM 通过三个门来控制细胞状态中的信息:遗忘门(Forget Gate)、输入门(Input Gate)和输出门(Output Gate)。
遗忘门决定从上一个时间步的细胞状态 C t − 1 C_{t−1} Ct1中丢弃哪些信息,其计算公式为:
f t = σ ( W x f x t + W h f h t − 1 + b f ) f_t=σ(W_{xf}x_t+W_{hf}h_{t−1}+b_f) ft=σ(Wxfxt+Whfht1+bf)
这里 W x f , W h f , b f W_{xf} ,W_{hf} ,b_f Wxf,Whf,bf分别是遗忘门对应的权重矩阵和偏置项。
输入门决定将哪些新信息添加到细胞状态中,它由两部分组成。首先是输入门值 i t i_t it,计算公式为:
i t = σ ( W x i x t + W h i h t − 1 + b i ) i_t=σ(W_{xi}x_t+W_{hi}h_{t−1}+b_i) it=σ(Wxixt+Whiht1+bi)
然后是候选细胞状态 C ~ t \tilde C_t C~t,计算公式为:
C ~ t = t a n h ( W x C x t + W h C h t − 1 + b C ) \tilde C_t =tanh(W_{xC}x_t+W_{hC}h_{t−1}+b_C) C~t=tanh(WxCxt+WhCht1+bC)
最终更新后的细胞状态 C t C_t Ct为:
C t = f t ⊙ C t − 1 + i t ⊙ C ~ t C_t =f_t ⊙C_{t−1} +i_t⊙ \tilde C_t Ct=ftCt1+itC~t
其中 ⊙ ⊙ 表示逐元素相乘。
输出门决定细胞状态的哪些部分将作为当前时间步的输出 h t h_t ht,计算公式为:
o t = σ ( W x o x t + W h o h t − 1 + b o ) o_t=σ(W_{xo}x_t+W_{ho}h_{t−1}+b_o) ot=σ(Wxoxt+Whoht1+bo)
然后当前时间步的隐藏状态 h t h_t ht为:
h t = o t ⊙ t a n h ( C t ) h_t=o_t⊙tanh(C_t) ht=ottanh(Ct)
LSTM 结构示意图:

image

2.2 工作流程

在每个时间步,LSTM 首先通过遗忘门决定保留或丢弃上一个时间步细胞状态中的哪些信息。然后通过输入门和候选细胞状态决定添加哪些新信息到细胞状态中。更新完细胞状态后,再通过输出门决定输出哪些信息作为当前时间步的隐藏状态。这个过程不断重复,使得 LSTM 能够有效处理长序列数据。

2.3 应用案例 - 股价预测

假设我们要预测某只股票未来的价格走势。我们将过去一段时间(比如 100 天)的股票价格作为输入序列,通过 LSTM 模型进行训练。在训练过程中,LSTM 可以学习到股票价格之间的长期依赖关系,比如某些宏观经济因素对股价的长期影响。当训练完成后,我们可以输入最近一段时间的股价,让模型预测未来几天的股价。与传统的时间序列预测方法相比,LSTM 能够更好地捕捉股价波动中的复杂模式,从而提高预测的准确性。


三、门控循环单元(GRU)

3.1 结构与原理

GRU 可以看作是 LSTM 的简化版本。它将 LSTM 中的遗忘门和输入门合并为一个更新门(Update Gate),同时取消了单独的细胞状态,直接通过隐藏状态传递信息。
更新门 z t z_t zt的计算公式为:
z t = σ ( W x z x t + W h z h t − 1 + b z ) z_t=σ(W_{xz}x_t+W_{hz}h_{t−1}+b_z) zt=σ(Wxzxt+Whzht1+bz)
重置门(Reset Gate) r t r_t rt的计算公式为:
r t = σ ( W x r x t + W h r h t − 1 + b r ) r_t=σ(W_{xr}x_t +W_{hr} h_{t−1} +b_r) rt=σ(Wxrxt+Whrht1+br)
候选隐藏状态 h ~ t \tilde h_t h~t的计算公式为:
h ~ t = t a n h ( W x h x t + r t ⊙ ( W h h h t − 1 ) + b h ) \tilde h_t=tanh(W_{xh}x_t +r_t ⊙(W_{hh}h_{t−1})+b_h) h~t=tanh(Wxhxt+rt(Whhht1)+bh)
最终的隐藏状态 h t h_t ht 为:
h t = ( 1 − z t ) ⊙ h t − 1 + z t ⊙ h ~ t ​ h_t =(1−z_t )⊙h_{t−1} +z_t ⊙\tilde h_t ​ ht=(1zt)ht1+zth~t
GRU 结构示意图:

image

3.2 与 LSTM 的比较

与 LSTM 相比,GRU 结构更简单,参数更少,因此训练速度更快。在一些对实时性要求较高或者数据量较小的场景中,GRU 可能会表现得更好。但在处理非常复杂的长序列数据时,LSTM 由于其更精细的门控机制,可能会取得更好的效果。

模型结构特点参数数量训练速度适用场景
LSTM有细胞状态,三个门控较多较慢复杂长序列数据
GRU无细胞状态,两个门控较少较快实时性要求高或数据量小

3.3 应用案例 - 实时语音识别

在实时语音识别系统中,需要快速处理连续的语音流数据。GRU 由于其简单高效的结构,能够在保证一定准确率的前提下,快速对语音数据进行处理和识别。它可以实时地将输入的语音信号转换为文字,满足人们在语音交互场景中的需求。


总结

循环神经网络(RNN)为处理序列数据提供了基础框架,但其在长序列处理上的局限性促使了长短期记忆网络(LSTM)和门控循环单元(GRU)的诞生。LSTM 通过精细的门控机制和细胞状态,有效地解决了梯度问题,能够处理复杂的长序列数据。GRU 则在保持一定性能的同时,通过简化结构提高了训练效率。在实际应用中,我们需要根据具体任务的特点和需求,选择合适的模型。希望通过本文的介绍,你对 RNN、LSTM 和 GRU 有了更深入的理解,并能够在自己的项目中灵活运用它们。

相关文章:

  • linux 4.14内核jffs2文件系统不自动释放空间的bug
  • 6.数据手册解读—运算放大器(二)
  • 6.5 GitHub监控系统实战:双通道采集+动态调度打造高效运维体系
  • RAG知识库中引入MCP
  • Django ORM 定义模型
  • 题解:CF886E Maximum Element
  • 数字化转型下的农田安防新布局,视频监控汇聚系统EasyCVR打造农田可视化综合管理方案
  • 发现“横”字手写有难度,对比两个“横”字
  • 【信息系统项目管理师】高分论文:论信息系统项目的沟通管理(网管改造工程)
  • b站PC网页版视频播放页油猴小插件制作
  • 钧瓷收藏防坑指南:如何科学评估与理性收藏
  • Flink介绍——实时计算核心论文之Kafka论文详解
  • MCP认证难题破解
  • 文件上传Ⅰ
  • pgsql中使用jsonb的mybatis-plus和jps的配置
  • 微信小程序调用yolo目标检测模型
  • 仿腾讯会议项目开发——网络嵌入
  • AWS Elastic Beanstalk的部署Python Flask后端服务(Hello,World)
  • Hadoop的三大结构及其作用?
  • 计算机基础 | 常见进制与单位简介 / 表示 / 描述
  • 政治局会议:创新推出债券市场的“科技板”,加快实施“人工智能+”行动
  • 《我的后半生》:人生下半场,也有活力重启的可能
  • 海上生明月,九天揽星河,2025年“中国航天日”主场活动在上海启动
  • 养胃不是顿顿喝粥,这份“胃的使用说明书”请收好
  • 上海天文馆加持,书友可在徐家汇书院“飞越银河系”!
  • 用一生走丝路,91岁艺术家耿玉琨的书旅奇遇