当前位置: 首页 > news >正文

Transformer 零基础实践教程 - 0 - 前言与环境配置

目标

  • 明确整个教程能学到什么、怎么学
  • 在本地或云端成功跑通第一个 Transformer Demo
  • 配置好后续章节统一使用的 Python 环境与常用工具

0.1 学习路线图与成果预览

阶段关键词主要成果
0环境、体验成功生成一首英文小诗并分享
1–3注意力、编码器、解码器能读懂并改写最小版 Transformer 代码
4–8NLP / CV / 语音案例至少掌握 3 个真实业务场景
9–10LLM 微调、调优能把开源大模型接入自有知识库
11综合项目发布一个可交互的迷你聊天助手

学习节奏建议
配合“先跑通 ➜ 再深究 ➜ 马上改动”三步循环。


0.2 必备工具安装与配置

0.2.1 Python 与 conda 环境
  1. 安装 Miniconda(推荐)

    • 访问 https://docs.conda.io/en/latest/miniconda.html 选择对应系统安装包。
    • 全程“Next”,勾选 Add Miniconda to my PATH
  2. 创建独立环境(防止包冲突)

    conda create -n transformer-course python=3.10 -y
    conda activate transformer-course
    
0.2.2 PyTorch + CUDA
场景命令
GPU(NVIDIA)pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121
(121 代表 CUDA 12.1;如驱动较老可换 cu118)
CPU-onlypip install torch torchvision
快速验证python -c "import torch,platform;print('CUDA:',torch.cuda.is_available(), 'GPU:', torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'None')"

Tips

  • 如果本机无 GPU 或配置复杂,可跳过 CUDA,直接用 Google Colab 或 Kaggle Notebook。
  • 后续代码全部兼容 CPU,运行会慢一些但不影响学习。
0.2.3 其他常用包一次装齐
pip install transformers datasets accelerate sentencepiece einops tqdm jupyterlab

transformers ≥ 4.40,datasets ≥ 2.19 可保证后续示例一致。

0.2.4 IDE 与插件
工具作用推荐插件
VS Code轻量级开发Python, Jupyter, GitLens
PyCharm Community全功能 IDEIdeaVim (可选)
JupyterLab快速试验笔记jupyterlab-vim, jupyterlab_code_formatter

0.3 云端方案:Colab & Hugging Face Spaces

方案免费 GPU主要步骤
Google ColabT4 / L4 / A100(随机)打开 https://colab.research.google.com/, 选择 GPU!pip install transformers==4.40.0
Kaggle NotebookT4打开 https://www.kaggle.com/code, Settings → GPU → On
Hugging Face SpacesCPU(免费)|GPU(付费)New Space → Gradio / Streamlit → 部署 Chat Demo

0.4 第一个“小成就”——一行代码生成英文小诗

  1. 在终端或 Colab 执行:

    from transformers import pipeline
    generator = pipeline("text-generation", model="gpt2")
    print(generator("In the quiet night, ", max_length=30, num_return_sequences=1)[0]["generated_text"])
    
  2. 输出示例

    In the quiet night,  the stars wane like fading
    flowers of silver dust, and the slow river hums a lullaby.
    
  3. 动手试试

    • model="gpt2" 改为 "distilgpt2""meta-llama/Llama-2-7b-chat-hf"(需要 ≥ 16 GB 显存)
    • 调整 max_lengthtemperature,观察文本风格变化。
  4. 作业

    • 把生成的诗翻译成中文;

0.5 常见安装问题与排查

症状可能原因解决办法
torch.cuda.is_available() == FalseCUDA 版本不匹配nvidia-smi 查看驱动;对应安装 PyTorch cuXXX 版本
ImportError: libc10.so环境里存在旧的 torchpip uninstall torch -y && pip cache purge && pip install torch==2.2.1
下载模型速度慢Hugging Face 默认源在国外配置清华镜像:export HF_ENDPOINT=https://hf-mirror.com
Colab 无法安装特定版本Colab 自带 torch 版本冲突pip install --upgrade --force-reinstall torch==2.2.1

0.6 本章小结与思考题

本章收获

  • 完成 Python & conda 环境 + PyTorch + Transformers 安装
  • 跑通了第一个文本生成示例,初步体验注意力模型魔力
  • 熟悉了 GPU/CPU 选择与云端替代方案

思考题

  1. 为什么 GPU 对深度学习训练速度提升明显?请用“矩阵并行计算”的角度简述。
  2. 如果只能使用 CPU,该如何通过“梯度累积”或“模型裁剪”完成大模型微调?写出你的方案思路。
  3. 试着把“小诗”生成任务封装成一个命令行脚本 generate_poem.py,支持 --prompt, --length 参数,并上传到 GitHub。

以上内容准备就绪后,即可进入 第 1 部分 “前置知识简介” —— 我们将真正开始拆解注意力机制!祝顺利 ❤️

相关文章:

  • Rust 学习笔记:Rust 简介
  • element-ui transfer 组件源码分享
  • 远程控制Firefox浏览器实例的挑战与Playwright的CDP和Selenium Marionette解决方案
  • STM32 SysTick定时器
  • ElasticSearch:高并发场景下如何保证读写一致性?
  • 11、认识redis的sentinel
  • 神经网络相关内容
  • SpringBoot中6种自定义starter开发方法
  • Hadoop 集群扩容新增节点操作文档
  • Java 实现SpringContextUtils工具类,手动获取Bean
  • 鸿蒙NEXT开发网络相关工具类(ArkTs)
  • node.js 实战——(概念以及Buffer 知识点学习)
  • 数据结构线性表的顺序存储结构
  • openEuler安装nvidia驱动【详细版】
  • 外贸获客新革命:基于AI的搜索引擎排名攻防战——48小时抢占谷歌TOP3的技术逻辑与实战路径
  • 基于VUE+Node.JS实现(Web)学生组队网站
  • LInux平均负载
  • maven中pom.xml setting.xml关系
  • 二叉树OJ题目
  • 大模型框架技术全景与下一代架构演进
  • 下周起上海浦东将投放5000万元消费券,预计分五周发放
  • “仅退款”将成历史?电商平台集中调整售后规则
  • 中海宏洋集团4.17亿元竞得浙江绍兴宅地,溢价率20.87%
  • 官宣一起打造智能汽车品牌后,华为喊话上汽要准备好足够产能
  • 金融监管总局:支持将上海打造成具有国际竞争力的再保险中心
  • 城事|喊侬白相,长兴太湖9号公路邀上海市民共赴诗意之旅