当前位置: 首页 > news >正文

GPU 架构入门笔记

引文位置:https://www.trainy.ai/blog/gpu-utilization-misleading

相关概念是通过 ChatGPT 迅速学习总结而成。

概念:
GPU
H100 GPU, with 144 SMs

  • H100 GPU, with 144 SMs

每个 SM(streaming multiprocessors) 的架构:
SM

GPU Utilization:

  • GPU Utilization, is only measuring whether a kernel is executing at a given time.
  • 也就是数,只要有 kernel 在 GPU 上跑,就算把 GPU 利用起来了。至于这个 kernel 对硬件资源的利用率,GPU Utilization 不关心。比如,这个kernel 只是在做 GPU Memory 的读写,0 FLOPS,此时的 GPU Utilization 也能达到 100%。

SM efficiency:

  • describing what % of SMs are active in a given time interval. SMs can be thought of as foremen for a group of CUDA cores. An Nvidia H100 GPU, for example, has 132 SMs, with 128 cores per SM, giving us a total of 16,896 cores. By measuring SM efficiency, we can determine whether our CUDA kernels are using our streaming multiprocessors. If we have a CUDA kernel that continuously runs for 10 seconds but only uses 1 SM, on an H100, this would register 100% utilization, but the SM efficiency would be 1 / 132 = 0.7%.
  • SM 效率关注的是 SM 是否被使用。每个 SM 里,哪怕只有一个 core 被使用,那么这个 SM 就是活跃的。

Core efficiency:

  • Core:SM里面的最基本小算力单元,执行真正的加减乘除指令。
  • 没找到这个概念。但理论上这个是最精确描述硬件利用率的指标。

编程接口侧,为了提升 GPU 利用率,定义了若干概念:

BLOCK:

  • CUDA 为了让 GPU 跑满定义的概念。每个 BLOCK 会被调度到一个 SM 上。所以,一个 kernel 如果希望能充分利用上所有 SM,它的 BLOCK 数要尽量和总 SM 个数匹配,比如是 SM 的整数倍。

THREAD:

  • 程序中定义的一个 thread 最终会被放到一个 WARP 中执行。
  • kernel是你写的一段程序,当你 launch 一个kernel的时候,会分配一堆 thread 去执行这个 kernel。每个 thread 独立跑一遍你的 kernel代码。

KERNEL

  • CUDA 定义的最小程序单元
  • KERNEL 不宜过大,中间状态不宜过多。如果超过了寄存器限制,CUDA 则会编译成类似 C++ 里的方式,用显存做暂存区,会导致寄存器和显存的频繁交互,对性能的影响是致命的。

WARP:

  • GPU 调度的最小单位,一个 WARP 打包 32 个 thread。
  • 所谓 GPU 调度,是指将 kernel 代码调度到 SM 上执行。考虑一个 BLOCK 里写了 128 个 THREAD,但一个 SM 里寄存器资源远远低于128。GPU 定义的物理上限就是同一时间只能执行 32 组线程。 WARP 就是定义 32 这个概念的,它是物理概念。 BLOCK 是面向编程的逻辑概念。GPU 一次调度一个 WARP,一个 BLOCK 会被分成多个 WARP 依次调度执行。
  • 为什么选 32?实际上,SM 里的物理资源不足以同时执行 32 个 thread。通过规划 32 个 thread,可以在局部形成流水线,隐藏掉大部分的访存延迟。32个访存,有机会做访存合并。
时钟周期:    0 1 2 3 4 5 6 7 8 9 10 11 12 13 ...
warp1:       执行 → stall (等内存) ─────────────
warp2:            执行 → stall (等内存) ───────
warp3:                  执行 → stall (等内存) ─
warp4:                        执行 → stall
warp5:                              执行 → stall

相关文章:

  • 获得ecovadis徽章资格标准是什么?ecovadis评估失败的风险
  • 【ACL系列论文写作指北07-论文标题与关键词部分怎么写】-赢在第一眼
  • 今日行情明日机会——20250428
  • leetcode128-最长连续序列
  • 【默子AI】万字长文:MCP与A2A协议详解
  • 【学习笔记】RL4LLM(三)
  • BeeWorks企业内部即时通讯软件支持国产化,已在鸿蒙系统上稳定运行
  • 云原生--核心组件-容器篇-7-Docker私有镜像仓库--Harbor
  • Linux中的计划任务
  • 第1篇:Egg.js框架入门与项目初始化
  • go语言八股文(五)
  • el-Input输入数字自动转千分位进行展示
  • LeetCode 1482. 制作 m 束花所需的最少天数
  • 机器学习-入门-线性模型(2)
  • 【时间之外】软件管理如何避免人浮于事
  • Fiddler+Yakit实现手机流量抓包和小程序抓包
  • Nacos 3.0 上线 MCP Registry,支持 MCP 服务注册到发现全流程管理
  • Android平台Unity引擎的Mono JIT机制分析
  • Android WebRTC回声消除
  • 向量数据库Milvus的部署与使用
  • 解放日报头版:人民城市共建共享展新卷
  • 第五届全国医院人文管理路演在昆山举办:患者体验才是温度计
  • 央行副行长:研究建立民营中小企业增信制度,破解民营中小企业信用不足等融资制约
  • 谁将主导“视觉大脑”?中国AI的下一个超级赛道
  • 委员呼吁提高政府机构电话号码准确性,辽宁阜新回应
  • 新希望去年归母净利润4.74亿同比增逾九成,营收降27%