当前位置: 首页 > news >正文

[python]windows上安装yolov12环境

yolov12出来了,地址github.com/sunsmarterjie/yolov12,咱们看看怎么在windows上把环境安装一下首先看看官方安装流程:

wget https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.3/flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
conda create -n yolov12 python=3.11
conda activate yolov12
pip install -r requirements.txt
pip install -e .

很明显官方只能在linux上安装,因为flash_attn这个是linux上的whl,然后去flash-attention源码页面的release找下有没有win_amd64.whl。很遗憾这个官方都是直接提供linux上的whl,windows上官方不直接支持。因此要么从其他途径找windows上的whl要么从源码编译。我试了下从源码开始有点难度,所以还是从其他地方找到whl,比如gitee.com/FIRC/flash_attn_chinese_mirror,当然您也可以去其他地址找一下。

我安装的是python3.10版本环境,大家也可以安装python3.11或者其他环境

conda create -n yolov12 python=3.10
conda activate yolov12

我下载了flash_attn-2.7.4+cu124torch2.5.1cxx11abiFALSE-cp310-cp310-win_amd64.whl

为了匹配对应版本我更换了torch版本。安装如下

pip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https://download.pytorch.org/whl/cu124

注释掉官方requirements.txt里面torch和flash-attn

#torch==2.5.1 
#torchvision==0.20.1
#flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
timm==1.0.14
albumentations==2.0.4
onnx==1.14.0
onnxruntime==1.15.1
pycocotools==2.0.7
PyYAML==6.0.1
scipy==1.13.0
onnxslim==0.1.31
onnxruntime-gpu==1.18.0
gradio==4.44.1
opencv-python==4.9.0.80
psutil==5.9.8
py-cpuinfo==9.0.0
huggingface-hub==0.23.2
safetensors==0.4.3
numpy==1.26.4


pip install -r requirements.txt
pip install -e . 

安装完成,接下来测试图片

yolo task=detect mode=predict model=weights/yolov12n.pt source=E:\animal.jpg save=true

FlashAttention is not available on this device. Using scaled_dot_product_attention instead.
D:\anaconda3\envs\yolo12\lib\site-packages\timm\models\layers\__init__.py:48: FutureWarning: Importing from timm.models.layers is deprecated, please import via timm.layers
  warnings.warn(f"Importing from {__name__} is deprecated, please import via timm.layers", FutureWarning)
Ultralytics 8.3.63 🚀 Python-3.10.16 torch-2.5.1+cu124 CUDA:0 (NVIDIA GeForce RTX 2070 Super, 8192MiB)
YOLOv12n summary (fused): 352 layers, 2,590,824 parameters, 0 gradients, 6.5 GFLOPs

image 1/1 E:\animal.jpg: 640x640 1 zebra, 1 giraffe, 16.0ms
Speed: 4.0ms preprocess, 16.0ms inference, 91.0ms postprocess per image at shape (1, 3, 640, 640)
Results saved to runs\detect\predict

上面提示FlashAttention is not available on this device,难道flash-attn没安装好?于是我定位源码

手动import

ok说明flash-attn安装没有问题,只能torch.cuda.get_device_capability()[0] >= 8不符合要求了。我电脑是RTX2070显卡,算力7.5,没有超过8,看起来flash-attn专门为算力>=8设计的模块?不过警告不用管直接查看

安装完成! 

相关文章:

  • 选好加密狗,一次说全
  • Deepseek快速做PPT
  • Go Web 项目实战:构建 RESTful API、命令行工具及应用部署
  • 用C++ Qt实现安卓电池充电动效 | 打造工业级电量控件
  • nodejs链接redis
  • webSocket
  • Python装饰器本质250220
  • HTTP与网络安全
  • 华为最新OD机试真题-找单词-Python-OD统一考试(E卷)
  • topN 相似度 torch实现
  • Oracle JDK、Open JDK zulu下载地址
  • Java 与设计模式(17):责任链模式
  • 使用 Docker-compose 部署 MySQL
  • 【蓝桥】二分法
  • DP-最长公共子序列
  • 【Alertmanager】alertmanager告警系统原理剖析与应用实战,应有尽有非常全面
  • Qt能正常编译和执行,但是文本报错找不到文件
  • 程函方程的详细推导
  • MySQL_事务的四大特性
  • 【网络安全 | 漏洞挖掘】价值$40000:从路径遍历升级至RCE
  • 中国专家组赴缅开展地震灾害评估工作
  • 法治日报:强制统一店铺广告牌匾事件何以频发?
  • 视频丨习近平同阿塞拜疆总统会谈:两国建立全面战略伙伴关系
  • 外媒:特朗普称或将“大幅降低”对中国的关税
  • 门票在“缩水”,古镇怎么办
  • 上海34年“老外贸”张斌:穿越风暴,必须靠过硬的核心竞争力