首页 关于我们 成功案例 网络营销 电商设计 新闻中心 联系方式
QQ联系
电话联系
手机联系

[python]windows上安装yolov12环境

发布时间:2025-08-28 10:14
发布者:网络
浏览次数:

yolov12已经发布,项目地址为github.com/sunsmarterjie/yolov12,下面我们来看看如何在windows系统上配置其运行环境。首先查看官方提供的安装命令:

wget https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.3/flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
conda create -n yolov12 python=3.11
conda activate yolov12
pip install -r requirements.txt
pip install -e .

显然,官方脚本是针对Linux系统的,因为其中使用的

flash_attn
是一个Linux平台的whl包。接着我们前往flash-attention项目的Release页面查找是否有适用于Windows的
win_amd64.whl
文件。可惜的是,官方并未提供Windows版本的预编译包,仅支持Linux。因此,若想在Windows上运行,要么寻找第三方提供的whl文件,要么自行从源码编译。

尝试从源码编译有一定难度,对环境要求较高,因此更推荐寻找已编译好的Windows版本whl包。例如可以从gitee.com/FIRC/flash_attn_chinese_mirror获取,当然你也可以搜索其他可信来源。

我本地使用的是Python 3.10环境,当然你也可以选择Python 3.11或其他版本。

创建并激活conda环境:

conda create -n yolov12 python=3.10
conda activate yolov12

我下载的flash-attn版本为:

flash_attn-2.7.4+cu124torch2.5.1cxx11abiFALSE-cp310-cp310-win_amd64.whl

为确保版本兼容,我同步调整了PyTorch版本,安装命令如下:

pip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https://download.pytorch.org/whl/cu124

然后修改项目根目录下的

requirements.txt
,将原本的torch和flash-attn相关行注释掉:

#torch==2.5.1
#torchvision==0.20.1
#flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
timm==1.0.14
albumentations==2.0.4
onnx==1.14.0
onnxruntime==1.15.1
pycocotools==2.0.7
PyYAML==6.0.1
scipy==1.13.0
onnxslim==0.1.31
onnxruntime-gpu==1.18.0
gradio==4.44.1
opencv-python==4.9.0.80
psutil==5.9.8
py-cpuinfo==9.0.0
huggingface-hub==0.23.2
safetensors==0.4.3
numpy==1.26.4

继续执行依赖安装:

pip install -r requirements.txt
pip install -e .

安装完成后,进行图片推理测试:

yolo task=detect mode=predict model=weights/yolov12n.pt source=E:\animal.jpg s*e=true

输出日志如下:

SmartB2B行业电子商务 SmartB2B行业电子商务

SmartB2B 是一款基于PHP、MySQL、Smarty的B2B行业电子商务网站管理系统,系统提供了供求模型、企业模型、产品模型、人才招聘模型、资讯模型等模块,适用于想在行业里取得领先地位的企业快速假设B2B网站,可以运行于Linux与Windows等多重服务器环境,安装方便,使用灵活。 系统使用当前流行的PHP语言开发,以MySQL为数据库,采用B/S架构,MVC模式开发。融入了模型化、模板

SmartB2B行业电子商务 0 查看详情 SmartB2B行业电子商务
FlashAttention is not *ailable on this device. Using scaled_dot_product_attention instead.
D:naconda3envsyolo12libsite-packages	immmodelslayers__init__.py:48: FutureWarning: Importing from timm.models.layers is deprecated, please import via timm.layers
  warnings.warn(f"Importing from {__name__} is deprecated, please import via timm.layers", FutureWarning)
Ultralytics 8.3.63 ? Python-3.10.16 torch-2.5.1+cu124 CUDA:0 (NVIDIA GeForce RTX 2070 Super, 8192MiB)
YOLOv12n summary (fused): 352 layers, 2,590,824 parameters, 0 gradients, 6.5 GFLOPs
image 1/1 E:nimal.jpg: 640x640 1 zebra, 1 giraffe, 16.0ms
Speed: 4.0ms preprocess, 16.0ms inference, 91.0ms postprocess per image at shape (1, 3, 640, 640)
Results s*ed to runsdetectpredict

看到提示“FlashAttention is not *ailable on this device”,怀疑flash-attn未正确安装。于是进入Python环境手动导入测试:

[python]windows上安装yolov12环境

手动import测试:

[python]windows上安装yolov12环境

导入成功,说明flash-attn安装无误。问题出在

torch.cuda.get_device_capability()[0] >= 8
这一条件不满足。我的显卡是RTX 2070,计算能力为7.5,低于8.0,而flash-attn可能仅对算力8.0及以上设备启用优化功能。因此该警告可忽略。

最终效果如下:

[python]windows上安装yolov12环境

环境配置成功,yolov12可在Windows上正常运行!

以上就是[python]windows上安装yolov12环境的详细内容,更多请关注其它相关文章!


# yolov12  # linux  # python  # git  # windows  # ai  # amd  # win  # windows系统  # linux系  # 适用于  # 的是  # 双系统  # 大神  # 如何在  # 如何设置  # 是一个  # 操作系统  # 这一  # 运行环境  # 时尚营销推广文案模板图片  # 酒店营销推广设计  # 主要营销推广解答题有哪些  # 定做网站推广平台哪个好  # 温州关键词排名厂家  # 星空网站建设公司  # 贵阳seo优化网站价格  # 青岛seo推广排行  # 优化句子的网站叫什么  # 德育工作网站建设