当前位置:   article > 正文

FlashAttention2 安装;报错 RuntimeError: FlashAttention only supports Ampere GPUs or newer.

runtimeerror: flashattention only supports ampere gpus or newer.

1、FlashAttention2 安装

cuda12.0环境;pytorch 2.1.2+cu118;transformers 4.38.0

pip install flash-attn --no-build-isolation --use-pep517 
  • 1

在这里插入图片描述

2、报错 RuntimeError: FlashAttention only supports Ampere GPUs or newer.

参考:
https://github.com/Dao-AILab/flash-attention
FlashAttention2暂时不支持 T卡,后续支持,如果要使用先用1.X版本

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
  

闽ICP备14008679号