Update README_zh.md

Former-commit-id: 175a48d79d869da9d162fa881c3bed0e43235ee2
This commit is contained in:
hoshi-hiyouga 2024-02-20 16:06:59 +08:00 committed by GitHub
parent e649ddd99f
commit 4a9eee7e25

View File

@ -261,13 +261,13 @@ cd LLaMA-Factory
pip install -r requirements.txt
```
如果要在 Windows 平台上开启量化 LoRAQLoRA需要安装预编译的 `bitsandbytes` 库, 支持 CUDA 11.1 到 12.2.
如果要在 Windows 平台上开启量化 LoRAQLoRA需要安装预编译的 `bitsandbytes` 库, 支持 CUDA 11.1 到 12.2
```bash
pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.40.0-py3-none-win_amd64.whl
```
如果要在 Windows 平台上开启Flash Attention 需要安装预编译的 `flash-attn` 库,支持CUDA 12.1 到12.2, 请根据需求到 [flash-attention](https://github.com/bdashore3/flash-attention/releases) 下载对应版本安装
如果要在 Windows 平台上开启 FlashAttention-2,需要安装预编译的 `flash-attn` 库,支持 CUDA 12.1 到 12.2请根据需求到 [flash-attention](https://github.com/bdashore3/flash-attention/releases) 下载对应版本安装
### 使用魔搭社区(可跳过)