From 4a9eee7e25a7967caa4957f701bc27d90c71efa2 Mon Sep 17 00:00:00 2001 From: hoshi-hiyouga Date: Tue, 20 Feb 2024 16:06:59 +0800 Subject: [PATCH] Update README_zh.md Former-commit-id: 175a48d79d869da9d162fa881c3bed0e43235ee2 --- README_zh.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/README_zh.md b/README_zh.md index 6067ebfa..e00ff5a3 100644 --- a/README_zh.md +++ b/README_zh.md @@ -261,13 +261,13 @@ cd LLaMA-Factory pip install -r requirements.txt ``` -如果要在 Windows 平台上开启量化 LoRA(QLoRA),需要安装预编译的 `bitsandbytes` 库, 支持 CUDA 11.1 到 12.2. +如果要在 Windows 平台上开启量化 LoRA(QLoRA),需要安装预编译的 `bitsandbytes` 库, 支持 CUDA 11.1 到 12.2。 ```bash pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.40.0-py3-none-win_amd64.whl ``` -如果要在 Windows 平台上开启Flash Attention, 需要安装预编译的 `flash-attn` 库,支持CUDA 12.1 到12.2, 请根据需求到 [flash-attention](https://github.com/bdashore3/flash-attention/releases) 下载对应版本安装 +如果要在 Windows 平台上开启 FlashAttention-2,需要安装预编译的 `flash-attn` 库,支持 CUDA 12.1 到 12.2,请根据需求到 [flash-attention](https://github.com/bdashore3/flash-attention/releases) 下载对应版本安装。 ### 使用魔搭社区(可跳过)