mirror of
https://github.com/hiyouga/LLaMA-Factory.git
synced 2025-08-23 22:32:54 +08:00
update readme
Former-commit-id: 5ee87138e46c4aab6218c37f255419a85b5a4692
This commit is contained in:
parent
3e3652f4e0
commit
f65f0745cc
@ -198,6 +198,8 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--do_train \
|
--do_train \
|
||||||
--dataset comparison_gpt4_en \
|
--dataset comparison_gpt4_en \
|
||||||
--finetuning_type lora \
|
--finetuning_type lora \
|
||||||
|
--resume_lora_training False \
|
||||||
|
--checkpoint_dir path_to_sft_checkpoint \
|
||||||
--output_dir path_to_rm_checkpoint \
|
--output_dir path_to_rm_checkpoint \
|
||||||
--per_device_train_batch_size 4 \
|
--per_device_train_batch_size 4 \
|
||||||
--gradient_accumulation_steps 4 \
|
--gradient_accumulation_steps 4 \
|
||||||
@ -219,6 +221,7 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--do_train \
|
--do_train \
|
||||||
--dataset alpaca_gpt4_en \
|
--dataset alpaca_gpt4_en \
|
||||||
--finetuning_type lora \
|
--finetuning_type lora \
|
||||||
|
--resume_lora_training False \
|
||||||
--checkpoint_dir path_to_sft_checkpoint \
|
--checkpoint_dir path_to_sft_checkpoint \
|
||||||
--reward_model path_to_rm_checkpoint \
|
--reward_model path_to_rm_checkpoint \
|
||||||
--output_dir path_to_ppo_checkpoint \
|
--output_dir path_to_ppo_checkpoint \
|
||||||
@ -229,7 +232,6 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--save_steps 1000 \
|
--save_steps 1000 \
|
||||||
--learning_rate 1e-5 \
|
--learning_rate 1e-5 \
|
||||||
--num_train_epochs 1.0 \
|
--num_train_epochs 1.0 \
|
||||||
--resume_lora_training False \
|
|
||||||
--plot_loss
|
--plot_loss
|
||||||
```
|
```
|
||||||
|
|
||||||
|
@ -198,6 +198,8 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--do_train \
|
--do_train \
|
||||||
--dataset comparison_gpt4_en \
|
--dataset comparison_gpt4_en \
|
||||||
--finetuning_type lora \
|
--finetuning_type lora \
|
||||||
|
--resume_lora_training False \
|
||||||
|
--checkpoint_dir path_to_sft_checkpoint \
|
||||||
--output_dir path_to_rm_checkpoint \
|
--output_dir path_to_rm_checkpoint \
|
||||||
--per_device_train_batch_size 4 \
|
--per_device_train_batch_size 4 \
|
||||||
--gradient_accumulation_steps 4 \
|
--gradient_accumulation_steps 4 \
|
||||||
@ -219,6 +221,7 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--do_train \
|
--do_train \
|
||||||
--dataset alpaca_gpt4_en \
|
--dataset alpaca_gpt4_en \
|
||||||
--finetuning_type lora \
|
--finetuning_type lora \
|
||||||
|
--resume_lora_training False \
|
||||||
--checkpoint_dir path_to_sft_checkpoint \
|
--checkpoint_dir path_to_sft_checkpoint \
|
||||||
--reward_model path_to_rm_checkpoint \
|
--reward_model path_to_rm_checkpoint \
|
||||||
--output_dir path_to_ppo_checkpoint \
|
--output_dir path_to_ppo_checkpoint \
|
||||||
@ -229,7 +232,6 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--save_steps 1000 \
|
--save_steps 1000 \
|
||||||
--learning_rate 1e-5 \
|
--learning_rate 1e-5 \
|
||||||
--num_train_epochs 1.0 \
|
--num_train_epochs 1.0 \
|
||||||
--resume_lora_training False \
|
|
||||||
--plot_loss
|
--plot_loss
|
||||||
```
|
```
|
||||||
|
|
||||||
|
Loading…
x
Reference in New Issue
Block a user