mirror of
https://github.com/hiyouga/LLaMA-Factory.git
synced 2025-10-15 16:18:10 +08:00
update readme
Former-commit-id: 14d20cd1fdcfd1f2842362f70472b666e5d48c7d
This commit is contained in:
parent
fafec8b7a5
commit
e8748cc6f3
@ -198,6 +198,8 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--do_train \
|
--do_train \
|
||||||
--dataset comparison_gpt4_en \
|
--dataset comparison_gpt4_en \
|
||||||
--finetuning_type lora \
|
--finetuning_type lora \
|
||||||
|
--resume_lora_training False \
|
||||||
|
--checkpoint_dir path_to_sft_checkpoint \
|
||||||
--output_dir path_to_rm_checkpoint \
|
--output_dir path_to_rm_checkpoint \
|
||||||
--per_device_train_batch_size 4 \
|
--per_device_train_batch_size 4 \
|
||||||
--gradient_accumulation_steps 4 \
|
--gradient_accumulation_steps 4 \
|
||||||
@ -219,6 +221,7 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--do_train \
|
--do_train \
|
||||||
--dataset alpaca_gpt4_en \
|
--dataset alpaca_gpt4_en \
|
||||||
--finetuning_type lora \
|
--finetuning_type lora \
|
||||||
|
--resume_lora_training False \
|
||||||
--checkpoint_dir path_to_sft_checkpoint \
|
--checkpoint_dir path_to_sft_checkpoint \
|
||||||
--reward_model path_to_rm_checkpoint \
|
--reward_model path_to_rm_checkpoint \
|
||||||
--output_dir path_to_ppo_checkpoint \
|
--output_dir path_to_ppo_checkpoint \
|
||||||
@ -229,7 +232,6 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--save_steps 1000 \
|
--save_steps 1000 \
|
||||||
--learning_rate 1e-5 \
|
--learning_rate 1e-5 \
|
||||||
--num_train_epochs 1.0 \
|
--num_train_epochs 1.0 \
|
||||||
--resume_lora_training False \
|
|
||||||
--plot_loss
|
--plot_loss
|
||||||
```
|
```
|
||||||
|
|
||||||
|
@ -198,6 +198,8 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--do_train \
|
--do_train \
|
||||||
--dataset comparison_gpt4_en \
|
--dataset comparison_gpt4_en \
|
||||||
--finetuning_type lora \
|
--finetuning_type lora \
|
||||||
|
--resume_lora_training False \
|
||||||
|
--checkpoint_dir path_to_sft_checkpoint \
|
||||||
--output_dir path_to_rm_checkpoint \
|
--output_dir path_to_rm_checkpoint \
|
||||||
--per_device_train_batch_size 4 \
|
--per_device_train_batch_size 4 \
|
||||||
--gradient_accumulation_steps 4 \
|
--gradient_accumulation_steps 4 \
|
||||||
@ -219,6 +221,7 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--do_train \
|
--do_train \
|
||||||
--dataset alpaca_gpt4_en \
|
--dataset alpaca_gpt4_en \
|
||||||
--finetuning_type lora \
|
--finetuning_type lora \
|
||||||
|
--resume_lora_training False \
|
||||||
--checkpoint_dir path_to_sft_checkpoint \
|
--checkpoint_dir path_to_sft_checkpoint \
|
||||||
--reward_model path_to_rm_checkpoint \
|
--reward_model path_to_rm_checkpoint \
|
||||||
--output_dir path_to_ppo_checkpoint \
|
--output_dir path_to_ppo_checkpoint \
|
||||||
@ -229,7 +232,6 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
|
|||||||
--save_steps 1000 \
|
--save_steps 1000 \
|
||||||
--learning_rate 1e-5 \
|
--learning_rate 1e-5 \
|
||||||
--num_train_epochs 1.0 \
|
--num_train_epochs 1.0 \
|
||||||
--resume_lora_training False \
|
|
||||||
--plot_loss
|
--plot_loss
|
||||||
```
|
```
|
||||||
|
|
||||||
|
Loading…
x
Reference in New Issue
Block a user