python 02_code/run_model.py  --model_type bertweet --model_name_or_path vinai/bertweet-base --task_name misinfo --do_eval --do_train  --do_lower_case --data_dir data --max_seq_length 128 --per_gpu_eval_batch_size=8 --per_gpu_train_batch_size=8 --learning_rate 1e-5 --num_train_epochs 1.0 --evaluate_during_training --logging_steps 758 --save_steps 758 --overwrite_output_dir --output_dir 05_output/upsample_default --loss_function focal_loss --seed=10

python 02_code/run_model.py  --model_type bert --model_name_or_path bert-base-uncased --task_name misinfo --do_eval --do_train  --do_lower_case --data_dir data --max_seq_length 128 --per_gpu_eval_batch_size=8 --per_gpu_train_batch_size=8 --learning_rate 1e-5 --num_train_epochs 1.0 --evaluate_during_training --logging_steps 758 --save_steps 758 --overwrite_output_dir --output_dir 05_output/upsample_default --loss_function weighted_ce --seed=10

python 02_code/run_model.py  --model_type xlm --model_name_or_path xlm-roberta-base --task_name misinfo --do_eval --do_train  --do_lower_case --data_dir data --max_seq_length 128 --per_gpu_eval_batch_size=8 --per_gpu_train_batch_size=8 --learning_rate 1e-5 --num_train_epochs 1.0 --evaluate_during_training --logging_steps 758 --save_steps 758 --overwrite_output_dir --output_dir 05_output/upsample_default --loss_function ce --seed=10

EasyAdapt
python 02_code/easyadapt.py  --model_type bert --model_name_or_path bert-base-uncased --task_name misinfo --do_eval --do_train  --do_lower_case --data_dir data --max_seq_length 128 --per_gpu_eval_batch_size=8 --per_gpu_train_batch_size=8 --learning_rate 1e-5 --num_train_epochs 1.0 --evaluate_during_training --logging_steps 200 --save_steps 200 --overwrite_output_dir --output_dir 05_output/upsample_default --loss_function focal_loss --seed=10