nsmc ๊ฐ์ ๋ถ์ LoRa ๋ชจ๋ธ
- nsmc ๋ฐ์ดํฐ์ ์ผ๋ก ํ์ธํ๋๋ ํ๊ตญ์ด ๊ฐ์ ๋ถ์ ๋ชจ๋ธ์ ๋๋ค.
๋ชจ๋ธ ์ค๋ช
- ๋ฒ ์ด์ค ๋ชจ๋ธ : klue/bert-base
- ํ์ธ ํ๋ ๋ฐฉ๋ฒ : LoRa
- **์ธ์ด ** :ํ๊ตญ์ด
์ฑ๋ฅ
- ์ต์ข ์ฑ๋ฅ : 85%
ํ์ต์ ๋ณด
###๋ฐ์ดํฐ์
- ์ด๋ฆ : nsmc -ํ์ต ๋ฐ์ดํฐ : 10000
ํ์ต ์ค์
- ์ํญ : 3
- ๋ฐฐ์น ํฌ๊ธฐ : 16
- ํ์ต๋ฅ : 0.0003
- ์๋ฐ์ ์คํ : 100
์ฌ์ฉ ๋ฐฉ๋ฒ
from peft import PeftModel
# ๋ฒ ์ด์ค ๋ชจ๋ธ ๋ก๋ (๋ถ๋ฅ์ฉ)
print("๋ฒ ์ด์ค ๋ชจ๋ธ ๋ก๋ฉ")
base_model_reload = AutoModelForSequenceClassification.from_pretrained(
"klue/bert-base",
num_labels=2
)
# ์
๋ก๋ํ LoRA ์ด๋ํฐ ๋ก๋
print(f"LoRA ์ด๋ํฐ ๋ก๋ฉ: ahnsajang/nsmc-sentiment-lora")
model_reload = PeftModel.from_pretrained(base_model_reload, model_name_upload)
tokenizer_reload = AutoTokenizer.from_pretrained(model_name_upload)
# GPU๋ก ์ด๋
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model_reload = model_reload.to(device)
model_reload.eval()
print("๋ชจ๋ธ ๋ก๋ ์๋ฃ!")
print("์ด์ ์ด ์ฝ๋๋ก ์ด๋์๋ ๋ด ๋ชจ๋ธ์ ์ฌ์ฉํ ์ ์์ต๋๋ค!")
Note: ์ด ๋ชจ๋ธ์ ๊ต์ก ๋ชฉ์ ์ผ๋ก ๋ง๋ค์ด์ก์ต๋๋ค.
Model tree for ahnsajang/nsmc-sentiment-lora
Base model
klue/bert-base