llm-course-hw3-PEFT
Collection
Дообучение LLM с помощью методов PEFT
•
3 items
•
Updated
В этой домашке была дообучена языковая модель TinyLlama-1.1B-Chat-v1.0 с помощью QLoRA на датасете cardiffnlp/tweet_eval для задачи анализа тональности текстов
Вопрос
@user Alciato: Bee will invest 150 million in January, another 200 in the Summer and plans to bring Messi by 2017
Ответ модели
positive
F1 macro: 0.34
from transformers import AutoModelForCausalLM, AutoTokenizer
REPO_NAME = "MurDanya/llm-course-hw3-tinyllama-qlora"
model = AutoModelForCausalLM.from_pretrained(REPO_NAME, device_map="auto")
tokenizer = AutoTokenizer.from_pretrained(REPO_NAME)
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "left"
Base model
TinyLlama/TinyLlama-1.1B-Chat-v1.0