Описание модели

Модель была создана для дообучения "HuggingFaceTB/SmolLM-135M-Instruct" с использованием Proximal Policy Optimization (PPO)

Правильно оценивает сгенерированный моделью текст, на обучающем датасете показала большие различия в оценках для 'chosen' и 'rejected'

Как использовать:

reward_model = AutoModelForSequenceClassification.from_pretrained(
        MODEL_ID,
        num_labels=1
    )
reward_model.to(device)

inputs_chosen = tokenizer.apply_chat_template(['some text', tokenize=False)
inputs_chosen = tokenizer(inputs_chosen, return_tensors="pt").to(DEVICE)
score_chosen = reward_model(**inputs_chosen).logits[0].cpu().detach()
print(score_chosen)
Downloads last month
-
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for georgebu/reward_model

Finetuned
(178)
this model

Dataset used to train georgebu/reward_model

Collection including georgebu/reward_model