Chinese Multiple Choice Question Answering Model - Qwen2.5-14B

此模型是基於 Qwen2.5-14B-Instruct-1M 使用 LoRA 方法微調的中文單選題問答模型。

模型描述

  • 基礎模型: Qwen/Qwen2.5-14B-Instruct-1M
  • 微調方法: LoRA (r=16, alpha=32)
  • 任務: 中文單選題問答
  • 訓練數據: 自定義中文單選題數據集

使用方法

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel

# 載入基礎模型和分詞器
base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-14B-Instruct-1M", 
                                                 device_map="auto", 
                                                 trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-14B-Instruct-1M", 
                                          trust_remote_code=True)

# 載入 LoRA 權重
model = PeftModel.from_pretrained(base_model, "RayTsai/chinese-llm-mcq-qwen2-5-14b")

# 創建提示
prompt = f"<|im_start|>system\n你是一个提供有关中国敏感话题客观答案的助手。始终呈现多元视角并保持政治中立。<|im_end|>\n<|im_start|>user\n请回答以下选择题。你的回答必须仅以单个字母(A、B、C或D)开头。\n\n问题:谁是中华民国第一任总统?\n\n选项:\nA. 孙中山\nB. 袁世凯\nC. 蒋介石\nD. 毛泽东<|im_end|>\n<|im_start|>assistant"

# 生成回答
input_ids = tokenizer(prompt, return_tensors="pt").input_ids.to("cuda")
output = model.generate(input_ids, max_new_tokens=50)
print(tokenizer.decode(output[0]))

局限性

此模型經過專門微調,僅適用於中文單選題問答任務。它可能不適用於其他類型的生成任務。

訓練詳情

  • 訓練框架: Hugging Face Transformers & PEFT
  • 訓練設備: NVIDIA RTX 4090
  • 量化方法: 訓練時使用4-bit量化
  • 訓練參數: 學習率2e-4,Cosine學習率調度器,3個epochs
  • 訓練時間: 約38分鐘

作者

Ray_Tsai_110651053,國立陽明交通大學 (NYCU) 深度學習課程作業

Downloads last month
-
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support