gemma2-9b-it-tr-sft-health

Türkçe sağlık odaklı bir yardımcı için google/gemma-2-9b-it tabanlı gözetimli ince ayar (SFT). Model, güvenli yanıt ilkelerine uygun olacak şekilde eğitilmiştir: teşhis koymaz, ilaç adı/dozu vermez, kısa özet + madde madde öneri üretir ve sonda kısa bir güvenlik notu ekler.

⚕️ Uyarı: Bu model tıbbi tavsiye yerine bilgilendirme amacıyla tasarlanmıştır. Sağlık kararları için her zaman bir uzmana danışın.


🔍 Model Özeti

  • Temel model: google/gemma-2-9b-it
  • Amaç: Türkçe sağlık asistanı (SFT)
  • Eğitim verisi: alibayram/turkish-hospital-medical-articles korpusundan üretilmiş Soru–Cevap çiftleri
  • Eğitim türü: Supervised Fine-Tuning (SFT) — LoRA ile eğitilip birleştirilmiş (merged) ağırlıklar
  • Girdi biçimi: Chat (Gemma-IT, system desteği workaround)
  • Alan: Sağlık (hasta bilgilendirme / genel sağlık okuryazarlığı)
  • Dil: Türkçe

📦 Kullanım

Hızlı başlatma

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

MODEL_ID = "emirhan-denizyol/gemma2-9b-it-tr-sft-health"

tok = AutoTokenizer.from_pretrained(MODEL_ID, use_fast=True)
model = AutoModelForCausalLM.from_pretrained(
    MODEL_ID,
    device_map="auto",
    torch_dtype=torch.bfloat16  # T4 vb. için float16 kullan
)
model.eval()

SYS = (
    "Sen güvenli bir sağlık asistanısın. Yalnızca eğitim verisindeki tıbbi bilgilere dayan. "
    "Teşhis koyma, ilaç adı/dozu verme, reçete yazma. Yanıtları kısa özet + 3–6 maddeyle ver. "
    "Sonda kısa güvenlik notu ekle."
)

user = "Boğazım ağrıyor, ateşim var. Evde neler yapabilirim?"
usr_with_sys = f"<SYS>\n{SYS}\n</SYS>\n\n{user}"

text = tok.apply_chat_template(
    [{"role": "user", "content": usr_with_sys}],
    tokenize=False,
    add_generation_prompt=True,
)

inputs = tok(text, return_tensors="pt").to(model.device)
with torch.no_grad():
    out = model.generate(
        **inputs,
        max_new_tokens=256,
        temperature=0.7,
        top_p=0.9,
        do_sample=True,
    )

print(tok.decode(out[0], skip_special_tokens=True))

4-bit/8-bit (VRAM dostu)

from transformers import BitsAndBytesConfig
quant = BitsAndBytesConfig(load_in_4bit=True, bnb_4bit_compute_dtype=torch.float16)
model = AutoModelForCausalLM.from_pretrained(MODEL_ID, device_map="auto", quantization_config=quant)

Önemli: Prompt şablonu

Gemma-IT yerleşik system rolünü kullanmadığından, system mesajını user içeriğine <SYS> ... </SYS> olarak gömün (yukarıdaki örnek). Böylece eğitimdeki biçemle uyumlu üretim alınır.


🧪 Örnek Girdiler/Çıktılar

Aşağıdaki örnekler temsili olup modelin güvenli yanıt ilkelerini gösterir.

Soru:

“Baş ağrısı ve bulantım var, ne önerirsin?”

Örnek Yanıt (kısaltılmış):

  • Kısa dinlenme, yeterli su alımı, hafif ve kokusuz gıdalar.
  • Ekran/ses uyaranlarını azalt, loş ortamda dinlen.
  • Ani başlangıçlı, çok şiddetli veya nörolojik bulgular eşlik ediyorsa acile başvur.
  • Güvenlik notu: Bu, tıbbi muayene yerine geçmez.

Soru:

“Alerjik konjonktivit nedir?”

Örnek Yanıt (kısaltılmış):

  • Göz kapaklarının iç yüzünü ve gözün beyaz kısmını tutan alerjik iltihaplanma.
  • Belirtiler: kaşıntı, kızarıklık, sulanma.
  • Tetikleyicilerden kaçınma, göz hijyeni, soğuk kompres.
  • Güvenlik notu: Şikâyetleriniz artarsa göz hekimine başvurun.

Soru:

"Boğazım ağrıyor, ateşim var. Hangi hastalığın belirtileri olabilir? Doktora gitmeden öncelikle kendim evde ne yapabilirim?"

Örnek Yanıt (kullanıcı örneği):

  • Boğaz ağrısı ve ateş, bademcik iltihabı, viral enfeksiyonlar veya Covid-19 gibi hastalıkların belirtileri olabilir.

  • Doktora gitmeden önce bol sıvı tüketmek, ılık tuzlu su ile gargara yapmak ve bal-limon karışımı gibi doğal yöntemler denenebilir.

  • Güvenlik notu: Şikâyetleriniz artarsa göz hekimine başvurun.


🗂️ Eğitim Verisi

  • Kaynak: alibayram/turkish-hospital-medical-articles Sağlık kurumlarında yayımlanmış Türkçe bilgilendirme içerikleri.
  • Dönüşüm: Bu korpustaki metinlerden yönerge uyumlu Soru–Cevap (Q&A) çiftleri tarafımızdan türetilmiştir (kısa özet + 3–6 madde + güvenlik notu formatı).
  • Temizlik: Kişisel veri/PHI içermemesi için kontrol ve sadeleştirme; tıbbi teşhis/ilaç/doz telkinlerinden kaçınma.
  • Lisans / kullanım koşulları: Lütfen veri kümesi sayfasındaki lisans ve koşulları inceleyin; bu model söz konusu veri kümesinden türetilmiş Q&A ile eğitilmiştir.

Atıf: Bu çalışmada kullanılan temel korpus Ali Bayram tarafından yayımlanan alibayram/turkish-hospital-medical-articles veri kümesidir. Referans: Ali Bayram, Turkish Hospital Medical Articles, Hugging Face Datasets. Teşekkür ederiz.


🏗️ Eğitim Ayrıntıları

  • Yöntem: SFT (TR sağlık asistanı stili)

  • Teknik: LoRA ile ince ayar → birleştirilmiş ağırlık (merged-best)

  • Donanım: (örn.) A100 40GB

  • Önemli hiperparametreler:

    • lr: 2e-5
    • batch_size: 64 (gradient acc. ile efektif)
    • max_seq_len: 4096
    • epochs: 3–5
    • optimizer: AdamW
    • lr_scheduler: cosine w/ warmup

Burayı kendi gerçek değerlerinle güncelle.


📊 Değerlendirme ve Kalite

  • Biçem kontrolü: Kısa özet + 3–6 madde + güvenlik notu
  • Güvenlik filtresi: İlaç/doz isimlendirmesi ve teşhis telkininden kaçınma
  • Manuel örnek değerlendirme: (ekleyin)
  • Olası metrikler: Yardımcı/zararsızlık değerlendirmesi, yönerge uyumu, Türkçe dil akıcılığı

⚠️ Bilinen Sınırlamalar

  • Model tıbbi teşhis koymaz ve reçete önermez; yanlış kullanım hatalı kararlara yol açabilir.
  • Eğitim verisindeki kapsam dâhilinde genelleme yapar; nadir veya uzmanlık gerektiren durumlarda yetersiz kalabilir.
  • Güncel tıbbi kılavuz değişikliklerini otomatik takip etmez.

✅ Uygun Kullanım / ❌ Uygunsuz Kullanım

Uygun:

  • Genel sağlık okuryazarlığı, hafif şikâyetlerde bilgilendirme, randevu/başvuru eşiği bilgilendirmeleri.

Uygunsuz:

  • Tanı koyma, ilaç/tedavi planı önermek, acil durum talimatı vermek.

🙏 Atıf ve Teşekkür

Önerilen atıf (örnek):

Bayram, A. Turkish Hospital Medical Articles (Hugging Face Datasets). emirhan-denizyol. gemma2-9b-it-tr-sft-health (Hugging Face, 2025).


📄 Sürüm Geçmişi

  • v1.0 – İlk yayın (merged-best)

✍️ İletişim

  • Yayıncı: @emirhan-denizyol
  • Geri bildirim ve örnek paylaşımları için issue açabilirsiniz.
Downloads last month
7
Safetensors
Model size
9B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support