Qwen3.5-2B-Turkish-SFT

Qwen3.5-2B base modeli üzerine Türkçe instruction-following verisiyle fine-tune edilmiş bir dil modelidir.

Model Detayları

Base model unsloth/Qwen3.5-2B
Fine-tuning yöntemi LoRA (bf16)
LoRA rank 16
Dataset AlicanKiraz0/Turkish-SFT-Dataset-v1.0
Dataset boyutu 5.579 örnek
Epoch 3
Learning rate 2e-4
Training loss 1.47 → 0.82
Framework Unsloth + TRL
GPU NVIDIA L4 (22GB)

Kullanım

Transformers

from transformers import AutoModelForCausalLM, AutoProcessor
import torch

model_name = "Tuguberk/Qwen3.5-2B-Turkish-SFT"

processor = AutoProcessor.from_pretrained(model_name)
tokenizer = processor.tokenizer

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

messages = [
    {"role": "system", "content": "Sen yardımcı bir Türkçe asistansın."},
    {"role": "user",   "content": "Türkiye hakkında kısa bir bilgi verir misin?"},
]

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=False,
)
inputs = tokenizer(text, return_tensors="pt").to(model.device)

outputs = model.generate(
    inputs["input_ids"],
    max_new_tokens=512,
    temperature=0.7,
    top_p=0.9,
    do_sample=True,
)

response = tokenizer.decode(outputs[0][inputs["input_ids"].shape[1]:], skip_special_tokens=True)
print(response)

Ollama (GGUF)

ollama run hf.co/Tuguberk/Qwen3.5-2B-Turkish-SFT:Q4_K_M

llama.cpp

# Metin modeli
llama-cli -hf Tuguberk/Qwen3.5-2B-Turkish-SFT --jinja

# Multimodal
llama-mtmd-cli -hf Tuguberk/Qwen3.5-2B-Turkish-SFT --jinja

Mevcut Formatlar

Dosya Boyut Açıklama
Qwen3.5-2B.BF16-mmproj.gguf ~4.5GB En yüksek kalite
Qwen3.5-2B.Q8_0.gguf ~2.7GB Yüksek kalite
Qwen3.5-2B.Q4_K_M.gguf ~1.5GB Önerilen — kalite/boyut dengesi
Qwen3.5-2B.Q2_K.gguf ~0.8GB En küçük, düşük kalite

Tavsiye: Çoğu kullanım için Q4_K_M yeterlidir.

Dataset

AlicanKiraz0/Turkish-SFT-Dataset-v1.0 — genel amaçlı Türkçe instruction-following verisi.

Format: system / user / assistant üçlüsü, ChatML şablonuyla işlenmiştir.

Evaluation

Benchmark değerlendirmeleri lm-evaluation-harness-turkish kullanılarak yapılmıştır.

Benchmark Base Model Fine-tuned Fark
Turkish MMLU (mmlu_tr_v0.2) 47.29% 47.20% −0.09
GSM8K-TR strict (gsm8k_tr-v0.2) 38.04% 41.38% +3.34
TruthfulQA (truthfulqa_v0.2) 47.45% 49.08% +1.63
ARC-TR normalized (arc_tr-v0.2) 37.03% 38.23% +1.20
HellaSwag-TR normalized (hellaswag_tr-v0.2) 38.74% 40.27% +1.53
Winogrande-TR (winogrande_tr-v0.2) 49.53% 49.61% +0.08

Önemli bulgular:

  • Matematik muhakemesinde (GSM8K-TR) +3.34 puanlık belirgin iyileşme
  • Doğruluk ve akıl yürütme gerektiren benchmark'larda (TruthfulQA, ARC, HellaSwag) tutarlı iyileşme
  • Genel bilgi (MMLU) korunmuş — catastrophic forgetting gözlemlenmedi
  • Yalnızca 5.579 örnekle elde edilmiş sonuçlar

Sınırlamalar

  • 5.5K örnekle eğitilmiştir — büyük ölçekli veriyle eğitilmiş modellerle kıyaslanamaz
  • Derin matematik ve zincirleme muhakeme görevlerinde sınırlı performans
  • Yalnızca Türkçe instruction-following için optimize edilmiştir

LoRA Adaptörleri

Sadece LoRA ağırlıklarını kullanmak için: Tuguberk/Qwen3.5-2B-Turkish-SFT-LoRA

Lisans

Bu model, base model ile aynı lisansı taşımaktadır: Apache 2.0


Downloads last month
961
Safetensors
Model size
2B params
Tensor type
F32
·
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Tuguberk/Qwen3.5-2B-Turkish-SFT

Finetuned
Qwen/Qwen3.5-2B
Quantized
(9)
this model

Dataset used to train Tuguberk/Qwen3.5-2B-Turkish-SFT