Flört veri seti ile eğitilmiş Kumru 2B Instruct Lora
Model Detayları
- Temel model: vngrs-ai/Kumru-2B
- Eğitim yöntemi: Unsloth + LoRA (r=16)
- Eğitim süresi: 2 epoch (~35 dk, T4 GPU)
- Son eval loss: ~5.39
- Veri seti: Flört uygulamalarından toplanmış Türkçe konuşmalar (~38.537 satır)
- Adaptörü Oluşturan: @TlCARET
Bu model ne yapar / ne yapmaz?
Base modele göre cevap farklılıkları:
- Argo ve emoji kullanımı arttı
- Klasik sohbet başlangıçlarında cevap tutarlılığı iyileşti
- Flörtöz sorularda alakalı cevaplar üretiyor
- Flörtöz sohbet devamlılığı iyileşti
Eksiklikler:
- Model parametresi göz önünde bulundurulunca verilen cevaplarda akıl yürütmesi noksan.
- Epoch sayısı artsa ve QA'da tekrar sayısı artsa da loss benzer kalıyor bu veri setinde.
- Base model çok fazla sözlük etkisinde kaldığı için alakasız yerlerde Bknz: diyebiliyor.
Not(lar):
- Tamamen eğlence ve deney amaçlıdır. Profesyonel kullanıma uygun değildir.
- Eğitim verilerine system prompt dahil edilmemiştir.
Kullanım
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch
base_model = "vngrs-ai/Kumru-2B"
lora_path = "aiproje/kumru-2b-flirt-lora" # kendi repo adını yaz
tokenizer = AutoTokenizer.from_pretrained(base_model)
model = AutoModelForCausalLM.from_pretrained(
base_model,
load_in_4bit=True,
device_map="auto"
)
model = PeftModel.from_pretrained(model, lora_path)
# Örnek sohbet
prompt = "Nasılsın şekerim? 😏"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(
**inputs,
max_new_tokens=120,
temperature=0.85, # biraz daha yaratıcı
top_p=0.92,
repetition_penalty=1.2, # daha fazla tekrar
max_new_tokens=300,
repetition_penalty=1.25,
do_sample=True
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
- Downloads last month
- 3
Model tree for aiprojecom/kumru-2b-flirt-lora
Base model
vngrs-ai/Kumru-2B