Kumru, 7,4 milyar parametreye sahip ve yalnızca 16 GB VRAM’e sahip tüketici GPU’larında bile çalışabiliyor. Bu özellik, yapay zekayı büyük sunucu altyapılarına ihtiyaç duymadan şirket içi bilgisayarlarda ve küçük işletmelerde de kullanılabilir hale getiriyor. Model, 26 farklı kategoride test edilerek farklı senaryolarda performansı doğrulandı.
META’DAN LLAMA-3 DESTEĞİ
Kumru’nun geliştirilmesinde, Meta’nın LLaMA-3 mimarisi de destek sağladı. 45 günlük ön eğitim sürecinde, NVIDIA H100 ve H200 GPU’ları üzerinde 500 GB büyüklüğünde veri kullanıldı. Model, ön eğitimde 300 milyar örnekle, sonraki aşamada ise 1 milyon örnekle işleme girerek maksimum doğruluk ve performans hedeflendi.
VNGRS’NİN YERLİ GİRİŞİMİ
Türkiye Gazetesi’nin aktardığına göre, yapay zekâ ve yazılım alanında faaliyet gösteren yerli girişim VNGRS, Kumru’yu hem bulut ortamında hem de yerel bilgisayarlarda kullanıma uygun şekilde geliştirdi. Böylece küçük işletmeler ve bireysel kullanıcılar, yapay zekayı düşük maliyetle deneyimleyebilecek.
MOBİLDE KUMRU-2B
Kumru’nun daha küçük, açık kaynaklı versiyonu Kumru-2B, 2 milyar parametreyle çalışıyor ve sadece 4,8 GB bellekle mobil cihazlarda kullanılabiliyor. Hugging Face üzerinden erişime açılan Kumru-2B, kullanıcıların mobil cihazlarında da yüksek performanslı Türkçe yapay zekâ deneyimi yaşamalarını mümkün kılıyor.
Türkiye’nin yerli yapay zekâ hamlesi, hem dil bariyerini aşmayı hem de yapay zekâyı daha erişilebilir hale getirmeyi hedefliyor. Kumru’nun önümüzdeki dönemde hem iş dünyasında hem de günlük yaşamda yaygın olarak kullanılması bekleniyor.