Teknoloji & Yapay Zeka

Yapay Zeka Modellerinde Seyreklik Devrimi: SEFT Yöntemi ile Büyük Modeller Küçülüyor

Araştırmacılar, büyük dil modellerinin hesaplama yükünü azaltmak için yeni bir yöntem geliştirdi. SEFT (Sparsity Evolution Fine-Tuning) adlı bu teknik, modellerin boyutunu küçültürken performanslarını korumalarına olanak tanıyor. Geleneksel budama yöntemleri yüksek seyreklik seviyelerinde model performansını düşürürken, SEFT dinamik bir yaklaşımla modelin seyrek yapısını eğitim sırasında geliştirir. Bu breakthrough, yapay zeka modellerinin mobil cihazlarda ve sınırlı kaynaklara sahip sistemlerde daha verimli çalışmasının önünü açıyor. Yöntem, 'ağırlık bırakma ve büyütme' stratejisiyle görev odaklı adaptasyon sağlayarak, hem model boyutunu küçültüyor hem de performansı koruyor.

Büyük dil modelleri (LLM) pek çok alanda başarılı olmasına rağmen, devasa hesaplama gereksinimleri nedeniyle yaygın kullanımda zorluklar yaşanıyor. Araştırmacılar bu soruna çözüm olarak SEFT (Sparsity Evolution Fine-Tuning) adında yenilikçi bir yöntem geliştirdi.

Mevcut model küçültme teknikleri olan SparseGPT ve Wanda gibi budama yöntemleri, model boyutunu etkili şekilde azaltabilse de yüksek seyreklik seviyelerinde performans kaybı yaşanıyor. Ayrıca LoRA gibi geleneksel ince ayar yöntemleri, tüm yoğun metrikleri güncellemesi gereken yapıları nedeniyle seyrek modeller için uygun değil.

SEFT, bu sorunları çözmek üzere özel olarak seyrek LLM'ler için tasarlandı. Yöntemin temel özelliği, ince ayar süreci boyunca budanmış modellerin seyrek topolojisini dinamik olarak geliştirirken, genel seyreklik seviyesini koruması.

Araştırmada öne çıkan 'ağırlık bırakma ve büyütme' stratejisi, modellerin belirli görevlere uyum sağlamasını mümkün kılıyor. Bu sayede hem hesaplama verimliliği artırılıyor hem de performans korunuyor.

Bu gelişme, yapay zeka modellerinin mobil cihazlarda, kenar bilişim sistemlerinde ve sınırlı donanım kaynaklarına sahip ortamlarda daha etkin kullanılmasının yolunu açıyor.

Özgün Kaynak
arXiv (CS + AI)
Leave it to the Specialist: Repair Sparse LLMs with Sparse Fine-Tuning via Sparsity Evolution
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.