Yapay zekanın temel taşlarından olan Transformer modelleri, dil işlemeden görüntü analizine kadar birçok alanda başarılı sonuçlar üretirken, büyük bir sorunla karşı karşıya: aşırı kaynak tüketimi. Araştırmacılar bu soruna yenilikçi bir çözüm buldu.

Yeni geliştirilen yöntem, Transformer modellerinin çalışma sürecini birden fazla cihaza bölerek daha verimli hale getiriyor. Bu süreçte oluşan ara verilerin sıkıştırılması gerekiyor ve işte burada devrim niteliğinde yaklaşım devreye giriyor.

Rate-distortion teorisi adı verilen matematiksel çerçeveye dayanan sistem, veri boyutunu küçültürken doğruluk kaybını önceden hesaplanabilir şekilde kontrol ediyor. Bu, mühendislerin ihtiyaçlarına göre hız ve doğruluk arasında bilinçli tercih yapmalarını sağlıyor.

Dil işleme testlerinde yapılan denemeler umut verici sonuçlar ortaya koydu. En basit codec versiyonu bile önemli miktarda veri tasarrufu sağlarken, daha karmaşık mevcut yöntemleri performans açısından geride bıraktı.

Bu gelişme, büyük yapay zeka modellerinin mobil cihazlarda ve sınırlı kaynaklara sahip sistemlerde çalışabilmesinin önünü açabilir. Özellikle ChatGPT benzeri uygulamaların daha geniş kitlelere ulaşması açısından kritik bir adım olarak değerlendiriliyor.