Yapay zeka alanında önemli bir gelişme yaşanırken, araştırmacılar büyük dil modellerinin (LLM) daha etkin öğrenmesi için yeni bir hafıza sistemi geliştirdi. Bu sistem, modellerin parametrelerini değiştirmeden etiketli örneklerden öğrenmesine olanak tanıyor.
Geleneksel fine-tuning yöntemlerinin yüksek maliyet, düşük esneklik ve şeffaflık sorunlarına çözüm arayan araştırmacılar, insan beynindeki hafıza sisteminden ilham aldı. Geliştirilen framework, iki farklı hafıza türü kullanıyor: episodik hafıza geçmiş deneyimleri örnekler halinde saklarken, semantik hafıza bu deneyimleri genel kullanılabilir rehberlere dönüştürüyor.
Sistemin çalışma prensibi, LLM'lerin etiketli veriler üzerinden eleştirel değerlendirmeler yapmasına dayanıyor. Bu eleştiriler önce episodik hafızada saklanıyor, ardından semantik hafızada görev düzeyinde rehberlere dönüşüyor.
Çeşitli görevler ve modeller üzerinde yapılan testlerde, en iyi performans gösteren öz-eleştiri stratejisi, sıfır-atış temel modellere göre ortalama %8.1, yalnızca etiket kullanan RAG sistemlerine göre %4.6 oranında iyileşme sağladı. Araştırmacılar, farklı modeller ve alanlar arasındaki performans farklılıklarını açıklamak için 'telkinlenebilirlik' adlı yeni bir metrik de geliştirdi.
Bu yaklaşım, LLM'lerin adaptasyon kabiliyetlerini artırırken maliyet ve esneklik avantajları sunuyor.