Teknoloji & Yapay Zeka

Yapay Zeka Modelleri Tartışmalı Örnekleri 'Unutuyor': LoRA Eğitiminde Şaşırtıcı Keşif

Araştırmacılar, yapay zeka modellerinin LoRA fine-tuning yöntemiyle eğitilirken beklenmedik bir davranış sergilediğini keşfetti. Uzmanların görüş ayrılığı yaşadığı tartışmalı örneklerde, modeller eğitim sürecinde performans kaybı yaşıyor - yani bu örnekleri 'unutuyor'. Bu durum, geleneksel tam eğitim yöntemlerinde görülmeyen ve altı farklı modelde tutarlı bir şekilde ortaya çıkan niteliksel olarak farklı bir öğrenme deseni oluşturuyor. ChaosNLI veri setindeki örnek başına 100 etiketle hesaplanan annotasyon entropisi ve SNLI ile MNLI'deki kayıp eğrisi alanı arasında pozitif korelasyon bulundu.

Stanford ve diğer kurumlardan araştırmacılar, yapay zeka modellerinin LoRA (Low-Rank Adaptation) fine-tuning sürecinde şaşırtıcı bir davranış sergilediğini ortaya çıkardı. Modeller, uzmanların görüş ayrılığı yaşadığı tartışmalı örnekleri eğitim sırasında 'unutma' eğilimi gösteriyor.

Araştırma, ChaosNLI veri setindeki her örnek için 100 farklı etiketin bulunduğu zengin veri ile gerçekleştirildi. Uzmanlar arasındaki görüş ayrılığını ölçen annotasyon entropisi ile modellerin öğrenme performansı arasında güçlü bir bağlantı keşfedildi. Yüksek görüş ayrılığına sahip örneklerde, modeller eğitim ilerledikçe artan kayıp değerleri gösteriyor.

En dikkat çekici bulgu, bu durumun sadece LoRA fine-tuning'de ortaya çıkması. Geleneksel tam fine-tuning yöntemlerinde böyle bir pattern gözlenmiyor. Araştırmacılar, dört encoder ve iki decoder-only olmak üzere toplam altı farklı modelde bu davranışın tutarlı olduğunu doğruladı.

SNLI ve MNLI veri setlerinde yapılan 25 farklı test koşulunda, annotasyon entropisi ile kayıp eğrisi alanı arasında pozitif korelasyon tespit edildi. Decoder-only modeller, aynı LoRA seviyesindeki encoder modellerden daha güçlü korelasyon gösterdi. Bu bulgular, yapay zeka modellerinin öğrenme dinamiklerini anlamak için yeni perspektifler sunuyor.

Özgün Kaynak
arXiv (Dilbilim & NLP)
Annotation Entropy Predicts Per-Example Learning Dynamics in LoRA Fine-Tuning
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.