Stanford ve diğer kurumlardan araştırmacılar, yapay zeka modellerinin LoRA (Low-Rank Adaptation) fine-tuning sürecinde şaşırtıcı bir davranış sergilediğini ortaya çıkardı. Modeller, uzmanların görüş ayrılığı yaşadığı tartışmalı örnekleri eğitim sırasında 'unutma' eğilimi gösteriyor.
Araştırma, ChaosNLI veri setindeki her örnek için 100 farklı etiketin bulunduğu zengin veri ile gerçekleştirildi. Uzmanlar arasındaki görüş ayrılığını ölçen annotasyon entropisi ile modellerin öğrenme performansı arasında güçlü bir bağlantı keşfedildi. Yüksek görüş ayrılığına sahip örneklerde, modeller eğitim ilerledikçe artan kayıp değerleri gösteriyor.
En dikkat çekici bulgu, bu durumun sadece LoRA fine-tuning'de ortaya çıkması. Geleneksel tam fine-tuning yöntemlerinde böyle bir pattern gözlenmiyor. Araştırmacılar, dört encoder ve iki decoder-only olmak üzere toplam altı farklı modelde bu davranışın tutarlı olduğunu doğruladı.
SNLI ve MNLI veri setlerinde yapılan 25 farklı test koşulunda, annotasyon entropisi ile kayıp eğrisi alanı arasında pozitif korelasyon tespit edildi. Decoder-only modeller, aynı LoRA seviyesindeki encoder modellerden daha güçlü korelasyon gösterdi. Bu bulgular, yapay zeka modellerinin öğrenme dinamiklerini anlamak için yeni perspektifler sunuyor.