Yapay zeka teknolojilerinin yaygınlaşmasıyla birlikte, büyük dil modellerinin 'prompt hassasiyeti' sorunu kullanıcılar arasında endişe yaratıyor. Bu problem, aynı anlama gelen farklı şekillerde sorulmuş sorulara sistemin farklı cevaplar vermesi anlamına geliyor.
Yeni bir araştırmada bilim insanları, bu tutarsızlığın matematiksel temellerini ortaya çıkardı. Araştırmacılar, büyük dil modellerini çok değişkenli fonksiyonlar olarak ele alıp Taylor açılımı yöntemiyle analiz etti. Bu yaklaşım, anlam korunmuş promptlar, gradyanları ve modelin bir sonraki token için hesapladığı log olasılıklar arasındaki ilişkiyi anlamaya yönelik.
Cauchy-Schwarz eşitsizliğini kullanarak elde edilen bulgular şaşırtıcı. Küçük sinir ağlarının aksine, büyük dil modelleri benzer girdileri kümelemiyor, tam tersine onları dağıtıyor. Bu dağılma davranışı, anlam olarak aynı olan iki prompt arasındaki log olasılık farkının üst sınırının aşırı yüksek olmasına yol açıyor.
Araştırma, neden bazı anlam korunmuş prompt varyasyonlarının diğerlerinden daha istikrarlı sonuçlar verdiğini de açıklıyor. Bu bulgular, yapay zeka sistemlerinin güvenilirliğini artırmaya yönelik çalışmalarda kritik önem taşıyor.