Klasik makine öğrenmesinde uzun zamandır bilinen ilginç bir fenomen, şimdi kuantum sistemlerde de gözlemlenmeye başlandı. 'Çifte iniş' olarak adlandırılan bu olayda, modelin test hatası önce artıp sonra beklenmedik şekilde tekrar azalıyor.
Yeni araştırma, kuantum kernel ridge regresyon (QKRR) adı verilen özel bir kuantum makine öğrenmesi yönteminde bu fenomeni detaylı olarak inceledi. Çalışma, rastgele matris teorisinin deterministik eşdeğerlerini kullanarak, yüksek boyutlu sistemlerde test riskinin asimptotik ifadesini matematiksel olarak türetti.
Araştırmacılar, özellikle interpolasyon eşiğine yakın bölgelerde görülen risk artışının nedenlerini açıkladı. Bu kritik noktada model, eğitim verilerini tam olarak ezberlemek ile genelleme yapabilmek arasında kaldığı için performans düşüşü yaşıyor. Ancak ilginç olan, daha fazla parametre eklendikçe performansın yeniden iyileşmesi.
Çalışmanın en önemli katkısı, açık düzenlileştirme (explicit regularization) teknikleriyle bu risk artışının etkili şekilde bastırılabileceğini göstermesi oldu. Teorik sonuçlar, sonlu boyutlu kuantum sistemlerinde yapılan sayısal simülasyonlarla doğrulandı ve yüksek uyum gösterdi.
Bu bulgular, kuantum avantajını daha iyi anlamak ve kuantum makine öğrenmesi algoritmalarını optimize etmek için önemli bir temel oluşturuyor.