Makine öğrenmesi dünyasında 'Bedava Öğle Yemeği Yok' teoremleri, denetimli öğrenme alanında uzun süredir bilinen bir gerçekti: hiçbir algoritma her durumda en iyi performansı gösteremez. Şimdi araştırmacılar, bu prensibin denetimsiz öğrenme için de geçerli olduğunu matematiksel olarak kanıtladı.
Çalışma, eliptik dağılımlara sahip veri setlerinde 'bump-hunting' olarak adlandırılan anormal bölge tespit yöntemlerine odaklanıyor. Araştırmacılar, d-boyutlu uzaydan k boyut seçip her boyutta belirli bir olasılık aralığını koruyarak analiz yaptıklarında şaşırtıcı bir sonuçla karşılaştılar.
En küçük temel bileşenleri (araştırmacıların 'en önemsiz bileşenler' olarak adlandırdığı) seçmek toplam varyansı ve Frobenius normunu maksimize ederken, en büyük temel bileşenleri seçmek bu değerleri minimize ediyor. Her iki yaklaşım da kendi amaçları doğrultusunda optimal sonuçlar veriyor.
Fashion-MNIST veri seti üzerindeki deneyler teorik bulguları destekledi. En büyük temel bileşenlerin analizi veri setindeki çeşitliliği yakalama konusunda üstün performans gösterdi. Bu keşif, veri analizi stratejilerinin seçiminde daha dikkatli yaklaşımlar geliştirilmesi gerektiğini ortaya koyuyor.