Yapay zeka alanında önemli bir gelişme yaşanırken, CLIP gibi önceden eğitilmiş görsel-dil modellerinin sürekli öğrenme yetenekleri yeni bir boyut kazandı. Araştırmacılar, bu modellerin gerçek dünya koşullarında karşılaştığı kritik bir sorunu tespit etti: farklı disiplinlerden gelen dengesiz veriler, modellerin öğrenme performansını ciddi şekilde etkiliyor.
Bilim insanları bu durumu 'Domain Gravity' olarak adlandırdıkları bir terimle açıklıyor. Bu fenomen, veri dengesizliği nedeniyle bazı alanların embedding uzayında orantısız etki yaratmasına ve bunun sonucunda prototype kaymasına yol açmasını ifade ediyor. Özellikle az temsil edilen veya yüksek entropi içeren alanlarda performans düşüşü gözlemleniyor.
Bu soruna çözüm olarak geliştirilen HyCal (Hybrid Prototype Calibration) yöntemi, ek eğitim gerektirmeden çalışan innovative bir yaklaşım sunuyor. Yöntem, Cross-Discipline Variable Few-Shot Class-Incremental Learning (XD-VSCIL) benchmark'ı üzerinde test edildi ve başarılı sonuçlar elde edildi.
Bu gelişme, yapay zeka modellerinin gerçek dünya uygulamalarında daha güvenilir ve dengeli performans sergilemesi açısından önem taşıyor. Özellikle farklı disiplinlerden gelen heterojen verilerin işlenmesi gereken alanlarda pratik faydalar sağlayacağı öngörülüyor.