Optimizasyon teorisinde önemli bir adım atan yeni araştırma, düzgün olmayan ve dışbükey olmayan fonksiyonlar üzerinde subgradient descent yönteminin yakınsama hızlarını detaylı olarak inceliyor. Bu tür fonksiyonlar, makine öğrenimi ve mühendislik uygulamalarında sıkça karşılaşılan zorlu optimizasyon problemlerinin temelini oluşturuyor.
Araştırmacılar, hedef fonksiyonun belirli geometrik koşulları sağladığı durumlarda, fonksiyonun düzgün manifoldlardan oluşan katmanlara (strata) bölünebileceğini gösterdi. Bu yaklaşımda her katmanda fonksiyon düzgün hale geliyor ve Clarke subgradientleri için global projeksiyon formülü geçerli oluyor.
Çalışmanın en önemli katkısı, subgradient yönteminin iterasyonlarının yakındaki katmanlarda Riemannian gradyen inişini yerel olarak taklit ettiğini kanıtlaması. Bu durum, durağanlığı ölçmek için yeni bir perspektif sunuyor.
Geliştirilen aktif katman seçim kuralı ve yerel iniş eşitsizliklerini birleştiren mekanizma, açık yakınsama hızları elde edilmesini sağlıyor. Bu hızlar, stratifikasyondaki boyut sayısıyla ifade ediliyor ve katman sayısı azaldıkça iyileşiyor. Sonuçlar, düzgün durumlardaki klasik oranları sabitler düzeyinde geri kazanıyor.