Makine öğrenmesi algoritmalarının en büyük sorunlarından biri, aynı veri setiyle çalıştırıldığında bile farklı rastgele tohum (random seed) değerleri nedeniyle farklı sonuçlar üretebilmesidir. Bu durum, bilimsel araştırmalarda tekrarlanabilirlik ilkesini zedelemekte ve algoritmaların güvenilirliğini sorgulatmaktadır.

Yeni araştırmada bilim insanları, bu istikrarsızlık problemine kapsamlı bir çözüm sundular. Araştırmacılar, 'subbagging' adı verilen bir tekniğin herhangi bir sınırlı sonuçlu regresyon algoritması için kararlılık garantisi verdiğini matematiksel olarak kanıtladılar. Bu yaklaşım, birden fazla alt örneklem kullanarak sonuçları stabilize ediyor.

Geliştirilen 'adaptif çapraz torbalama' yöntemi, hem örneklem bölünmesindeki hem de model eğitimindeki rastgele tohum bağımlılığını aynı anda ortadan kaldırıyor. Sayısal deneyler, bu yöntemin hedeflenen kararlılık seviyesine ulaştığını, alternatif yöntemlerin ise bu başarıyı gösteremediğini ortaya koydu.

Özellikle dikkat çeken nokta, yeni yöntemin hesaplama maliyetinin standart uygulamalara kıyasla sadece küçük bir artış göstermesi. Diğer alternatif yöntemler büyük hesaplama cezaları gerektirirken, bu teknik pratik kullanım için daha uygun bir seçenek sunuyor.