Modern otomobillerdeki güvenlik sistemleri, yayaları, bisikletlileri ve diğer savunmasız yol kullanıcılarını tespit etmek için yapay zeka modellerini kullanıyor. Ancak bu sistemlerin karşılaştığı temel bir problem var: en başarılı modeller çok büyük ve araç bilgisayarlarında verimli çalışamıyor.
Araştırmacılar bu soruna yaratıcı bir çözüm getirdi. Bilgi distilasyonu adı verilen teknikle, büyük bir öğretmen modelinin sahip olduğu bilgiyi daha küçük bir öğrenci modele aktarmayı başardılar. YOLOv8-L adlı 43.7 milyon parametreli büyük model, YOLOv8-S adlı 11.2 milyon parametreli küçük modele rehberlik etti.
70 bin eğitim görüntüsü içeren BDD100K veri setinde yapılan testler çarpıcı sonuçlar verdi. Büyük model araç donanımına uyarlandığında performansı %23 düşerken, bilgi distilasyonu ile eğitilen küçük model sadece %5.6 kayıp yaşadı. Daha da önemlisi, küçük model normal eğitim yöntemleriyle elde edilenden %14.5 daha yüksek doğruluk sağladı.
Araştırma ekibi, bilgi distilasyonunun sadece tespit yeteneğini değil, özellikle hassasiyet kalibrasyonunu aktardığını keşfetti. Bu bulgu, yapay zekanın nasıl öğrendiği konusunda önemli ipuçları veriyor. Yeni yöntem, otonom araçların güvenlik sistemlerinin hem hızlı hem de güvenilir olmasını sağlayarak yol güvenliğine katkıda bulunacak.